• Avvocato e Consulente Privacy, è Cultore della materia "Informatica giuridica" presso la facoltà di Giurisprudenza dell’Università Statale di Milano. È stata componente della Commissione informatica dell’Ordine degli Avvocati di Reggio Calabria. Iscritta nell'elenco dei Professionisti della Privacy di ANORC Professioni, è componente della Commissione di Valutazione di ANORC Professioni e, sempre per quest’ultima, Referente in ambito Privacy per le province di Livorno e Reggio Calabria.

Abstract

L’avvento dell’intelligenza artificiale (IA) sta rivoluzionando settori come la compliance aziendale e l’analisi dei dati, introducendo un cambiamento epocale nei processi decisionali e di monitoraggio. Oggi le aziende possono monitorare attività sospette con una velocità e una capillarità difficilmente raggiungibili dai soli team “umani”, riducendo il carico di lavoro e permettendo agli esperti di concentrarsi su questioni strategiche e su analisi più approfondite. Tuttavia, l’adozione dell’IA impone una riflessione cruciale sul valore delle capacità umane, inimitabili, che l’automazione, nonostante la sua efficienza, non può sostituire.

La Digital Compliance e i limiti della tecnologia

Nel contesto della digital compliance, l’IA rappresenta una grande opportunità per migliorare l’efficienza e la precisione in tantissimi processi. Algoritmi sofisticati di machine learning e intelligenza artificiale sono in grado di analizzare vasti volumi di dati in tempo reale, identificando automaticamente potenziali rischi di non conformità, frodi e violazioni di normative come il GDPR, la normativa antiriciclaggio, e, in ambito europeo, il Regolamento DORA e da ultimo la Direttiva NIS2, recepita recentemente in Italia con il D.lgs. 138/2024.

L’automazione di questi processi consente alle aziende di monitorare attività sospette con una velocità e una capillarità difficilmente raggiungibili dai soli team “umani”, riducendo il carico di lavoro e permettendo agli esperti di concentrarsi su questioni strategiche e su analisi più approfondite. Ad esempio, nel settore finanziario, l’IA può individuare in modo tempestivo operazioni sospette, contribuendo a prevenire e a mitigare fenomeni di riciclaggio di denaro o di finanziamento del terrorismo.

Nonostante questi vantaggi, i limiti dell’intelligenza artificiale impongono una gestione prudente, specialmente in ambiti sensibili. L’AI Act (Regolamento (UE) 2024/1689) sottolinea la necessità di norme stringenti per garantire che l’IA operi in modo trasparente, equo e sicuro, specialmente nei settori ad alto rischio. Tale normativa si preoccupa di evitare l’uso indiscriminato della tecnologia in contesti in cui un errore o un bias algoritmico potrebbero avere gravi ripercussioni sugli individui, soprattutto le minoranze o i gruppi più vulnerabili.

I sistemi di IA possono essere infatti soggetti a bias algoritmici derivanti da dati di addestramento incompleti o distorti, che portano a risultati inaccurati o addirittura discriminatori. Questo rischio è particolarmente critico in ambito di compliance normativa, dove un errore potrebbe comportare sanzioni pesanti, danni alla reputazione e una perdita di fiducia da parte degli stakeholder. A differenza dell’intelligenza umana, che può adattarsi e riconsiderare un giudizio alla luce di nuovi elementi o contesti, l’IA segue rigidamente i dati e gli algoritmi sui quali è stata addestrata, limitandosi a identificare pattern predefiniti senza la capacità di interpretare contesti nuovi o ambigui.

Oltre ai bias, l’IA è vulnerabile anche a possibili attacchi di manipolazione dei dati, come il data poisoning, dove informazioni errate o manipolate vengono introdotte nel sistema per deviarne l’analisi.

In risposta a tali problematiche, il framework normativo dell’AI Act mira a implementare un solido sistema di auditing e trasparenza per monitorare il funzionamento e la qualità dei modelli di IA, stabilendo responsabilità chiare e definendo il ruolo cruciale della supervisione umana.

Questo approccio è essenziale per garantire che la digital compliance supportata dall’AI sia effettivamente un alleato e non un rischio per le aziende e per la società.

L’intelligenza “artigianale”: le inimitabili capacità umane

L’intelligenza artificiale, nonostante la sua potenza computazionale e capacità di analisi rapida, non può replicare una serie di abilità uniche e inimitabili proprie dell’intelligenza umana. Queste capacità sono particolarmente rilevanti nei settori che richiedono interpretazione, giudizio e comprensione dei contesti complessi. Le competenze degli esseri umani, quali il pensiero critico, l’intuizione e la sensibilità morale, sono elementi fondamentali che le macchine non sono in grado di sviluppare, perché non si basano su semplici dati ma sull’esperienza, sull’etica e sull’empatia.

La natura umana si distingue per la capacità di adattarsi a situazioni nuove e ambigue, qualità che rende gli esseri umani insostituibili in processi decisionali che esulano dalla mera logica binaria o statistica. Ad esempio, nelle indagini legali o nei processi di audit, un esperto “umano” può cogliere sfumature, contraddizioni o segnali deboli che sfuggono all’algoritmo. Tale capacità deriva dalla comprensione del contesto sociale, economico e culturale e dall’abilità di correlare elementi apparentemente scollegati: un aspetto impossibile – almeno per il momento – per l’IA, che è progettata per analizzare pattern piuttosto che ragionare creativamente.

Un altro aspetto in cui l’intelligenza umana eccelle è l’abilità di riconoscere l’ambiguità e di accettare l’incertezza, doti essenziali per navigare in ambienti complessi come quelli normativi o giudiziari. L’uomo è in grado di formulare giudizi anche quando le informazioni sono incomplete o contraddittorie, integrando informazioni, esperienze e conoscenze tacite non codificabili in algoritmi. Questa abilità risulta indispensabile nei contesti in cui la legge o la regolamentazione richiedono un’interpretazione sofisticata e dove l’etica e la morale influenzano le decisioni, come nel bilanciamento tra tutela della privacy e sicurezza pubblica.

Inoltre, gli individui hanno la capacità di riflettere sulla propria esperienza passata e di imparare da essa in modo da perfezionare il proprio giudizio e correggere errori: un processo che, pur con tutti i progressi del machine learning, rimane profondamente umano. Anche i più avanzati algoritmi di AI necessitano di supervisione e, in caso di errore, non hanno la capacità intrinseca di comprendere l’origine dell’errore o di modificarne la strategia in modo indipendente. Almeno finché non arriverà la famigerata “super intelligenza artificiale” (ASI), un’idea speculativa della cui fattibilità non esiste alcun supporto scientifico.

Infine, la capacità umana di comunicare empatia e costruire rapporti di fiducia è cruciale nei settori che richiedono il contatto diretto con le persone, come il diritto, la consulenza e la gestione delle risorse umane. La comunicazione empatica e la sensibilità interculturale consentono di affrontare situazioni delicate con diplomazia e di costruire rapporti di fiducia a lungo termine, creando un ambiente in cui i soggetti coinvolti si sentono ascoltati e rispettati, un effetto che nessuna macchina può realmente replicare.

IA e capacità umane: complementarità e necessità di regolamentazione

L’integrazione dell’intelligenza artificiale nei processi decisionali e di analisi non deve essere concepita come una sostituzione delle capacità umane, ma piuttosto come un potenziamento di esse.

L’IA e gli esseri umani eccellono in aspetti diversi e complementari: mentre le macchine possono gestire e analizzare rapidamente grandi volumi di dati, gli esseri umani portano intuizione, giudizio critico, ed esperienza nel contesto complesso di scenari reali. È questa complementarità a suggerire una visione dell’IA come alleato strategico che, opportunamente regolamentato, può rafforzare e non indebolire le decisioni umane.

La complementarità tra intelligenza artificiale e capacità umane è alla base dei modelli di Human-in-the-Loop” (HITL) e “Human-Machine Teaming” (HMT), che prevedono che la macchina elabori proposte o suggerimenti, ma che sia l’uomo ad avere la responsabilità ultima della decisione. In questo modo, l’AI diventa uno strumento che agevola il lavoro umano senza sostituirne la discrezionalità. Ad esempio, nell’ambito della compliance aziendale, un sistema di intelligenza artificiale può segnalare anomalie o potenziali violazioni regolamentari, lasciando tuttavia all’analista umano il compito di interpretare questi dati nel contesto specifico dell’organizzazione e di prendere decisioni informate.

Per garantire che l’interazione tra IA e professionisti umani sia sicura ed etica, il quadro regolamentare è di fondamentale importanza. L’AI Act costituisce un primo passo significativo verso la definizione di standard chiari e rigorosi per l’uso di sistemi di intelligenza artificiale, stabilendo obblighi specifici per i sistemi di AI ad alto rischio, che devono essere progettati e utilizzati nel rispetto della trasparenza, della sicurezza e dell’affidabilità.

Questo quadro normativo prevede requisiti essenziali per la documentazione, la valutazione del rischio e l’intervento umano nei sistemi di IA che potrebbero avere un impatto critico su diritti e libertà degli individui.

Un altro aspetto cruciale riguarda la necessità di evitare la “delega automatica” di decisioni complesse alle macchine, che potrebbe portare a una dipendenza eccessiva dalla tecnologia e a un abbassamento della capacità critica degli operatori umani. Regolamentazioni come l’AI Act promuovono la creazione di sistemi di auditing continuo e di trasparenza, affinché sia sempre possibile risalire al processo decisionale e intervenire in caso di errori o anomalie, valorizzando l’importanza della supervisione umana per evitare che le decisioni automatizzate diventino “scatole nere” non accessibili o comprensibili da chi ne è responsabile.

Inoltre, la normativa europea promuove l’adozione di standard etici che incoraggiano l’inclusività e il rispetto per la diversità, al fine di evitare che gli algoritmi riproducano o amplifichino discriminazioni preesistenti. La supervisione umana, in questo contesto, diventa un’ulteriore garanzia per assicurare che le decisioni dell’IA siano in linea con valori condivisi e rispettino principi fondamentali di equità e giustizia. La regolamentazione contribuisce così a mitigare i rischi di automazione indiscriminata, obbligando le organizzazioni a mantenere l’intervento umano come elemento cardine per decisioni complesse, dove i fattori etici e sociali hanno un peso rilevante.

Ma per governare al meglio questi sistemi la formazione continua degli operatori umani diventa essenziale per far sì che possano comprendere, interpretare e valutare correttamente i suggerimenti offerti dalle macchine. L’AI potrà esprimere il suo potenziale massimo solo in un ambiente in cui gli utilizzatori sono ben formati e consapevoli dei limiti e delle capacità della tecnologia che utilizzano. La complementarità tra IA e intelligenza umana, quindi, richiede non solo un solido quadro normativo, ma anche investimenti in competenze, cultura aziendale e meccanismi di supervisione capaci di garantire l’equilibrio e la sostenibilità nell’adozione dell’intelligenza artificiale.

Un futuro di collaborazione tra l’IA e l’Uomo

Il futuro della collaborazione tra intelligenza artificiale e capacità umane è una ghiotta opportunità per ridisegnare i processi decisionali, coniugando efficienza e creatività. In questa sinergia, l’AI diventa uno strumento di supporto che amplifica le abilità umane, rendendo possibile un approccio integrato in cui la tecnologia non sostituisce ma arricchisce il contributo delle persone. Grazie a modelli di “intelligenza aumentata”, in cui l’IA e l’intelligenza umana lavorano insieme in un flusso di feedback continuo, è possibile affrontare sfide sempre più complesse e dinamiche, ottenendo risultati che nessuna delle due parti potrebbe raggiungere singolarmente.

L’IA permette di automatizzare e velocizzare le attività ripetitive e ad alta intensità di dati, consentendo agli esseri umani di dedicarsi a compiti di maggior valore strategico e creativo, come l’innovazione, la risoluzione di problemi complessi e la gestione delle relazioni interpersonali. Ad esempio, in ambito sanitario, l’intelligenza artificiale può analizzare rapidamente i dati clinici per identificare pattern e anomalie, offrendo al medico indicazioni diagnostiche che, però, vengono poi interpretate in modo critico dal medico stesso. In questo senso, l’AI diventa un alleato indispensabile che riduce i margini di errore e supporta decisioni più informate e tempestive, senza privare i professionisti della decisione finale.

Perché questa collaborazione sia effettivamente vantaggiosa, è cruciale sviluppare tecnologie che possano essere comprese e controllate da chi le utilizza. La trasparenza e la spiegabilità dei sistemi di intelligenza artificiale, infatti, sono elementi determinanti per generare fiducia e garantire una collaborazione efficace.

I requisiti di trasparenza imposti dall’AI Act obbligano i fornitori di sistemi di IA a rendere i loro sistemi interpretabili e monitorabili, per consentire agli operatori di comprendere il processo che porta alla generazione di un determinato output. Tale comprensione riduce il rischio di “automatismo cieco” e di dipendenza dalle macchine, incoraggiando invece un uso consapevole e responsabile della tecnologia.

Un futuro di collaborazione richiede anche una revisione delle competenze professionali, in modo che gli operatori siano in grado di interagire con i sistemi di IA in modo informato e critico. Questa nuova generazione di competenze include abilità tecniche, come il prompt engineering per interagire in modo corretto con i modelli di linguaggio, ma anche capacità critiche, come la valutazione dell’affidabilità dei dati e delle fonti, nonché un’etica professionale solida per bilanciare obiettivi aziendali e impatti sociali.

Conclusioni

Dal punto di vista etico, la collaborazione tra AI e capacità umane rappresenta un’opportunità per promuovere una tecnologia inclusiva e rispettosa dei diritti fondamentali. In settori come la giustizia e l’istruzione, l’uso combinato di sistemi di intelligenza artificiale e competenze umane può contribuire a ridurre le disuguaglianze, garantendo che le decisioni siano fondate su criteri oggettivi, ma supportate dalla sensibilità umana. Ad esempio, l’IA può aiutare a eliminare bias inconsci attraverso l’analisi neutrale dei dati, ma è l’intervento umano che assicura che le scelte siano ponderate e calibrate in base al contesto e alle singolarità dei casi.

In un’epoca in cui l’automazione rischia di marginalizzare alcune abilità umane, è essenziale valorizzare queste capacità uniche. Esse rappresentano un vantaggio competitivo e morale che nessun sistema automatizzato potrà mai offrire e che risulteranno fondamentali per mantenere equilibrio e umanità in un mondo sempre più dominato dalla tecnologia.

PAROLE CHIAVE: bias / compliance / IA / team / tecnologia / trasparenza

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.