• Avvocato, lavora presso U.Di.Con Puglia (Unione per la difesa dei consumatori) e si occupa della consulenza in ambito consumeristico per tutelare i diritti di consumatori nei rapporti privati e con le Pubbliche Amministrazioni, oltreché dell’individuazione e del coordinamento di progetti finanziati a livello Regionale, Nazionale ed Europeo. Collabora con C.L.A.A.I. Lecce e si occupa della gestione delle politiche attive del lavoro, dell’indagine relativa ai servizi e ai fabbisogni degli utenti di corsi di formazione. Appassionato di psicologia, di diritto e di digital transformation, ha sviluppato il suo interesse per la digital security frequentando un corso di perfezionamento e tutt’oggi si dedica alla formazione continua in materia di artificial intelligence e di digital culture, cooperando con privati e associazioni per lo sviluppo di idee e progetti dall’impatto innovativo e sostenibile.

Abstract

Da alcuni anni a questa parte, l’intelligenza artificiale ha innestato una rivoluzione digitale in numerosi settori, dalla scienza alla comunicazione, compresa la giurisprudenza, mettendo a dura prova l’intelligenza “artigianale”. Può un algoritmo essere chiamato a decidere una controversia?  Cosa accadrebbe se si potesse anticipare l’esito di un processo? Per rispondere a tali interrogativi, l’uomo dev’essere in grado di arginare i rischi connessi ad un abuso dei moderni sistemi di intelligenza artificiale ed evitare che la responsabilità decisionale sia incondizionatamente rimessa ad un algoritmo, insensibile alla natura umana. L’impatto di questi sul sistema processuale italiano apre la strada a nuove sfide, tecniche e morali, impattando sulla società, sul suo funzionamento e sulla sua regolazione creando nuovi risvolti. Quali saranno i rischi? E come verranno gestite le controversie?

Dal “Deus ex machina all’IA”: storia di un processo o processo alla storia?

Ai tempi dell’Antica Grecia, ma probabilmente già prima, la società avvertiva l’esigenza di affidare ad una figura terza e imparziale la risoluzione delle controversie non solo interpersonali, ma anche quelle intra se. Del resto, l’uomo si è sempre interrogato sulle sorti del proprio destino e dei propri simili, ignaro del futuro e paralizzato dai timori. Nel tentativo di trovare rimedio alle fatalità e di agire minimizzando il rischio connesso alle azioni umane, sono state elaborate strategie e metodi, ivi inclusi stratagemmi di carattere religioso quali ricorsi a divinità e ad oracoli o altre istituzioni al fine di trovare risposte ai più complessi interrogativi, ai quali nessuno ha e aveva il coraggio di dare una risposta.

Infatti, fu la tragedia greca a mettere in atto la drammaticità dell’esistenza umana e a farne arte.

In tale contesto, tra disgrazie e disordini fu la Τὺχη (Tùche) o forse l’uomo a trovare uno stratagemma.

In ambito drammaturgico fu coniata l’espressione “Deus ex machina”, con la quale si indica la presenza di un’entità divina che discende dall’alto (verosimilmente un mondo ultraterreno), invocata dagli uomini, per decidere una situazione non altrimenti risolvibile.

Con tale espressione si voleva fare riferimento al fatto che l’uomo non fosse in grado di gestire autonomamente le questioni più discusse e di trovare risposte agli interrogativi di difficile risoluzione e, pertanto, ha identificato negli oracoli e nelle autorità ecclesiastiche il ruolo di istituzioni addette all’amministrazione della giustizia umana.

In altri termini, ci si affidava a soggetti che fossero capaci di mediare tra le parti e che, utilizzando un codex di regole, tecnico-normative ed etiche, fossero in grado di valutare le azioni sottoposte al loro esame e, mediante un contatto privilegiato con un’entità spirituale, fossero capaci di deliberare e dare ai contendenti una chiave di risoluzione.

Gradualmente l’uomo ha sviluppato una vera e propria coscienza politico – giuridica ed ha avvertito l’esigenza di identificare non solo un corpus di regole tecniche atte a qualificare e sanzionare certe condotte, ma anche nell’affidare in soggetti terzi e imparziali il ruolo di funzionari addetti all’amministrazione della giustizia.

Si è arrivati così a normativizzare e identificare nel diritto e nella giurisprudenza un sistema di conoscenza diretto a regolamentare e a regolare le azioni dell’uomo per ottenere giustizia.

E se oggi il nuovo ruolo di deus ex machina fosse attribuito all’intelligenza artificiale? Negli ultimi anni, infatti, l’IA ha stravolto numerosi settori, dalla scienza e dalla comunicazione, dalla medicina fino alla giurisprudenza. Uno degli ambiti in cui l’IA incide più significativamente è il sistema giurisdizionale e, in generale, il sistema giuridico, dando luogo a interrogativi e ripercussioni sul piano psicologico e filosofico sull’impianto processuale.

L’uso di software avanzati, la programmazione neurolinguistica e i c.d. machine learning danno luogo a questioni cruciali concernenti i concetti di legalità e di giustizia. Ciò induce l’uomo ad interrogarsi sulla propria natura, sui suoi successivi sviluppi e sui rapporti con l’apparato processuale, oltreché sulla fiducia nel progresso e nell’amministrazione della giustizia.

L’attuale impianto giurisdizionale e i possibili risvolti dell’IA sul sistema processuale

L’attività processuale è altamente complessa e la decisione giudiziaria è il risultato di un bilanciamento di valori tecnico – giuridici e morali attuato seguendo un percorso logico – deduttivo cui si arriva attraverso la ricostruzione del fatto storico commesso mediante l’utilizzo delle prove addotte a sostegno delle tesi sostenute dalle parti in causa, la cui valutazione e conseguente ammissione è rimessa alla discrezionalità tecnica del giudice.

L’uomo è un sistema intelligente connotato da un duplice profilo, emotivo e razionale, reciprocamente influenzato.  Conseguentemente, le scelte dell’essere umano sono il risultato di un’analisi complessa condotta mediante una valutazione causale degli eventi, subordinata ad un’inconscia attività intellettiva di non semplice identificazione rappresentata dal suo background, personale ed emotivo. Tali scelte, dunque, sono “limitate” dal punto di vista qualitativo e quantitativo, in quanto l’uomo non è sufficientemente in grado di essere introspettivo e autocritico.

Diversamente, il meccanismo su cui si fonda l’IA, grazie al proprio database, consente alla macchina di sintetizzare i risultati trovati e di filtrare i risultati più adatti e più affidabili rispetto alla richiesta effettuata. Tuttavia, la macchina non può analizzare in autonomia la qualità dei contenuti e non possiamo incondizionatamente dare per giusti o sbagliati i risultati cui essa perviene.

Perciò, una volta dato il comando alla macchina, è necessaria un’attività di una revisione a carattere umano che consenta di discernere e di utilizzare le soluzioni ritenute tecnicamente più corrette.

Analizziamo perciò le implicazioni dell’intelligenza artificiale nell’attività giurisdizionale: gli autori del processo possono essere coadiuvati, se non, addirittura, sostituiti da un software in grado di gestire la risoluzione di una controversia?

In ambito giuridico, l’utilizzo di software di intelligenza artificiale può dare luogo a nuovi scenari, posto che gli algoritmi possono agevolare l’attività dell’operatore tanto nella ricerca delle norme giuridiche, quanto nella valutazione delle informazioni e dell’attività probatoria, fungendo da filtro e tali da svolgere in modo più strutturato ed efficiente gli atti processuali in tempi rapidi.

Peraltro, non può non rimarcarsi che la discrezionalità tecnica di cui gode un giudice rischia di essere compromessa da elementi interni di natura processuale, quali lo svolgimento della fase probatoria e la condotta dell’imputato, ma anche da elementi esogeni, quali, il coinvolgimento emotivo e le esperienze di vita del giudice stesso.

Difatti, il principio di legalità è posto a presidio dell’ordinamento giudiziario e dell’attività giurisdizionale e risponde all’esigenza di evitare trattamenti indiscriminati in danno degli utenti e di limitare gli errori umani, cercando di garantire la” verginità mentale” del giudice.

Inoltre, bisogna ragionevolmente pensare che l’attività giudiziaria incide sulla libertà personale e in presenza di fatti illeciti è plausibile che venga disposta una misura che la limiti.

È altrettanto vero che il giudice è chiamato a decidere al di là di ogni ragionevole dubbio e, per poter decidere, non può residuare alcuna, per quanto remota, possibilità che l’imputato sia innocente, altrimenti non è possibile alcuna decisione in senso ad esso sfavorevole.

La previsione di una decisione non è rimessa al caso, ma si fonda su un caso e il giudice deve valutare la fattispecie sottoposta al suo esame, rifacendosi al precedente giurisprudenziale.

Nel fare ciò, il giudice deve risolvere la controversia mediante conoscenze giuridiche e giurisdizionali attraverso un elaborato lavoro di analisi e di ricerca che richiede un dispendio temporale e intellettivo di non immediata previsione, reso più agevole mediante l’utilizzo di banche dati, su cui è possibile cercare precedenti giurisprudenziali, essenziali per essere costantemente aggiornato e per dare all’organo giudicante una chiave di risoluzione.

In tale contesto, dunque, l’utilizzo dei moderni algoritmi e dell’intelligenza artificiale può rappresentare un valido supporto e assolvere ad una funzione di filtro nella gestione di informazioni, oltreché avere un ruolo determinante nello svolgimento degli atti di carattere probatorio quali l’analisi di prove documentali e testimoniali, finendo persino per distribuire più equamente il carico di lavoro e per effettuare profilazioni e indagini sulle emozioni delle parti coinvolte nel processo.

E se con l’impiego di tali automatismi fosse possibile anticipare e prevedere l’esito del processo basandosi sul precedente giurisprudenziale?

L’IA nel processo italiano: un equilibrio controverso

L’impiego dell’IA nel processo apre la strada a scenari prima impensabili, suscettibili di nuova analisi. In tempi recenti, infatti, ha iniziato a prendere piede il concetto di “GIUSTIZIA PREDITTIVA”. Con tale espressione – utilizzata dal dott. Castelli, presidente della Corte d’Appello di Brescia – si fa riferimento ad un “sistema che consente di prevedere il possibile esito di una controversia sulla base delle precedenti soluzioni date a casi analoghi o simili”.[1]

Il concetto di predittività mal si concilia però con quello di prevedibilità in quanto allo stato attuale non è ragionevole immaginare l’esito di una controversia rimesso ad un sistema automatizzato che consenta di filtrare le decisioni giurisprudenziali e di orientare l’attività del giudice, ampliando o riducendo il suo margine di operatività.

La prevedibilità, invece, presuppone la possibilità di anticipare i cambiamenti futuri di un fenomeno sulla base delle informazioni disponibili nel presente, relative al fenomeno stesso o a variabili a esso collegate.

I rischi connessi all’utilizzo di un algoritmo automatizzato sono molteplici e danno luogo a interrogativi che mettono a repentaglio i principi su cui si fonda l’apparato processuale, in primis la trasparenza, la neutralità e l’imparzialità del giudice.

Tra le questioni più delicate rientra il margine di operatività dei nuovi automatismi rispetto ad una decisione sul piano tecnico e morale e l’eventuale opinabilità. In altri termini, ci si chiede cosa accada quando si verificano errori giudiziari o ingiustizie causate da decisioni basate su IA.

A chi dev’essere imputata la responsabilità decisionale? Al giudice che ha utilizzato l’algoritmo, l’ente che ha sviluppato il software o l’algoritmo stesso? Tale questione innesta un dibattito sull’eticità dell’algoritmo e la delimitazione della responsabilità in caso di utilizzo improprio del sistema di intelligenza artificiale da parte del giudice.

Per tali ragioni, infatti, vi sono coloro che sostengono che l’utilizzo di un algoritmo automatizzato non possa essere incondizionato, ma che debba essere previsto un controllo del software per evitare che questo sia suscettibile ai c.d. adversarial prompt engineering o ai c.d. data poisoning attacks che ne minacciano l’utilizzo alterandone l’accuratezza.

Non mancano i sostenitori di un coinvolgimento relativamente limitato dell’algoritmo, ritenendo che l’utilizzo dell’intelligenza artificiale nel processo dovrebbe assolvere ad una funzione gestionale e cioè non di algoritmo chiamato a sostituire il giudice, ma a rendere più celere e più trasparente l’attività da questi svolta, posto che i vantaggi che ne potrebbero derivare assicurerebbero una maggiore trasparenza e consapevolezza delle decisioni, un più elevato grado di certezza giuridica e un superamento dei contrasti inconsapevoli.

Un possibile vantaggio derivante dall’impiego dell’IA sarebbe quello di ottimizzare i tempi processuali e ridurre i rischi di un rallentamento ed una conseguente paralisi dell’apparato processuale, sì da soddisfare esigenze di celerità e certezza giuridica.

Ciò potrebbe accadere se l’algoritmo fosse utilizzato dal giudice per ricercare norme giuridiche e precedenti giurisprudenziali e affidare al software la miglior interpretazione possibile da adottare al caso concreto, oltreché la valutazione delle prove e una possibile risoluzione della controversia.

Tuttavia, ciò non vale in senso assoluto. Ciò in quanto esistono vari software che hanno un funzionamento diverso che varia a seconda di quale sia il tipo di configurazione.

Come detto, il sistema processuale e il principio di legalità impongono che il giudice sia terzo e imparziale e, quindi, che non abbia interessi personali alla causa, sia equidistante rispetto alle parti per evitare che la sua attività sia compromessa e che vengano riservati trattamenti privilegiati o differenziati, in favore o in sfavore delle parti coinvolte nel processo. Su questo, dunque, si fonda l’idea che la giustizia coincida con la iusta gestio della sua amministrazione, con una decisione corretta sul piano processuale e su questo si fonda la fiducia nella macchina giurisdizionale.

Ma se la giustizia è questa, un algoritmo può essere davvero terzo e imparziale? Dare una risposta non è certamente semplice e affidare ad un software la decisione di una controversia ignorando le regole di funzionamento potrebbe causare un elevato livello di insicurezza sociale e, conseguentemente, incrementare la sfiducia da parte degli operatori del processo e nei confronti degli stessi.

Per questo, probabilmente più che chiedersi il valore dell’impatto dell’intelligenza artificiale, bisogna interrogarsi sulla valutazione del rischio e preoccuparsi, in futuro, di utilizzare software che assicurino la sicurezza informatica di un sistema giurisdizionale basato sull’intelligenza artificiale e sulla resilienza di questo sistema alle minacce informatiche.

Un ulteriore profilo concerne il potere decisionale del giudice. Precisamente, secondo la psicologia moderna, quanto più un uomo è libero di scegliere, tanto più si sentirà capace di avere il controllo. Per cui, utilizzare algoritmi nel sistema processuale potrebbe ridurre il margine di autonomia del giudice, il quale non sarebbe più totalmente libero e ciò ridurrebbe il margine di errore e indurrebbe il giudice ad essere più ponderato.

L’intelligenza artigianale per ridurre la complessità nell’era delle macchine intelligenti

Sotto il profilo etico e filosofico la presenza di sistemi intelligenti a supporto dell’attività giudiziaria fonda nuovi interrogativi e dà luogo a nuove riflessioni.

Un primo risvolto attiene alla relazione tra legge e giustizia. Ad oggi, una decisione giudiziaria può essere tecnicamente ed eticamente giusta o sbagliata, quale esito di un bilanciamento dei valori giuridici con quelli morali che “umanizza” la giustizia. Se a prendere una decisione fosse invece un sistema di intelligenza artificiale tale bilanciamento probabilmente verrebbe meno. Ciò alimenta il rischio che il ruolo del giudice subisca un declassamento e finisca per essere ridotto ad un mero esecutore giuridico, occultato dall’utilizzo sempre più massivo di nuove tecniche che rendono possibile una decisione, pura e cruda, indifferente alla realtà umana.

Una seconda questione, indubbiamente importante, concerne la libertà decisionale. Da sempre, infatti, la natura umana è connotata dalla possibilità dell’uomo di essere artefice del proprio destino e di agire secondo il suo libero arbitrio perseguendo ideali di giustizia e autogoverno, conscio dei suoi limiti e intento a superarli.

E se un algoritmo prevedrà e analizzerà le azioni dell’uomo, potrà ancora parlarsi di libero arbitrio?

La programmazione di nuovi software automatizzati da un lato potrebbe agevolare lo svolgimento dell’attività processuale, rendendo più efficiente l’apparato giurisdizionale e ottimizzando i tempi e il carico di lavoro, dall’altro segna l’inizio di una nuova epoca, aperta a nuovi quesiti e che mette in discussione il ruolo dell’uomo e la sua interazione con le macchine intelligenti.

Ciò detto, si ritiene che l’intelligenza artigianale debba fungere da strumento limite dei moderni automatismi per dipanare la complessità e ridurre i rischi annessi all’uso dei sistemi di intelligenza artificiale, così da promuovere la capacità di azione umana e l’autodeterminazione senza che essa deresponsabilizzi l’uomo e la sua intelligenza emotiva.

L’intelligenza artificiale risponde all’esigenza di supportare l’intelligenza umana e ne simula le funzionalità, ma non è dotata di componenti emotive a carattere umano. Cosa succederebbe se gli automatismi sapessero decifrare le emozioni umane?

Da tale quesito nasce l’esigenza che l’uso dell’IA nell’attività processuale sia presto regolamentato e che sia rimesso ad una valutazione di un’equipe di professionisti, giuridici e informatici e al consenso per il suo utilizzo da parte degli autori della giustizia e dei suoi destinatari, per minimizzare il rischio di trattamenti discriminatori che compromettano l’apparato giudiziario e il principio di legalità su cui esso si fonda e che non venga deresponsabilizzato il ruolo del giudice.

Molteplici sono gli interrogativi. Quale sarà il futuro della risoluzione delle controversie?  L’intelligenza artificiale supporterà o sostituirà l’attività giurisdizionale? Assicurerà una giustizia più equa o ne limiterà l’accesso?


NOTE

[1] In materia si vd. il contributo C. Castelli, “Giustizia Predittiva”, Questione Giustizia”, 2022, da qui.

Indice

PAROLE CHIAVE: algoritmi / giustizia / IA / legge / machine learning / processo / regolamentazione / rischi

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.