Abstract
L’intelligenza artificiale, intesa come sistema che si propone di riprodurre i processi funzionali del cervello umano con uno schema input-elaborazione-output, ha conosciuto nell’ultimo decennio un rapido sviluppo, arrivando ad acquisire una solida base scientifica idonea a fornire opportunità di sviluppo economico, sociale e culturale in ogni settore, compreso quello legale. Sebbene lo sviluppo tecnologico non abbia come obiettivo quello di sostituire l’uomo, ma solo di svolgere compiti precisi per i quali un tempo era necessaria la presenza fisica umana, con l’avvento dell’intelligenza artificiale generativa molte professioni sono state considerate a rischio, una tra tutte l’Avvocatura: l’IA si sostituirà all’Avvocato? La risposta a una simile domanda offre spunti di riflessione circa le implicazioni etiche e le opportunità legate all’utilizzo di un assistente virtuale.
Per gran parte della storia del settore, l’approccio dominante alla ricerca sull’intelligenza artificiale si è basato su sistemi deduttivi che utilizzano il ragionamento logico e la codificazione della conoscenza “dall’alto verso il basso” (c.d. machine reasoning). Tuttavia, questa tecnica è applicabile solo ad un numero limitato di attività, come ad esempio quelle di pianificazione, poiché molti altri compiti risultano troppo complessi per essere codificati in regole esplicite. Per tale motivo, fino a poco tempo fa era diffusa l’idea che soltanto i compiti “di routine” fossero suscettibili di automazione.
Detta limitazione è stata superata grazie ai recenti progressi nella computer science e alla disponibilità di grandi volumi di dati, che hanno consentito di sviluppare un approccio induttivo all’intelligenza artificiale “dal basso verso l’alto” e basato sull’“apprendimento automatico” (c.d. machine learning); di conseguenza, è ora possibile automatizzare attività precedentemente qualificate come “non di routine”, fra cui guidare un’auto o riuscire a leggere il labiale degli esseri umani.
In questo modo, l’algoritmo operante alla base dell’IA impara a fare previsioni solo dopo essere stato addestrato su una massiva serie di dati, anche personali, – i c.d. big data – preventivamente raccolti, archiviati e in grado di descrivere e profilare la rete sociale, andando, così, a delineare quel “grande balzo storico dell’inizio del terzo millennio” cui faceva riferimento il Presidente della Repubblica Italiana, Sergio Mattarella, lo scorso 31 dicembre.
La digitalizzazione dei servizi legali, tanti vantaggi quanti rischi
La pandemia da Covid-19 ha sicuramente accelerato l’adozione di tali strumenti tecnologici, costringendo gli avvocati, in assenza di altre alternative, a comprenderli e ad adattarli al loro quadro giuridico. L’intelligenza artificiale, infatti, viene già utilizzata in molteplici modi nell’attività forense – tra cui la ricerca legale, la redazione di documenti e la consulenza legale – generando riflessioni circa le controversie, le opportunità e le nuove sfide etiche che ne derivano.
“Il primo Robot-Lawyer al mondo”
In tal senso, emblematico è stato il lancio negli Stati Uniti di DoNotPay Inc, una chatbot che offre servizi legali online e che afferma di utilizzare l’intelligenza artificiale generativa per aiutare i consumatori, autodefinendosi “il primo Robot-Lawyer al mondo”.
A seguito della pubblicazione della proposta di class action Faridian v. DoNotPay Inc presso la Corte Suprema dello Stato della California per la Contea di San Francisco, Joshua Browder, CEO di DoNotPay, ha replicato su Twitter offrendo provocatoriamente un milione di dollari a chiunque fosse stato disposto ad indossare le cuffie e ad utilizzare il suo “avvocato robot” per una discussione davanti alla Corte Suprema degli Stati Uniti. La reazione dell’American Bar Association non ha tardato ad arrivare: esprimendo forte indignazione e minacciando di adire le vie legali, ha evidenziato come il software non possiederebbe le competenze giuridiche richieste né la licenza per esercitare la professione legale[1].
L’avvento di ChatGPT
Il vero punto di svolta, però, è stato l’ingresso nel mercato globale di ChatGPT – “Generative Pretrained Transformer” – la chatbot sviluppata da OpenAI che sfrutta l’intelligenza artificiale generativa e l’apprendimento automatico language model (LLM) per dialogare e rispondere alle richieste degli utenti, generando contenuti in modo statisticamente corretto e in grado, inoltre, di ammettere i propri errori e correggersi, sfidando premesse errate nonché rifiutando domande non consone. La sua diffusione gratuita – a partire dal 30 novembre 2022, facilmente accessibile a chiunque – ha raggiunto in Italia una platea vastissima di utenti registrando, nel giro di pochissimi mesi, un miliardo di visualizzazioni della pagina superando anche siti, quali ad esempio Wikipedia, comunemente ben radicati nella prassi di utilizzo dei cittadini italiani.
Anche in questo caso non sono mancate problematiche connesse al suo incauto utilizzo, soprattutto negli Stati Uniti, dove sono state irrogate multe e sospensioni ad avvocati per aver impropriamente usato il software come “motore di ricerca” di precedenti giurisprudenziali e per aver successivamente presentato in Tribunale i documenti legali così redatti, contenenti precedenti inventati da ChatGPT e finendo per fornire una chiara dimostrazione del fenomeno noto come allucinazione[2].
Il contesto italiano: una varietà di opinioni
Per quel che concerne più nello specifico l’Italia, dove il processo civile telematico è stato introdotto appena 10 anni fa e la digitalizzazione del processo penale telematico avanza con fatica, l’ingresso di queste innovazioni nella professione forense e di ChatGPT in particolare, non è stato accolto all’unanimità dagli addetti ai lavori. Infatti, secondo il report di Future Ready Lawyer di The Wolters Kluwer, se il 43% degli avvocati la considera un’opportunità, vi è un 25% che la percepisce come una minaccia e un 26% che ne vede entrambe le sfaccettature, mentre il restante 6% non ha ancora formulato un’opinione al riguardo.
Timori e dubbi…
Sul tema, una delle preoccupazioni dominanti è la possibile perdita di posti di lavoro in ambito legale. È indubbio che l’IA, con la sua capacità di automatizzare i compiti legali, potrebbe portare a una riduzione della domanda d’opera intellettuale dell’uomo, aumentando il rischio che alcune persone decidano di non rivolgersi a un legale ritenendo erroneamente sufficiente rivolgere quesiti giuridici a una chatbot basata sugli LLM.
… ma anche opportunità lavorative per una nuova frontiera dell’Avvocatura
Tuttavia, questo mutamento del paradigma non dovrebbe generare simili timori, rappresentando piuttosto un’opportunità per concentrarsi sulla ridefinizione delle competenze che saranno necessarie per svolgere la professione legale nel futuro.
Di fatti, se è vero che l’intelligenza artificiale può costituire un ausilio in termini di velocità ed efficienza nell’esecuzione di compiti standard e routinari, oltre che di predittività – potendo analizzare i dati storici ivi inseriti e fornire agli avvocati elementi utili per formulare strategie efficaci – del pari bisogna tener presente che gli attuali sistemi di machine learning non dispongono di capacità tali per far fronte ad attività che richiedono la c.d. intelligenza creativa o per risolvere i problemi per i quali non esistono ovvi esempi precedenti.
Tanto premesso, dunque, appare evidente fin da subito che – quantomeno per il prossimo futuro – alcuni aspetti propriamente umani del lavoro dell’Avvocato rimarranno al di fuori della portata dell’automazione. Tra questi compiti, rientrano indubbiamente i c.d. client skills[3], quali l’interazione con i clienti e con i Tribunali, oltre alla consulenza legale personalizzata e parametrata alle precise esigenze del cliente, il quale si affida proprio in virtù del rapporto fiduciario così instauratosi, e per il quale il grado di personalizzazione del servizio offerto rappresenta una cartina di tornasole del grado di expertise professionale del legale.
Al contempo, l’avvento dell’intelligenza artificiale apre nuove frontiere nel settore, creando nuove opportunità lavorative nei dipartimenti dedicati allo sviluppo, alla formazione e all’utilizzo dei sistemi IA. Sul punto, non mancano testimonianze di alcuni studi legali che si sono attivati nel senso di ricercare ed assumere esperti di discipline diverse[4] – quali, per esempio, avvocati e data scientists separatamente – da integrare in un unico gruppo di lavoro multidisciplinare, mentre ce ne sono altri che hanno focalizzato la ricerca su professionisti già in possesso di competenze trasversali – i c.d. hybrid professionals[5] – come potrebbe essere un avvocato esperto anche di programmazione[6].
Restano ferme le implicazioni etiche e la necessità del presidio umano
Vi sono, poi, motivi di scetticismo che hanno una connotazione più etica, poiché ci si trova davanti alla legittima preoccupazione che l’intelligenza artificiale possa divenire veicolo di discriminazione: ad esempio, a causa dei data training set utilizzati o dei dati appresi in virtù degli input immessi, un sistema machine learning potrebbe generare risultati negativi in modo più pronunciato per individui appartenenti a determinati gruppi sociali, riflettendo involontariamente dei pregiudizi.
In proposito, si è ritenuto che la soluzione per mitigare simili rischi andrebbe rinvenuta nell’utilizzo di tali strumenti nel rispetto dei principi di trasparenza e “spiegabilità”. Così opinando, gli utenti – che siano avvocati, professionisti o comuni cittadini – devono poter comprendere il funzionamento di tali software e le motivazioni che si pongono alla base degli output generati, costituendo questa una circostanza fondamentale non solo per istaurare la fiducia tra l’uomo e la macchina, ma anche per poter individuare e correggere gli eventuali c.d. bias implicitamente presenti nei modelli di apprendimento automatico.
Pertanto, specialmente nell’ambito legale, è necessario istituire garanzie legali estese ai contesti in cui si faccia uso dell’intelligenza artificiale, al fine di proteggere i diritti fondamentali delle persone coinvolte e assicurando l’imparzialità nei confronti di tutti gli individui, senza distinzioni. Parimenti essenziale, inoltre, è il presidio umano che deve essere garantito dall’Avvocato controllando, in primo luogo, la correttezza dei dati inseriti nei vari input e, secondariamente, verificando che i risultati generati corrispondano al vero e siano compliant con la fonte normativa di riferimento.
Verso l’adozione e la sperimentazione di buone prassi
Nonostante queste sfide, il potenziale dell’intelligenza artificiale è innegabile e la sua irruzione determinerà un cambiamento epocale per la professione forense. In questo clima di curiosità e dubbi, un ausilio è certamente rappresentato dal rapporto pubblicato nel mese di giugno 2023 dalla Commissione Nuove Tecnologie della Fédération des Barreaux d’Europe (FBE) e intitolato “Gli Avvocati Europei nell’Era di ChatGPT – Linee Guida rivolte agli avvocati per sfruttare al meglio le opportunità offerte dai modelli linguistici di grandi dimensioni e dalla intelligenza artificiale generativa”.
Partendo dal presupposto che in Europa al momento esistono solo chatbot generici, ma con la consapevolezza prospettica che tale circostanza potrebbe presto mutare, la Commissione “pur riconoscendo i notevoli vantaggi dell’utilizzo dell’IA generativa” si propone di evidenziare preventivamente le possibili criticità derivanti “dall’adibire frettolosamente ed in modo inappropriato gli strumenti di GenAI a compiti che sono al centro della competenza legale e del rapporto cliente-avvocato”. In tale prospettiva, la FBE suggerisce l’implementazione di una serie di sette buone prassi da tenere in considerazione tra le modalità con cui praticare la legge, al fine di “mantenere alti standard etici, salvaguardare la riservatezza dei clienti e assicurare un utilizzo consapevole e responsabile dell’intelligenza artificiale generativa e dei modelli linguistici di grandi dimensioni nel contesto legale”. Queste raccomandazioni impongono agli avvocati europei di comprendere la tecnologia e il suo funzionamento, riconoscendone le limitazioni, e di rimanere sempre aggiornati e conformi nell’utilizzo di sistemi LLM alle norme nazionali ed europee in tema di IA – cui debbono necessariamente essere aggiunti i termini di servizio disposti contrattualmente dal fornitore del software – arrivando a formalizzare dei precetti volti ad assicurare che questi utilizzino detti strumenti solo come integrazione delle proprie competenze professionali.
In questo senso, dunque, gli avvocati devono assicurare sempre il rispetto del segreto professionale e la protezione dei dati personali degli assistiti nonché, da ultimo, rendere edotti i clienti in merito all’utilizzo dei sistemi IA e delle finalità con essi perseguite, assumendo su di sé tutte le potenziali responsabilità da ciò derivanti.
Considerazioni conclusive: la rivoluzione deve rimanere umana
Alla luce di quanto detto, il futuro della professione legale è indissolubilmente legato all’avvento dell’intelligenza artificiale: realtà come DoNotPay e Ironclad, negli Stati Uniti, e software come ChatGPT, Prometheo e Caselex, in Italia, stanno già modificando il mondo dell’Avvocatura con la loro tecnologia. Occorre, però, che “la rivoluzione resti umana”[7], tenendo fermo il principio secondo cui l’intelligenza artificiale può senz’altro costituire un alleato importante nello svolgimento delle professioni legali, rimanendo sempre uno strumento soggetto al pieno controllo dell’essere umano, affinché questi rimanga effettivamente il punto centrale ed irrinunciabile di uno studio legale.
Pertanto, si può concludere affermando che l’IA, almeno per il momento, non si sostituirà all’Avvocato.
NOTE
[1] Class Action Faridian v. DoNotPay Inc, Superior Court of the State of California for the County of San Francisco, No. CGC-23-604987. Consultabile qui e qui.
[2] Il caso Zachariah Crabill, per il testo della sospensione, vedere qui
[3] J. Armour – M. Sako, AI-enabled business models in legal services: from traditional law firms to next-generation law companies?, Journal of Professions and Organization, University of Oxford, 2020, vedere qui
[4] Sul tema, si veda il caso UniQLegal, la società tra avvocati per azioni di UniCredit, Nctm e La Scala nata a Gennaio 2020 per creare un centro di eccellenza professionale che si auspica di portare a “un nuovo standard la fornitura di servizi legali specializzati”
[5] M. Noordegraaf, Hybrid professionalism and beyond: (New) Forms of public professionalism in changing organizational and societal contexts, Journal of Professions and Organization, University of Oxford, 2015, vedere qui
[6] Rapporto Commissione Nuove Tecnologie della Associazione degli Ordini Europei (Fédération des Barreaux d’Europe), Gli Avvocati Europei nell’Era di ChatGPT – Linee Guida rivolte agli avvocati per sfruttare al meglio le opportunità offerte dai modelli linguistici di grandi dimensioni e dalla intelligenza artificiale generativa, giugno 2023.
[7] Presidente della Repubblica Sergio Mattarella, cit.
PAROLE CHIAVE: competenze / data protection / innovazione / intelligenza artificiale / privacy / professioni / trasformazione digitale
Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.