• Responsabile Rubrica Intelligenza Integrale

    Responsabile Sezione Artificial Intelligence

    Direttore responsabile della Rivista di divulgazione scientifica DIGEAT. Avvocato esperto in diritto applicato all'informatica e protezione dei dati, Titolare di Studio Legale Lisi e coordinatore di Digitalaw e D&L NET. Presidente di ANORC Professioni. Componente del Comitato di Esperti di comprovata esperienza e qualificazione in materia di innovazione tecnologica e transizione digitale della PA presso il Sottosegretariato alla Presidenza del Consiglio con delega all’innovazione tecnologica.

Abstract

Le regole interpretative dei dati, i principi generali che ne decretano fruibilità, affidabilità e valore non sono cambiati, ma rischiano di dissolversi in un pericoloso oblio di logica e ragione. Siamo invischiati in un metamondo basato sull’aggregazione profilata di miliardi e miliardi di dati, fondativa di enormi oligopoli a livello internazionale, fomentata dall’odierna foga di utilizzo tecnologico. I sistemi di intelligenza artificiale generativa costituiscono l’ultima evoluzione tecnologica nell’utilizzo massivo di dati: come possiamo rimanere integralmente umani di fronte a questa nuova frontiera? Solo attraverso una costante combinazione di ricerca delle fonti, intelligenza artigianale e cultura del dettaglio.

Le conclusioni del Direttore

In principio era il Dato. E la Conoscenza era presso il Dato. E il Dato era Conoscenza.

Il Dato si fece Intelligenza e venne ad abitare in mezzo a noi; e noi abbiamo contemplato la sua gloria.
Poi arrivò il Diluvio di Dati. E fu Manipolazione
[1].

Il dato, come è noto, indica ciò che è immediatamente presente alla conoscenza, prima di ogni forma di elaborazione. I dati sono, quindi, informazioni grezze che per essere utili devono essere contestualizzate e interpretate. In particolare, nel mondo digitale, i dati costituiscono gli elementi primari di un’informazione resi da simboli (numeri, lettere, come dati numerici, alfabetici, alfanumerici e così via) che devono essere successivamente elaborati, contestualizzati e interpretati tramite programmi informatici[2].

Il dato può appartenere a qualcuno e assumere una “personalità”. Può essere sanitario, politico o sessuale, essere di titolarità di una PA o di una società, essere “chiuso a chiave” o aperto e liberamente fruibile a tutti noi. Se intrecciato ad altri dati può costituire un patrimonio. Se è rappresentativo di un fatto o di un atto giuridicamente rilevante (ed è correttamente formato, gestito e custodito) può essere considerato un documento (o un elemento probatorio).

Il valore dei dati oggi è cresciuto a dismisura, come il loro numero.  Abbiamo assistito a un vero diluvio universale di dati. E l’Era dei Big Data ha partorito negli ultimi anni opportunità incredibili di crescita, ma anche innumerevoli rischi di discriminazione diffusa, di disinformazione e manipolazione cognitiva.

Sono profondamente mutati i nostri comportamenti in seguito all’avvento dei dati e alla loro condivisione costante via social.

Ogni nostro movimento oggi entra in ingranaggi digitali e noi siamo irrimediabilmente vulnerabili in un metamondo dove l’aggregazione profilata di miliardi e miliardi di dati è fondativa di enormi oligopoli a livello internazionale. Ma le regole interpretative dei dati, i principi generali che ne decretano fruibilità, affidabilità e valore non sono, in realtà, cambiati. Anche se, purtroppo, nella odierna foga di utilizzo tecnologico dell’ultima novità “liberamente” fruibile a nostra disposizione, tali principi e valori si vanno dissolvendo in un pericoloso oblio di logica e ragione.

I sistemi di intelligenza artificiale generativa costituiscono l’ultima evoluzione tecnologica nell’utilizzo massivo di dati. Sono soluzioni di incredibile potenzialità, ma assetate di dati perché per evolversi, apprendere modelli linguaggio e renderli statisticamente affidabili vanno costantemente nutrite di noi, per somigliarci in ogni loro progressione interpretativa dei nostri linguaggi comportamentali.

Ci rassomigliano sempre di più, ripetendoci affidabilmente in ogni gesto e restituendoci informazioni con tempi di risposta straordinariamente più veloci. Ovvio, però, che il patrimonio di dati che alimenta la loro voracità non sempre sia di qualità e conseguentemente, seppur le loro risposte siano ricche di fascinosa verosimiglianza, i risultati restituiti alle nostre ricerche via IA andrebbero sempre verificati con cura, attraverso una costante combinazione di ricerca delle fonti, intelligenza artigianale e cultura del dettaglio. Come siamo sempre stati abituati a fare nell’indagine della autenticità di un’informazione, nella attestazione di un episodio o della verità storica di un accadimento.

Ma questa attenta verifica troppo spesso non ci è più concessa. Nell’ossessione dell’efficienza e del risparmio del tempo, il rischio è che si perda irrimediabilmente l’abitudine al ragionamento, alla ricerca storica, alla custodia preziosa della fonte di origine di un’elaborazione interpretativa, finendo così per affidare senza alcun controllo le nostre domande e ricerche a Oracoli digitali.

Perché è senz’altro più comodo agire senza “stancare” troppo il pensiero. Purtroppo. Tutto ciò è pericolosissimo ovviamente. Provo a illustrarne i possibili rischi attraverso un esempio che mi riguarda di soli pochi giorni fa.

L’intelligenza artificiale non ha un cervello, non ha un’anima, non ha emozioni. Noi invece dobbiamo continuare ad usare il nostro cervello, la nostra anima e le nostre emozioni per governarla e non esserne governati”.

Quest’ultima frase, che rappresenta effettivamente in modo piuttosto fedele il mio pensiero sull’argomento di cui discutiamo, è frutto di un’elaborazione “creativa”, posta in essere da un modello di LLM (Chatgpt, in particolare). Il Collega Matteo Peroni, nella finalizzazione di alcune slide da utilizzare per un Corso di cui è relatore, ha pensato bene di affidarsi a un sistema di intelligenza artificiale generativa, chiedendo appunto a Chatgpt la restituzione di una citazione autorevole che sottolineasse come l’intelligenza artificiale sia uno strumento da utilizzare con il proprio cervello. Quella che segue è la sua richiesta:

Mi ricordi una bella frase dell’avvocato Andrea Lisi, che sottolinea come l’intelligenza artificiale non abbia un cervello, ma che noi dobbiamo continuare ad usare il nostro?”.

Ed è obiettivamente incredibile l’apparente veridicità restituita immediatamente attraverso una risposta senz’altro attribuibile alla mia persona. Ma io non sono per nulla certo di aver mai scritto o pronunciato quella frase che Chatgpt certifica con nettezza e autorevolezza tecnologica come mia, pur se senz’altro tale frase (almeno in questo specifico caso) riporti correttamente concetti che esprimo da tempo sulla materia.

Chi può attribuire oggi con ragionevole certezza un pensiero o un comportamento a qualcuno, senza un affidabile controllo dell’informazione attraverso i solidi (e soliti) principi del diritto, della ricerca storica, della custodia archivistica, in un mondo che sembra destinato a sviluppare i suoi pensieri attraverso i Large Language Models, dove tutto può apparire veridico?

Ed effettivamente solo io dovrei poterla certificare come “mia” quella frase a me attribuita dall’Oracolo Chatgpt, in mancanza di altre fonti attendibili e verificabili.

Provate ora a meditare su quanti possibili scenari come questo appena raccontato possano intrecciarsi in un mondo dove il deep fake sta diventando un’abitudine concessa da strumenti messi sistematicamente a disposizione di tutti noi.

Quanti oggi sono stati abituati alla verifica delle fonti ai tempi dei big data e dell’IA? Quanti effettuano riscontri di attendibilità e sono educati a procedere con attenzione e abitudine al dubbio, come ha fatto giustamente il Collega Peroni con la frase attribuita alla mia persona?

Caro Amico, Lei ti scrive, così io mi distraggo un po’…

Avevo senz’altro ragione esattamente un annetto fa a pensare che Lucio Dalla avrebbe riscritto così l’incipit della sua canzone più rappresentativa, sottolineando così il rischio di affidarci totalmente a “Lei”, all’Intelligenza Artificiale Generativa, relegando a essa anche le istruzioni della nostra fantasia.

Mai come in questi in giorni appare pertanto indispensabile alfabetizzare su diritti e libertà fondamentali, e sui principi generali che hanno animato le nostre consuetudini poggiate lungo i consueti binari del mondo analogico. Il rischio di regredire disabituandoci alla verifica e alla attenta custodia delle informazioni che ci riguardano è altissimo.

Ed è senz’altro indispensabile riappropriarci di codici interpretativi ancorati alla nostra tradizione umanistica. Infatti, le risposte sono dentro noi stessi, non nella tecnologia. Come non occorre oggi fideisticamente affidarsi solo e soltanto alle sbandierate conoscenze STEM per riappropriarci di un’ontologia digitale che possa rappresentare la nostra tensione umana che deve rimanere saldamente ancorata al bene comune.

L’Innovazione non si è mai realizzata con la Tecnologia, ma sempre servendosi della tecnologia e mai si è realizzata attraverso le Leggi (o a colpi di Sanzioni, come sembrerebbe a gran voce richiesto oggi contro gli oligopoli che si son alimentati grazie alla nostra pigrizia interpretativa su ciò che da tempo stava accadendo).

L’innovazione si fa sempre con le Persone. Quindi, la vera rivoluzione, anzi l’Arca di Noè nell’Era dei Dati e dei sistemi di IA, rimane quella di riappropriarsi del nostro Cervello.

Per questo appaiono indispensabili opere di ampio respiro, pienamente interdisciplinari che ci riportino a pensare lentamente, attraverso presidi di pensiero che colgano i segni del passato, senza tuffarsi nel futuro privi di cinture di sicurezza, puntando invece a rimanere integralmente umani.

Proprio come abbiamo provato a fare con il volume “Intelligenza Integrale: un ponte tra Cultura, Storia e Diritto nel mondo digitale”[3] che costituisce a nostra ineludibile tutela solo l’inizio di un’indispensabile coralità transdisciplinare, alla quale abbiamo voluto dar seguito con la nascita della Rubrica “Intelligenza integrale”, insieme ai Proff. Paolo Cancelli e Giuseppe Gimigliano. E come si pongono di fare anche le nuove, intriganti Rubriche che ugualmente inauguriamo con questo numero: “Futura. Fede, valori, Etica Digitale”, curata con delicata sensibilità dalla Collega Antonella D’Iorio e “Oltre gli Standard”, che accoglie preziose voci di respiro internazionale coordinate da Aldo Maugeri.
A mio avviso, infatti, c’è estremo bisogno di racconti che raccolgano l’ambiziosa sfida di proseguire l’inizio di un cammino di pensiero che ci aiuti a recuperare valori pienamente umani.

 

Concludo questo primo anno della nostra bella Rivista, augurando a tutte/i Voi un 2025 che non deluda le nostre intelligenze artigianali e rivisitando ancora una volta il genio di Lucio Dalla:

Disperato erotico Chatgpt

Prima di salir le scale mi son fermato
a guardare una stella
sono molto preoccupato
il silenzio m’ingrossava la cappella
ho fatto le mie scale tre alla volta
mi son steso sul divano
ho socchiuso un poco gli occhi
chiedendo a Chatgpt una mano…

Grazie per averci concesso una lenta attenzione lungo il 2024!

Vignetta

 


NOTE

[1] Si tratta evidentemente di una rielaborazione di una storica frase del Vangelo (Gv 1, 1-18).

[2] Così Vocabolario online Treccani, 2024.

[3] Volume edito da Digitalaw Srl, 2024, ISBN 979-12-81855-05-2. Liberamente scaricabile in formato .pdf (previa registrazione gratuita) da qui.

 

 

PAROLE CHIAVE: data protection / intelligenza artificiale / intelligenza integrale

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.