Abstract
La proposta può sembrare apparentemente provocatoria, ma in realtà è da considerare seriamente. L’IA ha assunto i contorni di un autentico ecosistema formato da Piattaforme di Intelligenza Artificiale (PAI), ciascuna con caratteristiche, finalità e ambiti di applicazione differenti: l’analisi scientifica delle PAI deve, quindi, partire dall’individuazione di variabili chiave da incastonare all’interno di veri e propri “curriculum” che possano insieme alla normativa, costituire una reale garanzia per la nostra esistenza online. Finora ci si è concentrati sulla narrazione di tematiche come l’Intelligenza Artificiale o il Cloud, senza rendersi conto che è indispensabile custodire correttamente sia i dati di cui dinamicamente quelle tecnologie si nutrono, sia i dati che ne costituiscono elemento di individuazione, classificazione, apprendimento e corretta regolamentazione. Capiamo come.
Il “miracolo” cinese DeepSeek è stato presentato come la nuova frontiera dell’IA, nato in quella stessa Cina dove la strage di Tienanmen del 1989 non può essere ricordata. Anzi, non è mai esistita perché rimossa dagli algoritmi di intelligenza artificiale.
Non ci si può effettivamente non sorprendere dell’ennesima aggiunta a ciò che già c’era, che offusca aspetti veramente preoccupanti di sistemi che potrebbero spingerci a un passo dalla dittatura tecnologica, attraverso la cancellazione di milioni di informazioni inopportune che un popolo, già abbondantemente anestetizzato, possa facilmente ignorare.
Del resto, al popolo non interessa la libertà, non interessano i diritti, il popolo chiede di mangiare, osservò qualcuno in attesa di acquisire il potere assoluto qui in Italia, poco più di un centinaio di anni fa.
E oggi il popolo è ormai ben addestrato – da algoritmi presenti da tempo nell’ambiente ovattato dei social – a interessarsi solo di certe questioni e a manifestare scarse preoccupazioni per ciò che accade intorno, dove – ad esempio – il Presidente degli Stati Uniti d’America ha indicato come suoi sultani tutti i big player che sviluppano servizi digitali essenziali per sopravvivere on line o dove esistono Stati dittatoriali che censurano sistematicamente attraverso motori di ricerca consenzienti intere porzioni di memoria.
Viviamo già le Intelligenze Artificiali come oracoli[1], ma questa percezione non dovrebbe avere alcun senso, perché dobbiamo piuttosto tornare a usare bene il nostro cervello, servendoci di questi nuovi strumenti a nostra disposizione che si nutrono dei nostri dati, ma che allo stesso tempo ne potrebbero costituire una chiave di individuazione, classificazione e corretta regolamentazione.
Una proposta apparentemente provocatoria, ma in realtà da considerare seriamente è perciò quella di censire e registrare (e magari qualificare) i molteplici sistemi di intelligenza artificiale. Specie nel momento in cui questi sistemi si insinuano sempre di più nelle nostre attività di consulenza o addirittura decisionali. I Sistemi di Intelligenza Artificiale dovrebbero seguire procedure analoghe a quelle degli umani che per esercitare docenza o attività professionale attraversano un percorso di attenta preparazione e qualificazione. Strumento chiave per noi esseri umani è – come sappiamo – il curriculum vitae. Per la “vita” digitale dei sistemi di intelligenza artificiale sono perciò urgenti sistemi analoghi che siano in grado di qualificarne metodi di approfondimento e qualità decisionale.
L’IA, infatti, non è una monade indivisibile, bensì un ecosistema di Piattaforme di Intelligenza Artificiale (PAI), ciascuna con caratteristiche, finalità e ambiti di applicazione specifici: l’obbligo del curriculum potrebbe essere perciò previsto per alcune classi di IA prioritariamente per quella generativa, ma anche per quella estrattiva.
L’analogia del “CV” uomo – IA
Possiamo riferire, in estrema sintesi, che continuare a discutere di intelligenza artificiale in termini generali, come fosse un essere autonomo e sensiente, è privo di senso logico e di utilità pratica. Si rischia di configurare un’entità mitica in dialettica con una altrettanto generica e indistinta intelligenza umana.
In realtà, sappiamo che chi si occupa di scienze cognitive distingue diversi tipi di intelligenza umana, ma non è questa la sede per affrontare un argomento così complesso. Partiamo invece da una scelta di metodo: parliamo – come in precedenza riferito – di singole piattaforme di cosiddetta intelligenza artificiale.
Cosa contraddistingue una PAI:
- corpus di informazioni delle quali ci si serve all’atto dell’inizio della sua messa a disposizione dell’utente;
- regole di deduzione/inferenza;
- criteri di verità;
- modalità di acquisizione di nuove informazioni (selezione fonti, selezione di enunciati in ciascuna fonte, frequenza di aggiornamento e soprattutto contesto di acquisizione);
- modalità espressive (dubitative/ perentorie; aggressive/concilianti);
- contesto di previsto impiego.
La lista potrebbe proseguire, ma già fermandoci qui emergono evidenti analogie con processi di costruzione del patrimonio di conoscenza di un essere umano. Forse addirittura con la costruzione del posizionamento culturale di una persona. In poche parole, se diamo alla piattaforma una valenza utilitaristica si costruisce in modo logico una forte analogia con la figura del professionista.
Per inciso va osservato che in questi giorni di storytelling pervasivo in materia di IA la domanda “cosa farà di noi l’intelligenza artificiale” sta prevalendo sulla domanda “che faremo noi umani con la c.d. Intelligenza artificiale”. Questa prevalenza va fortemente contrastata.
Dalla scelta del professionista alla scelta dell’IA
Viene spontaneo, per descrivere selezionare e utilizzare una piattaforma di intelligenza artificiale, ricorrere alle logiche e alle metodiche che adottiamo per scegliere un professionista o genericamente un collaboratore di cui intendiamo avvalerci. Altrettanto spontaneamente dovrebbe allora venirci in mente il concetto di curriculum di questo ipotetico collaboratore.
Per aprire un rapporto fiduciario con questa persona vogliamo sapere quali materie conosce e dove ha studiato, che esperienze ha avuto, che tipologia di qualificazioni ha conseguito. Nei rapporti interpersonali per valutare una collaborazione è consolidato lo strumento curriculum e quasi sempre anche un approfondito colloquio di conoscenza diretta. È evidente il vantaggio di adottare un approccio analogo quando si decide di utilizzare una piattaforma IA, cominciando dalla richiesta che sia descritta da un dettagliato CV.
Sorge la questione di chi redige assevera e gestisce i CV non solo delle piattaforme, ma anche degli esemplari di agente AIA (Artificial Intelligent Agent), perché nei sistemi ad apprendimento, come nelle persone, la storia delle esperienze è decisiva. Nasce istintiva l’obiezione di come governare la mole di informazioni da gestire.
Un’ispirazione potrebbe venire da un contesto controllato e coerente da un punto di vista archivistico. Si tratta di custodire con attenzione la qualità di informazioni rilevanti e del contesto che le garantisce. Potremmo partire così dall’anagrafe (un esempio, può essere il Pubblico Registro Automobilistico arricchito dal manuale di istruzioni per modello e record di manutenzioni per esemplare). Una realizzazione ispirata da tali registri potrebbe trovare piena attuazione avvalendosi della tecnologia blockchain, che garantirebbe sia la dimensione necessaria sia l’esigenza di non contraffazione.
Come filosofia giuridica di fondo si potrebbe pertanto abbandonare la strada della “regolamentazione a priori” per imboccare quella della piena “trasparenza” dell’origine delle informazioni e del contesto che le protegge, inclusa quindi la registrazione affidabile di dati, informazioni e metadati di contesto.
L’analogia può spingersi così fino al concetto di “ordine professionale” per i sistemi di IA, tema controverso e in fase di evoluzione. Allo stato, potrebbe essere sufficiente prevedere piena coerenza dei processi per il professionista umano e per il “professionista” digitale.
Sarebbe del resto illogico imporre garanzie per la qualità delle prestazioni di un professionista umano e non ravvisare analoga esigenza per l’IA[2]. Naturalmente le “garanzie di professionalità” dovrebbero essere graduate a seconda del tipo di impiego. Sviluppare una ricerca scolastica non ha lo stesso rilevo di formulare una diagnosi medica.
Quanto fin qui descritto dovrà essere limitato a fattispecie che richiedano specifiche garanzie, come del resto accade per i professionisti. Sorprendente lo “scandalo” per le ricerche scolastiche portate avanti con l’ausilio di sistemi di LLM (non si ravvedono, in questo caso, differenze facilmente percepibili rispetto alle ricerche scritte dai genitori o dai fratelli maggiori).
Sul piano sostanziale, ogni contributo volto ad approfondire l’impiego di piattaforme di IA non può prescindere da un caveat sul criterio di verità. Se prevalessero scelte basate sulla numerosità di asserzioni riscontrate su data base consultati si innescherebbe un conformismo potenzialmente esiziale per l’innovazione e la crescita. Tra le tante riflessioni sulla AI è al momento questa, a nostro avviso, la più delicata e meritevole di attenzione.
L’incontro tra Blockchain e IA per sbrogliare la matassa
Come intelligenza artificiale e blockchain si incontrano, quindi? I sistemi di Intelligenza Artificiale si nutrono di dati e non sarebbe di certo improbabile ipotizzare che le indispensabili garanzie di qualità, necessarie come “esperienza professionale” per poter generare output affidabili, possano essere efficacemente presidiate da registri distribuiti (che peraltro oggi trovano una utile collocazione nel regolamento eIDAS II[3]).
Il problema è come farlo e quanto risulti utile, tutelando diritti e libertà che ci riguardano, in un modello di compliance che a livello europeo risulta sempre più faticoso a causa di troppe normative che si intersecano. Questo è un fatto oggettivo. Come è oggettivo però che sia necessario porre un argine a questa voragine di profilazioni e manipolazioni possibili che attraversa ormai ogni granello della nostra esistenza digitale riversata su social, e-commerce e motori di ricerca.
I regolamenti europei GDPR (sulla protezione dei dati personali e la loro circolazione) ed AI Act (sui modelli e sistemi di intelligenza artificiale), ma anche la direttiva NIS II (sulla cybersecurity), si muovono su binari che tra loro si intersecano.
Il GDPR difende direttamente il nostro diritto fondamentale alla protezione dei dati personali, mentre l’AI Act e la NIS sono pensati per muoversi a garanzia di interessi collettivi, mirando così a incidere indirettamente su nostri diritti e libertà fondamentali. Il tutto affidato ad Authority distinte e a una miriade di adempimenti troppo spesso non perfettamente allineati tra loro. Poi se pensiamo ad altre normative in vigore, che pur vanno integrate nel modello di legal compliance di chi muove il proprio business on line, ci si può rendere conto che non è per nulla facile garantire oggi processi informativi e modelli di custodia di cui si è titolari o responsabili…
L’idea di attribuire a ciascuna PAI un vero e proprio curriculum, che riporti in modo trasparente l’origine dei dati, le logiche algoritmiche e i contesti d’uso previsti, potrebbe rappresentare un passaggio cruciale per una governance basata sulla responsabilità e potrebbe aiutare non ultimo ad arginare i rischi di utilizzo sconsiderato degli ecosistemi sistemi e modelli di AI, sbloccando in un certo senso l’evoluzione del mercato IT in ambito europeo.
Ridimensionare l’oracolo al ruolo di “aiutante” dell’intelligenza umana
Questa concezione ci aiuterebbe non ultimo a ridimensionare la visione dei sistemi di IA al pari di un “aiutante” più alla nostra portata. Ci permettiamo di sottolineare ancora una volta che non esistono vere e proprie intelligenze che siano in grado di sostituirci: dobbiamo uscire da questo scenario distopico. Non esiste una Intelligenza Artificiale simile o paragonabile a quella umana, va invece invece senz’altro recuperato il sapiente utilizzo del nostro cervello naturale. E così quindi come per un professionista il curriculum è uno strumento di trasparenza e valutazione, lo stesso dovrebbe valere per le piattaforme, soprattutto nei settori ad alto impatto sociale ed economico.
Le Intelligenze Artificiali a nostra disposizione sono senz’altro eccezionali, ma si nutrono di dati, e dobbiamo pertanto investire sulla qualità del controllo e sulla corretta custodia di quei dati, anche per maneggiarle accuratamente e regolamentarle, quindi, qualificarle professionalmente. Bisogna essere formati, proprio come intelligenze umane, al controllo, alla verifica delle fonti perché tutto oggi può altrimenti essere manipolato o peggio renderci manipolabili.
Restiamo convinti che si dovrebbe tendere a una semplificazione, senza sgretolare gli ambiti di tutela, anzi rafforzandoli anche attraverso la creazione di Curricula in grado di orientarci e che possano, integrandosi come mezzi di attuazione concreta della normativa in vigore, costituire 𝑖𝑙 𝑝𝑟𝑒𝑠𝑢𝑝𝑝𝑜𝑠𝑡𝑜 𝑑𝑒𝑙𝑙𝑎 𝑛𝑜𝑠𝑡𝑟𝑎 𝑓𝑟𝑎𝑔𝑖𝑙𝑖𝑠𝑠𝑖𝑚𝑎 𝑒𝑠𝑖𝑠𝑡𝑒𝑛𝑧𝑎 𝑜𝑛 𝑙𝑖𝑛𝑒.
Possiamo concludere sottolineando che gli addetti alla Gestione Risorse Umane (i mitici HR) potrebbero trovare nuovo lavoro nella gestione degli AIA, ma tale selezione rischierebbe effettivamente di diventare troppo complessa. E allora a selezionare ci penseranno direttamente gli Algoritmi di Intelligenza Artificiale.
Del resto, gli umani agli umani e le macchine alle macchine!
NOTE
[1] Marco Brunasso nel pezzo “L’Intelligenza Artificiale prevede il futuro? In Cina DeepSeek è già usato come oracolo”, pubblicato su Tech Princess in data 5 Marzo 2025 ci spiega come l’AI stia soppiantando l’antica arte della divinazione in Cina, offrendo risposte a una generazione inquieta.
[2] Ovvio che si sta provocando una riflessione che porti a meditare sulla necessità di garantire un effettivo controllo su strumenti che possano essere gestiti solo attraverso una applicazione concreta del principio di trasparenza, che andrebbe assicurata by default.
[3] Si fa riferimento al Regolamento (UE) 2024/1183 del Parlamento europeo e del Consiglio, dell’11 aprile 2024, che ha modificato il regolamento (UE) n. 910/2014 per quanto riguarda l’istituzione del quadro europeo relativo a un’identità digitale e ha anche introdotto ulteriori novità in materia di e-archiving e registri distribuiti.
PAROLE CHIAVE: blockchain / classificazione / curriculum vitae / custodia / dati / HR / intelligenza artificiale / PAI / protezione dati
Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.