• Avvocato, si occupa di nuove tecnologie, in particolare Intelligenza Artificiale e Blockchain, con riferimento agli aspetti di diritto civile, informatica giuridica, GDPR, compliance, evoluzione normativa, ricerca interdisciplinare. Frequenta attualmente il Corso di Alta Specializzazione in tema di intelligenza artificiale dell'Università Pontificia Antonianum con sede a Roma.

Abstract

Se le regole servono per conferire certezza al diritto, al contempo occorre flessibilità per favorire l’innovazione, in un quadro in cui l’eccesso di regolamentazione talvolta viene vissuto come un ostacolo o addirittura un freno dal punto di vista di chi fa business. È necessario un approccio critico e sistematico per ragionare sul paradigma tecnocratico e sulla necessità di un compromesso, a favore dello sviluppo di un pensiero complesso orientato al bene comune.

Rapporto tra regole e tecnologia

Come si pongono in relazione le tecnologie dell’informazione e della comunicazione (ICT) e il diritto? A questa domanda risponde un interessante studio del Dipartimento tematico per i diritti dei cittadini e gli affari costituzionali del Parlamento europeo, su richiesta della commissione giuridica (JURI), pubblicato ad Aprile 2024[1].

Il report evidenzia le sfide della complessità sotto due profili: l’impatto dell’ICT sul diritto europeo e l’impatto del diritto europeo sull’ICT.

Se la possibilità di accesso alle informazioni (qui intese come informazioni giuridiche) e alle tecnologie online è oggi alla portata di chiunque dispone di una connessione, è anche vero che la complessità delle regole e del diritto rappresenta una barriera di accesso a quelle stesse informazioni. Il diritto è stratificato, frammentato su più livelli (dalle fonti internazionali, sovranazionali e interne, integrato da regole di condotta e dal cd. soft law, etc). Il diritto è vivente, richiede interpretazione e bilanciamenti, indagini su normative collegate, conoscenza degli orientamenti giurisprudenziali – quasi mai non univoci – e così il diritto si compone di una sovrapposizione normativa su più livelli e di un fitto reticolo di svincoli interpretativi, come mai prima.

Occorre, dunque, un impegno immenso da parte dei professionisti per rendere comprensibile una materia così ostica e individuare le strategie più efficaci per rafforzare il business dei clienti o per accompagnare la pubblica amministrazione in un lento processo di trasformazione digitale. Non dimentichiamo poi che il diritto deve essere comprensibile ai cittadini, condizione senza la quale non potrebbe dirsi efficace a loro tutela.

La tecnologia è dunque un valido strumento di supporto anche al diritto: un esempio per tutti è dato dall’utilizzo in ambito europeo di Large Language Models, ma anche questo uso pone dei limiti per ora. La mancanza di dati e competenze linguistiche è un ostacolo allo sviluppo di queste tecnologie in ambito giuridico[2], anche se l’Istituto universitario europeo sta cercando soluzioni con altri sistemi (come Claudette) per rilevare automaticamente clausole abusive nei contratti online, per citare un esempio. Gli strumenti IT sono inoltre utili per assicurare spazi di libertà, sicurezza e giustizia. L’EU-LISA si occupa del funzionamento dei sistemi IT su larga scala in UE per il settore giustizia e potremmo proseguire con altri esempi.

Le competenze nel settore IT, digitale e i dati hanno consentito anche la costruzione di un mercato unico digitale in UE e sul filone della promozione delle opportunità digitali, Parlamento Europeo e Consiglio hanno fissato alcuni obiettivi generali di politica digitale fino al 2030, che occorre conoscere.

In particolare, le azioni analizzate si riferiscono alla promozione di un ambiente digitale incentrato sull’uomo, al superamento del divario digitale, alla sovranità digitale dell’Unione mediante infrastrutture, all’accesso alla tecnologia e ai dati, all’interoperabilità, alla costruzione di una struttura cloud europea con elevati standard di sicurezza e privacy, al sostegno di PMI nella creazione del valore, alla partecipazione online alla democrazia, alla sostenibilità energetica e ambientale, ad assicurare la non discriminazione degli utenti, a garantire un’azione coordinata, ad implementare la resilienza agli attacchi informatici delle organizzazione pubbliche e private[3].

Tutti elementi chiave per comprendere la complessità del digitale e le opportunità di realizzare scenari nuovi di relazione e cooperazione oltre ogni limite di spazio e di tempo, ridefinendo la cornice e il contesto in cui viviamo. Passiamo ad osservare queste dinamiche nel contesto italiano.

Transizione digitale ed ipertrofia normativa: come ne pensano le aziende?

Le piccole e medie imprese italiane faticano ad effettuare la cd. transizione al digitale in particolare rispetto all’adozione di sistemi di intelligenza artificiale e di condivisione dei dati con fornitori e clienti.

È uno degli aspetti critici emersi dall’ultima indagine Istat in tema di Imprese e ICT del 2023 che si occupa di verificare la diffusione e il grado di utilizzo delle tecnologie dell’informazione e della comunicazione di base (come Internet, banda larga, accesso da remoto, riunioni via Internet etc), del commercio elettronico, delle competenze informatiche e di sicurezza informatica oltre che dell’intelligenza artificiale, come accennato[4].

Diversamente, le grandi corporate extra europee, ad alto fattore tecnologico, esplorano i settori di frontiera delle tecnologie digitali emergenti (tra cui intelligenza artificiale, Blockchain, Internet of Things etc) ed investono ingenti capitali nella ricerca e sviluppo sia per incrementare le performance interne sia per offrire servizi e prodotti innovativi e competitivi, anche sul mercato europeo.

Se da un lato viaggiano treni ad alta velocità, rappresentati dai colossi tecnologici, come i GAFAM, i quali dispongono di capitali che nessuno Stato nazionale è in grado di investire da solo per lo sviluppo tecnologico di un singolo progetto; dall’altro, troviamo treni regionali, antiquati e lenti, le PMI italiane, che si fermano tra intoppi, mancanza di fondi, necessità di personale, competenze e di ammodernamento della rete infrastrutturale su cui viaggiano.

Questo squilibrio segna anche un passaggio rischioso da considerare: dalla sovranità nazionale alla sovranità tecnologica e questo aspetto appare decisamente critico in un’ottica tecnocratica, in cui il potere è determinato dal rapporto disfunzionale tra tecnologia e diritto, in cui la prevalenza del fattore tecnologico appare schiacciante.

In ultimo, ma non meno importante, il fervido panorama delle start-up innovative italiane rincorre affannosamente fondi e finanziamenti nazionali ed europei, in assenza di una mentalità fortemente orientata al rischio da parte degli investitori nazionali, con la conseguente difficoltà di scalare il mercato e la necessità di rivolgersi all’estero.

In un contesto così articolato, come anticipato, dobbiamo fare i conti anche con la stratificazione di disposizioni legislative europee e nazionali e regole di soft law che tentano di districare una matassa sempre più complessa, costituita da una nuova dimensione, quella digitale, in cui si innestano tecnologie combinate, nuove e meno recenti, in grado di trasformare il contesto sociale, giuridico, economico e antropologico dell’uomo.

Se pensiamo ad uno dei regolamenti europei più recenti che ha tratteggiato lo spazio di azione del legislatore in materia digitale, sicuramente l’attenzione cade immediatamente sul GDPR, regolamento europeo sulla protezione e circolazione dei dati personali (679/2016). Normative di alto livello di specializzazione, così pervasive, richiedono tempi di assimilazione per le aziende decisamente lunghi. Inizialmente l’adeguamento al GDPR era considerato mera attività formale di compliance finalizzata ad evitare sanzioni, mentre solo negli ultimi anni le aziende hanno iniziato a comprendere seriamente la necessità di una strategia in tema di circolazione, gestione e protezione dei dati personali quale asset sostanziale e irrinunciabile del proprio business. Tuttavia ancora oggi, le aziende che sviluppano tecnologia, pur comprendendo la necessità di regole, manifestano molte preoccupazioni in relazione al rallentamento o, peggio, al freno che la normativa potrebbe imporre alle sperimentazioni o applicazioni in uso, in considerazione della profusione di disposizioni spesso confuse, che non consentono al CEO e ai suoi collaboratori di avere una visione d’insieme chiara e di comprendere come muoversi, da dove partire, cosa poter fare o non fare e, talvolta, nemmeno a chi rivolgersi.

Vale anche per le regole in tema di intelligenza artificiale (in approvazione definitiva a breve, si auspica entro i primi di giugno), accolte con favore rispetto alla necessità di consentire un utilizzo sicuro della tecnologia, ma altrettanto criticate. Si teme un approccio burocratico eccessivamente rigido e stringente in danno delle aziende. È sì rassicurante la definizione di principi e la logica basata sul rischio e viene riconosciuta la necessità di trasparenza nel processo di sviluppo del modello di intelligenza artificiale, l’etichettatura dei contenuti generati e i test di sicurezza prima dell’introduzione di nuovi modelli, ma restano perplessità non trascurabili.

I costi di conformità legali saranno eccessivamente onerosi? Le responsabilità proporzionate? Il pericolo è la fuga di aziende e capitali verso legislazioni meno vincolanti.

Le aziende, inoltre, chiedono organismi attuativi agili in grado di adattarsi ai cambiamenti e di dialogare attivamente con gli esperti del settore per garantire la competitività e la sovranità tecnologica dell’Unione Europea, non solo nello spazio digitale europeo ma anche nell’economia dei dati al livello globale.

Viene affermata con forza la necessità di un dialogo con l’economia e lo sviluppo di un quadro legislativo transatlantico che tenga conto delle reali esigenze del business. Queste solo alcune delle preoccupazioni espresse in una lettera aperta ai Rappresentanti di Commissione Europea, Parlamento Europeo e Consiglio dell’UE in fase di negoziazione del Regolamento Europeo sull’intelligenza artificiale[5].

Almeno in parte queste preoccupazioni sembrano essere state raccolte nell’emanando AI Act[6], con la previsione di sandbox regolamentari, in cui sarà possibile testare soluzioni innovative, in un ambiente controllato, con la partecipazione delle autorità di vigilanza.

Si pone dunque l’antico dilemma e la sfida del nostro tempo: come tenere insieme l’esigenza, sempre più incalzante, di protezione dei diritti e delle libertà individuali, di salvaguardia della dignità umana, dei diritti fondamentali e della democrazia e promuovere al contempo l’innovazione e il rapido avanzamento tecnologico, senza limitarne la rapida crescita?

Occorre arginare il digitale in ogni sua nuova manifestazione fuori dal nostro controllo, oppure fissare nuove regole e principi invalicabili che possano valere anche per le sfide tecnologiche che verranno? Oppure lasciare proliferare la tecnologia a favore di una regolamentazione postuma, spesso inadeguata e in ogni caso carente, a cui rimettere mano via via?

Oppure ancora, non regolare la tecnologia ma solo il tipo di rischio associato all’utilizzo di un sistema?

Quale tra queste o altre soluzioni possiamo immaginare per il futuro, al netto delle normative vigenti ed emanande?

Quale paradigma prediligere? Un paradigma tecnocratico finalizzato alla risoluzione di ogni questione in capo al diritto e alla tecnologia o altro?

Prima di proseguire, è interessante notare come il tema dell’ipertrofia normativa in ambito digitale non riguardi solamente i giuristi che si occupano della materia, ma ad ampio raggio, coinvolga proprio tutti, in quanto parte dell’infosfera[7]. Ogni giorno tutti noi siamo tartassati continuamente da informazioni e contenuti di ogni tipo, anche quando non siamo presenti online, in un mondo interconnesso di una società liquida (come la definisce Edgar Morin nel suo scritto, “Insegnare a vivere. Manifesto per cambiare l’educazione”). In ogni momento, ad ogni nuova connessione, siamo raggiunti da notifiche, messaggi, mail, informazioni che non abbiamo il tempo di smaltire. Questo marasma informativo non informa, ma genera trappole di cui spesso restiamo inconsapevoli e illude tutti di poter conoscere tutto, senza conoscere nulla, perdendo così la bussola critica che orienta ogni scelta di buon senso, nella vita come nel business.

Occorrono certamente regole, ma occorre forse interrogarsi sulla metodologia da applicare per generare nuove regole, sui parametri che orientano scelte che hanno un rilievo di ordine etico, prima ancora che giuridico o tecnologico.

Il senso del limite

Occorre dunque interrogarsi sul senso del limite. Fino a che punto possiamo spingere l’innovazione tecnologica e il digitale e pensare di mantenerli sotto il nostro controllo?

I rischi e le opportunità intrinseche del digitale e delle più avanzate tecnologie di intelligenza artificiale, tra cui quella generativa, sono esponenziali ma devono essere sempre ricondotti al principio di legalità che regge ogni Stato di diritto: la mia libertà finisce dove inizia quella altrui.

Serve definire dei limiti.

Quale è la soglia oltre la quale questo enorme potere si trasforma da strumento utile dell’uomo a strumento contro l’umanità o parte di essa?

Normare non significa limitare, la norma è efficace ove preveda una sanzione in caso di inadempimento o violazione allora, occorre chiedersi se l’approccio più efficace sia quello deterrente o forse se occorra applicare un paradigma diverso.

Il paradigma tecnocratico che pone la tecnologia al servizio dell’uomo è certamente da percorrere ma non basta in quanto è una semplificazione che non tiene conto della complessità e della finitezza umana e rischia di diventare un argine illusorio.

Uno sguardo interessante e di ampio respiro è offerto dal Papa nella Giornata mondiale per la Pace in cui osserva come “la realtà è superiore all’idea […] e come l’essere umano, pensando di travalicare ogni limite in virtù della tecnica, rischia, nell’ossessione di voler controllare tutto, di perdere sé stesso; nella ricerca di una libertà assoluta, di cadere nella spirale di una dittatura tecnologica[8].

Un invito, dunque, a sviluppare un dialogo interdisciplinare per uno sviluppo etico degli algoritmi.

Il medesimo ragionamento è replicabile per ogni aspetto del mondo digitale: se non orientiamo le scelte e le azioni a valori condivisi, legati alla costruzione di un destino comune, qualsiasi regola imposta dall’alto sarà vuota di significato e rimarrà, forse, un mero deterrente. A volte efficace, altre meno.


NOTE

[1] Law and ICT 2024 disponibile qui.

[2] A. GALASSI, F. LAGIOIA, A. JABLONOWSKA, M. LIPPI Unfair clause detection in terms of service across multiple languages, Artificial Intelligence and Law, pubblicato il 03 aprile 2024, disponibile qui.

[3] Digital Decade Policy Programme 2030 disponibile qui.

[4] Indagine Istat “Imprese e ICT Anno 2023” disponibile qui.

[5] Open letter to the Representatives of the European Commission, the European Parliament and the Council of the EU, disponibile qui.

[6] Il 21 maggio 2024 è stato licenziato il testo del Regolamento sull’intelligenza artificiale cd., AI Act approvato da parte del Consiglio UE. Il comunicato stampa è disponibile qui.

[7] L. FLORIDI, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo (2014) trad. it. Raffaello Cortina, Milano, 2017, pagg. 47 e ss

[8] Messaggio di Sua Santità Francesco per la LVII giornata mondiale della pace, 01 gennaio 2024, Intelligenza artificiale e pace.

PAROLE CHIAVE: aziende / ICT / limite / normativa / professionisti

Condividi questo contenuto su