• Avvocato civilista del Foro di Taranto, PhD in Diritto Privato delle Nuove Tecnologie presso UNIBA. Direttore ufficio estensione accademica e docente in Diritto Privato Comparato e di Diritto dello Sviluppo Sostenibile presso l'Istituto Universitario Sophia, Figline e Incisa Valdarno (FI). DPO e consulente legale in materia di privacy e diritto d’autore in particolare per enti ecclesiastici e organizzazioni non governative.

  • Ingegnere in comunicazione. Master of science in communications engineering dall'università tecnica di Monaco di Baviera. Dottoranda di ricerca presso l’Istituto Universitario Sophia.

Abstract

Con il presente contributo si intende esplorare l’intersezione tra principio di precauzione, dovere di diligenza e responsabilità nel contesto della normativa sull’IA. Il principio di precauzione, in particolare, non trova alcuno spazio all’interno del Regolamento UE 2024/1689. In risposta a questa lacuna, il documento introduce il concetto di Giuramento Digitale, o Digital Oath, come strumento per promuovere l’autenticità e la responsabilità etica tra gli attori digitali. Il Giuramento fornisce una serie di impegni che incoraggiano la consapevolezza, la buona fede e la responsabilità nell’uso delle nuove tecnologie, promuovendo un processo decisionale etico nella progettazione dei sistemi digitali. Il documento introduce l’etica positiva collaborativa, che incoraggia l’azione collettiva per affrontare le complessità delle sfide etiche nell’IA. Concentrandosi sulla collaborazione, il Digital Oath mira a garantire che i sistemi di IA siano in linea con i valori incentrati sull’uomo e contribuiscano positivamente alla società.

Introduzione

La scelta del modello di governance e di politica normativa è la prima questione che i vari ordinamenti giuridici devono affrontare nella regolamentazione delle nuove tecnologie. Ogni nuova tecnologia implica la necessità di conciliare l’innovazione tecnologica, da un lato, e la dignità umana e i diritti fondamentali dell’individuo, dall’altro. La costante evoluzione della scienza e della tecnologia richiede una profonda riflessione sul rapporto tra interessi diversi come l’innovazione e i benefici derivanti dalle nuove scoperte, da un lato, e il benessere, la salute e la sicurezza dei cittadini, e la tutela dell’ambiente dall’altro. Le innovazioni tecnologiche, come l’ingegneria genetica, la biotecnologia, la robotica, la nanotecnologia e, da ultima, l’Intelligenza Artificiale, promettono grandi benefici per l’umanità, ma pongono anche rischi e pericoli per il benessere della comunità.

D’altra parte, lo status sociale della ricerca scientifica, sempre più dominata dalle logiche del mercato e dal bisogno di profitto, ha portato alla necessità di trovare usi pratici immediati delle scoperte, prima ancora di averne stabilito tutte le possibili conseguenze dannose. È qui che sono nati i principi di precauzione e prevenzione, e il ricorso a moratorie sull’uso delle innovazioni, imposte da normative o liberamente previste dai settori interessati. Infatti, i principi di precauzione e prevenzione pongono limiti alla ricerca scientifica e alla massimizzazione del profitto per garantire la tutela della dignità umana[1].

Il presente lavoro approfondisce il concetto di precauzione e dovere di diligenza, introducendo il Giuramento digitale e Digital Oath, che mira a fornire agli attori del mondo digitale un quadro di regole e impegni afferenti la professione, allo scopo di aiutare e coadiuvare gli stessi operatori nell’affrontare le sfide etiche che lo sviluppo delle nuove tecnologie comporta.

Infatti, gli attori del mondo digitale devono essere consapevoli del potere che esercitano e di come esso viene veicolato. Lessig affermava già diversi anni fa come: “possiamo costruire, o architettare, o codificare il cyberspazio per proteggere valori che riteniamo fondamentali, o possiamo costruire, o architettare, o codificare il cyberspazio per permettere a quei valori di scomparire”[2]. Si tratta di una scelta, e il Digital Oath mira a fornire una guida per un processo decisionale etico.

 

Il principio di precauzione

I primi tentativi dottrinali di individuare il corretto approccio alla regolamentazione delle tecnologie in Europa attribuiscono un ruolo fondamentale al principio di precauzione (better safe than sorry)[3].

Il principio di precauzione, infatti, è lo strumento guida nel determinare le scelte in situazioni di incertezza scientifica e in presenza di indicazioni concrete di possibili effetti negativi sull’ambiente e sulla salute. Di fronte alle nuove tecnologie, secondo la dottrina europea, l’approccio precauzionale, se applicato in modo equilibrato, è in grado di consentire il corretto equilibrio tra ricerca e tutela di interessi pubblici superiori[4].

Il fondamento dell’approccio precauzionale nelle scelte tecnologiche si trova proprio in questa esigenza di tutela dell’altro, che comporta la necessità di adottare comportamenti volti ad evitare danni alla salute e all’ambiente[5].

 

Obbligo di diligenza

Non stupisce, tuttavia, che si parli di questa concezione del principio in esame come di una forma di responsabilità o di custodia anticipata che si esprime in ultima analisi “nel prendersi cura dell’altro”[6].

Infatti, Jonas, nel 1984, ha teorizzato l’urgenza di sviluppare un’etica della responsabilità in una realtà in cui il potere tecnologico è in grado di portare l’uomo all’autodistruzione, affermando che una nuova etica per la civiltà tecnologica deve avere come fondamento un comportamento responsabile di fronte all’incertezza. Questo si basa sul principio che enfatizza la priorità della percezione del pericolo rispetto alle promesse di progresso quando l’innovazione tecnologica presenta un rischio potenziale per l’umanità, o in altre parole: “prestare più attenzione alla profezia di sventura che a quella di salvezza”. Jonas si sofferma, in particolare, sulla necessità di assumersi la piena responsabilità nei confronti delle generazioni future di fronte all’emergere dell’inquinamento ambientale e della riduzione delle risorse naturali, intervenendo per prevenire e ridurre questi fenomeni[7].

Dal pensiero di Jonas emerge chiaramente il concetto di equità intergenerazionale come il principio secondo cui il pianeta deve essere consegnato alle generazioni future in condizioni non peggiori di quelle di cui possiamo beneficiare oggi[8].

Le generazioni future, proprio in quanto tali, non hanno alcun diritto soggettivo di rivendicare nei confronti delle generazioni precedenti. Tutto il male che può essere loro inflitto, anche la privazione delle condizioni minime di vita, non è affatto una violazione di alcuni dei loro “diritti” in senso giuridico.

Le generazioni presenti hanno, pertanto, un dovere di custodia e cura nei confronti delle generazioni future, il cui contenuto si sostanzierebbe nella conservazione e non nell’impoverimento delle risorse naturali e nella preservazione dell’ambiente naturale[9].

Per Zagrebelsky ne consegue, quindi, che l’unica possibilità di affrontare adeguatamente il tema dei diritti delle generazioni future è quello di dirottare verso la “categoria del dovere”, un dovere di custodia e cura dell’altro che si estende anche alle generazioni future, di cui le generazioni presenti devono occuparsi attivamente ponendo dei limiti alle loro azioni.

 

Il Regolamento dell’Unione Europea sull’IA e l’assenza del dovere di diligenza

Nell’era dell’Intelligenza Artificiale, alcuni autori invocano ancora una volta il principio di precauzione come strumento giuridico privilegiato per bilanciare la dignità umana e gli interessi di mercato[10]. Tuttavia, nel Regolamento (UE) 2024/1689 sull’Intelligenza Artificiale, il principio di precauzione, a differenza di altri strumenti normativi dell’UE, è sorprendentemente assente. Questa omissione deliberata riflette probabilmente il desiderio di adottare un approccio più orientato al mercato della regolamentazione dell’IA.

Un altro principio fondamentale del quadro giuridico europeo per le tecnologie emergenti, in particolare nel trattamento dei dati, è il principio di accountability, sancito dal Regolamento (UE) 2016/679 (GDPR).  Questo è il principio secondo il quale il titolare e il responsabile del trattamento devono spiegare, giustificare e rendere conto all’interessato, a cui i dati appartengono, dell’attività svolta su di essi[11]. Questo strumento ha certamente rilevanza per il tema dell’Intelligenza Artificiale, che si alimenta e si sviluppa attraverso i dati, ma non trova alcun riferimento esplicito nel Regolamento UE sull’IA. In un contesto normativo in cui il dovere di diligenza e la responsabilità sono esclusi dai Regolamenti europei sull’IA, gli strumenti di soft law che riportano al centro l’attenzione di questi principi generali e codici di condotta possono trovare un ruolo rilevante.

È qui che entra in gioco il Giuramento Digitale, concepito come un insieme di impegni morali finalizzati a integrare le normative odierne e riportare la cura e la precauzione nel mondo digitale.

 

Il Giuramento Digitale – Digital Oath

Ispirato al giuramento di Ippocrate, il Giuramento Digitale è il risultato di workshop multidisciplinari con ingegneri, comunicatori, avvocati e mondo accademico, con l’obiettivo di trovare modi per migliorare il progresso tecnologico centrato sull’uomo per il bene delle comunità del futuro[12]. L’idea iniziale era quella di concentrarsi sugli attori digitali, ovvero su ingegneri, scienziati, professionisti di qualsiasi tipo che lavorino nella progettazione di sistemi digitali, in particolare quelli più inclini alle controversie etiche che progettano dispositivi di IA con funzioni decisionali. Tuttavia, l’obiettivo è stato ulteriormente esteso ad altre professioni, tra cui quella manageriale.

La sua forma e struttura comuni prendono in considerazione i blocchi principali del giuramento di Ippocrate, vale a dire l’ingiunzione di “No Harm” (il principio di non fare del male), e l’ingiunzione “For the Benefit of the Ill” (il principio di fare del bene)[13].

Il giuramento è composto da un preambolo e da tre serie di impegni: impegni di partecipazione, impegni a non fare del male e impegni benefici. Qualsiasi attore digitale può impegnarsi in modo crescente ai diversi livelli del giuramento. Il primo livello richiede l’impegno ad essere consapevoli, a partecipare e a non violare i diritti fondamentali. Il secondo livello è chiamato livello “safe” ed è rappresentato dall’impegno a non nuocere. Il giuramento completo include anche gli impegni benefici che aspirano a fare del bene. L’ultimo livello è, infatti, il livello beneficent.

Gli impegni in ogni set dipendono molto dalla natura della professione dell’attore digitale, ma lo scheletro del giuramento è comune a tutte le versioni. I principali concetti comuni del giuramento sono descritti di seguito.

Il preambolo è formulato come segue:

“Il Digital Oath è destinato agli attori digitali che progettano qualsiasi tipo di sistema digitale in tutto il mondo. I suoi principi e valori dovrebbero essere compresi in senso ampio, considerando le possibili differenze di interpretazione tra le culture. Sebbene non sia giuridicamente vincolante, il Digital Oath rappresenta un impegno professionale pubblico”.

Il contenuto del Giuramento è il frutto di una revisione multidisciplinare della letteratura che ha esaminato i principali quadri etici come la versione dell’IEEE dei principi di progettazione eticamente allineati del 2019, i principi dell’OCSE sull’IA del 2019, e la Raccomandazione dell’UNESCO sull’etica dell’IA del 2021. Questo si aggiunge alla letteratura relativa all’ingegneria e all’etica, come ad esempio Tegmark del 2017, Benanti del 2020 ed altri.

Il primo blocco del Giuramento Digitale è concepito come il livello di base, e contiene impegni di partecipazione. Conferiscono al giurante una consapevolezza intenzionale, che è la base e il passo partecipativo necessario per avviare il processo etico. Gli impegni riguardano la consapevolezza del lavoro svolto e degli standard etici in questione, il non utilizzo di alcun sistema che non rispetti i diritti umani di persone, comunità o popoli e il rimanere informati sugli aggiornamenti del Giuramento Digitale.

Il secondo blocco di impegni riguarda i principi e i valori che sono considerati responsabili e non dannosi per la persona, i popoli o le comunità. Esse implicano l’impegno a non danneggiare le entità menzionate e le loro dignità, libertà e privacy, assicurandosi che le intenzioni dei sistemi non siano dannose o non comportino rischi notevoli. Inoltre, citano principi come l’affidabilità, la coerenza con le conoscenze e competenze professionali e la morale personale, la sicurezza, la protezione, la robustezza, la resilienza, in particolare per i sistemi di Intelligenza Artificiale. I principi di non maleficenza fanno riferimento anche a trasparenza, responsabilità, spiegabilità, inclusività, giustizia, equità e danni minimi all’ambiente in termini di utilizzo dei materiali e impronta ecologica. Quest’ultimo si basa sull’impronta ambientale di qualsiasi sistema digitale che non può essere pari a zero ma che può essere minimizzata da scelte progettuali[14].

Mentre i principi di non maleficenza sono ampiamente utilizzati come principi e valori fondamentali nella maggior parte dei quadri etici e di soft law, la parte successiva del Giuramento Digitale, gli impegni benefici che aspirano a fare del bene, cattura l’essenza del giuramento stesso. Infatti, essi riguardano la creazione e la progettazione di sistemi digitali che mettano al centro e come priorità superiore l’essere umano come individuo e come comunità, promuovano il bene comune e ricerchino l’uguaglianza e la solidarietà tra gli individui e i popoli, e siano particolarmente utili ai più vulnerabili e fragili e/o aiutino a risolvere le urgenti sfide ecologiche e di sostenibilità

Come per qualsiasi giuramento professionale, l’adozione di un impegno formale alla condotta etica mette in gioco la propria reputazione, credibilità, autenticità e posizione all’interno della comunità. Nella società digitale di oggi, la fiducia è sempre più influenzata dalle valutazioni dei pari piuttosto che dall’autorità istituzionale. Piattaforme come Amazon dimostrano come gli individui si affidano alle recensioni degli utenti e ai feedback collettivi per determinare il valore di un prodotto, dando spesso più peso alle esperienze personali che alla reputazione del marchio. Allo stesso modo, quando si cercano cure mediche, le persone tendono a scegliere medici noti non solo per la loro competenza, ma anche per la loro integrità etica e i loro valori morali. In questo contesto, l’adozione di un giuramento etico può generare un impatto positivo di ampia portata, rafforzando la responsabilità, favorendo la fiducia del pubblico e promuovendo una cultura della responsabilità tra i professionisti.

 

Conclusione e prossimi passi

Oggi, mentre l’Intelligenza Artificiale e le tecnologie digitali stanno rimodellando la nostra comprensione di noi stessi e del nostro posto nel mondo, il Giuramento Digitale si presenta come un dovere di diligenza necessario che include misure precauzionali e misure relative alla cura dell’individuo, dei popoli, delle comunità e dell’ambiente di oggi e del futuro. Questo articolo esamina i concetti menzionati e rileva la necessità di tali quadri etici antropocentrici che lavorano sulla forza di volontà e sulle buone intenzioni dei professionisti che lavorano nel campo digitale e su tutto ciò che è correlato ad esso. Con il concetto di etica positiva collaborativa, introdotto nell’ambito del Giuramento Digitale, le sfide etiche che si presentano vengono risolte dalla collaborazione con esperti che consentono lo scambio di conoscenze e il bilanciamento di compromessi e tensioni.

Il progetto è ancora nella sua fase iniziale, in cui si stanno definendo la struttura, i contenuti e la strategia. I prossimi passi consisteranno nel testare il quadro, individuare i membri del team centrale e definire metriche etiche per garantire coerenza tra professioni e ottenere approfondimenti efficaci. Si tratta dell’inizio di un percorso che guarda al futuro con fiducia, con l’obiettivo di invitare i professionisti ad essere autentici, a fermarsi e porsi domande su etica, scopo e professionalità prima di prendere decisioni importanti.

Come esortava Louis Pasteur già nel 1904 – il pioniere francese della chimica e della microbiologia che ha rivoluzionato la scienza – le future generazioni, a prescindere dalla professione, non devono cedere allo scetticismo sterile né allo scoraggiamento. Anche nei momenti di incertezza globale, l’imperativo rimane quello di perseverare negli impegni intellettuali ed etici, che ci si trovi in un laboratorio, in una biblioteca o nei nuovi spazi dell’innovazione digitale.
Nell’era digitale, questa perseveranza richiede una riflessione costante sulle pratiche di governance che guidano lo sviluppo e l’applicazione delle tecnologie, sollecitando un continuo interrogarsi sulla responsabilità personale e collettiva: cosa ho/abbiamo fatto per migliorare la conoscenza? Cosa ho/abbiamo fatto per il bene?

Il significato emerge attraverso un impegno costante con le sfide morali poste dal progresso tecnologico. Anche un contributo modesto alla governance responsabile delle imprese può diventare parte di un più ampio cammino verso la giustizia e il benessere umano.

 


NOTE

[1] Rodotà, 2004; Comandè & Ponzanelli, 2004.

[2] Lessig, L. (1999). Codice e altre leggi del cyberspazio.

[3] Commissione Europea, 2021

[4] Marino, 2011.

[5] Tickner, Raffensperger, & Myers, 1999.

[6] Marino, 2011.

[7] Jonas, 1984.

[8] Nazioni Unite, 1992a; Nazioni Unite, 1992b; Corte europea dei diritti dell’uomo, 2024.

[9] Zagrebelsky, 2011

[10] Marcello, 2023.

[11] Scomazzon & Barbaro, 2024.

[12] Sammarco, 2019.

[13] Askitopoulou & Vgontzas, 2018

[14] Sharma & Dash, 2022.

 

Bibliografia e sitografia

Askitopoulou, H., & Vgontzas, A. N. (2018). L’importanza del giuramento di Ippocrate per i valori etici e morali della medicina contemporanea. Parte II: Interpretazione del giuramento di Ippocrate: la prospettiva odierna. Giornale europeo della colonna vertebrale, 27, 1491-1500.

Benanti, P. (2020). Digital age, teoria del cambio d’epoca. Persona, famiglia e società. Edizioni San Paolo.

Comandè, G., & Ponzanelli, G. (Eds.). (2004). Scienza e diritto nel prisma del diritto comparato. Giappichelli.

Commissione europea. (2021). Regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione. EUR-Lex.

Corte europea dei diritti dell’uomo. (2024, 9 aprile). Verein KlimaSeniorinnen Schweiz e altri c. Svizzera [GC] – Sentenza.

Parlamento europeo e Consiglio. (2016). Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (regolamento generale sulla protezione dei dati). Gazzetta ufficiale dell’Unione europea, L 119, 1-88.

Parlamento europeo e Consiglio. (2024). Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, sull’intelligenza artificiale. Gazzetta ufficiale dell’Unione europea, L 168, 1-XX.

Habermas, J. (2007). La condizione intersoggettiva (M. Carpitella, trad.). Suhrkamp Verlag. (Opera originale pubblicata come Tra naturalismo e religione).

IEEE. (2019). Design eticamente allineato: una visione per dare priorità al benessere umano con sistemi autonomi e intelligenti. IEEE.

Jonas, H. (1984). L’imperativo della responsabilità: alla ricerca di un’etica per l’era tecnologica. Stampa dell’Università di Chicago.

Lessig, L. (1999). Codice e altre leggi del cyberspazio. Libri di base.

Marcello, D. (2023). Circolazione dei dati del minore tra autonomia e controllo: Norme e prassi nel mercato digitale europeo (pp. 121–122). Napoli, Italy.

Marino, I. M. (2011). Aspetti propedeutici del principio giuridico di precauzione. In AA.VV., Studi in onore di Alberto Romano (Vol. III, pp. 2177 et seq.). Napoli, Italy. Republished in A. Barone (Ed.), Scritti giuridici di Ignazio Maria Marino (Vol. II, p. 1521). Napoli, Italy, 2015.

Pasteur, L. (1904). Discours aux jeunes gens. La Revue pédagogique, 45(2), 109–120.

OCSE. (2019). Principi dell’OCSE sull’intelligenza artificiale.

Rodotà, S. (2004). Diritto, scienza, tecnologia: Modelli e scelte di regolamentazione. In G. Comandè & G. Ponzanelli (Eds.), Scienza e diritto nel prisma del diritto comparato (pp. 407–…). Giappichelli.

Sharma, P., & Dash, B. (2022). L’impronta di carbonio digitale: una minaccia per un futuro sostenibile dal punto di vista ambientale. Giornale internazionale di informatica e tecnologia dell’informazione, 14(3), 19–29.

Scomazzon, E., & Barbaro, S. (2024). Le relazioni al “cuore” del diritto. In M. Voce & A. Cosseddu (Eds.), Un orizzonte di luce oltre la frammentazione dell’umano (p. 110). Roma, Italy.

Sulmasy, DP (1999). Che cos’è un giuramento e perché un medico dovrebbe farlo? Medicina teorica e bioetica, 20(4), 329–346.

Tegmark, M. (2017). Vita 3.0: Essere umani nell’era dell’intelligenza artificiale. Alfred A. Knopf.

Tickner, J., Raffensperger, C., & Myers, N. (1999). Il principio di precauzione in azione: un manuale. Rete per la scienza e la salute ambientale e Lowell Center for Sustainable Production.

Tomasello, M. (2010). Altruisti nati: Perché cooperiamo fin da piccoli (D. Restani, Trans.). Bollati Boringhieri. (Original work published as Why We Cooperate).

Nazioni Unite. (1992a). Convenzione quadro delle Nazioni Unite sui cambiamenti climatici.

Nazioni Unite. (1992b). Dichiarazione di Rio sull’ambiente e lo sviluppo.

UNESCO. (2021). Raccomandazione sull’etica dell’intelligenza artificiale.

Zagrebelsky, G. (2011, 2 dicembre). In nome dei bambini: se la legge ha il dovere di pensare al futuro. La Repubblica, p. 54.

PAROLE CHIAVE: beneficenza / diligenza / etica della tecnologia / giuramento digitale / precauzione

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.