Abstract
Il contributo muove dalla constatazione che l’intelligenza artificiale non si limita a operare dentro gli ordinamenti giuridici esistenti, ma tende a generare un proprio nomos: un insieme di regole, gerarchie decisionali e criteri di allocazione delle risorse che si sovrappone — e talvolta si sostituisce — alle strutture normative degli Stati sovrani. L’espressione richiama deliberatamente la riflessione di Carl Schmitt sul rapporto tra ordinamento spaziale e potere, per trasporla nel contesto immateriale ma non meno “territoriale” del dominio algoritmico. L’analisi si articola lungo tre direttrici. La prima esamina la crisi del paradigma westfaliano di fronte alla natura intrinsecamente transnazionale dei sistemi di IA. La seconda indaga i nuovi centri di potere — piattaforme tecnologiche, autorità di regolazione sovranazionali, consorzi di standardizzazione — che concorrono a definire le regole effettive dell’ecosistema algoritmico. La terza valuta criticamente la risposta dell’Unione europea, dall’AI Act al Digital Omnibus Package e alla legge italiana n. 132/2025, interrogandosi sulla capacità di questi strumenti di riaffermare una sovranità digitale autenticamente democratica.
Premessa
Esiste un momento nella storia del pensiero giuridico in cui le categorie consolidate smettono di funzionare. Non perché siano errate in sé, ma perché la realtà che dovrebbero descrivere si è trasformata al punto da renderle inadeguate. Siamo probabilmente dentro uno di quei momenti. L’intelligenza artificiale, nella sua rapida e pervasiva diffusione, non si limita a porre problemi di regolazione — come avveniva, in fondo, per ogni nuova tecnologia — ma mette in discussione le fondamenta stesse su cui poggia il concetto di ordinamento giuridico: la sovranità dello Stato, la territorialità delle norme, la gerarchia delle fonti, il primato della volontà democratica nella produzione del diritto.
Chi si accosti oggi ai grandi sistemi di intelligenza artificiale — dai modelli linguistici generativi agli algoritmi predittivi utilizzati nella giustizia, nella finanza, nella sanità, nella sicurezza pubblica — si trova di fronte a una realtà che sfugge alle categorie tradizionali del giurista.
Questi sistemi non si limitano a eseguire comandi: producono decisioni, classificano individui, distribuiscono opportunità e rischi secondo logiche proprie, spesso imperscrutabili persino ai loro stessi sviluppatori. In altre parole, generano un ordine. Non un ordine dichiarato, codificato in gazzette ufficiali e sottoposto al vaglio del legislatore, ma un ordine di fatto, tanto più potente quanto più invisibile.
È a partire da questa constatazione che si rende necessario un ripensamento profondo, capace di mettere in dialogo la riflessione giuridica con la teoria politica e con l’analisi dei rapporti di forza che attraversano l’economia digitale globale.
In questa prospettiva, il richiamo a Carl Schmitt e al suo concetto di nomos — inteso non come semplice norma, ma come l’atto fondativo che determina l’appropriazione, la distribuzione e la produzione di uno spazio ordinato — non è un vezzo accademico, ma una chiave interpretativa che consente di cogliere la portata reale di ciò che sta accadendo. L’intelligenza artificiale, per certi versi, sta costruendo il proprio nomos: un ordinamento parallelo, immateriale eppure concretissimo nei suoi effetti, che ridefinisce i confini del potere nell’era globale.
La crisi del paradigma westfaliano nell’era dell’intelligenza artificiale
Il sistema degli Stati nazionali, così come lo conosciamo, affonda le sue radici nella pace di Westfalia del 1648, che consacrò il principio della sovranità territoriale: ogni Stato è padrone assoluto all’interno dei propri confini, e nessuna autorità esterna può legittimamente interferire con il suo ordinamento interno. Per quasi quattro secoli, questo modello ha costituito l’architrave dell’ordine internazionale, pur con tutte le sue evoluzioni e le sue crisi. I fenomeni della globalizzazione economica, a partire dall’ultimo quarto del Novecento, hanno certamente eroso questo paradigma, ma senza distruggerlo: il commercio internazionale, pur trascendendo i confini nazionali, restava pur sempre disciplinato da trattati negoziati tra Stati sovrani.
L’intelligenza artificiale introduce una discontinuità qualitativa in questo quadro. Non si tratta più, semplicemente, di beni o servizi che attraversano le frontiere, ma di sistemi decisionali che operano simultaneamente in una pluralità di giurisdizioni senza essere davvero radicati in nessuna di esse.
Un modello di linguaggio sviluppato da un’impresa con sede legale in California, addestrato su dati raccolti in decine di Paesi, eseguito su server distribuiti tra Irlanda, Singapore e Virginia, e utilizzato da centinaia di milioni di persone su ogni continente, sfugge per sua natura alla logica della territorialità. A quale ordinamento giuridico appartiene questo modello? Chi ha il diritto di regolarne il funzionamento, di imporre limiti al suo addestramento, di sanzionarne gli abusi?
Le risposte tradizionali appaiono insufficienti. Il principio del luogo di stabilimento, cardine del diritto internazionale privato e fondamento della regolazione europea della società dell’informazione, fu pensato per un’epoca in cui l’attività economica, anche quella digitale, poteva essere ricondotta a un centro fisico identificabile. Oggi questo nesso si è in larga misura dissolto. I grandi operatori dell’intelligenza artificiale non sono imprese nel senso classico del termine: sono ecosistemi, infrastrutture cognitive distribuite, il cui “territorio” è il flusso stesso dei dati. La sovranità statale, di fronte a questa realtà, rischia di ridursi a una pretesa priva di effettività.
Vi è poi un aspetto ulteriore, forse ancora più insidioso. I sistemi di intelligenza artificiale non si limitano a eludere la giurisdizione degli Stati: ne condizionano le scelte. Quando un governo adotta un sistema algoritmico per allocare risorse sanitarie, valutare richieste di asilo, determinare livelli di sorveglianza nei quartieri urbani, non sta semplicemente utilizzando uno strumento tecnico: sta delegando a un’architettura decisionale esterna una porzione della propria sovranità sostanziale. E questa delega avviene spesso senza piena consapevolezza delle sue implicazioni, perché la complessità tecnica dei sistemi coinvolti rende opaco il confine tra ciò che decide l’uomo e ciò che decide la macchina.
Il risultato è una sorta di sovranità perforata: formalmente intatta, sostanzialmente svuotata. Gli Stati continuano a legiferare, a emanare regolamenti, a istituire autorità di controllo, ma il potere reale di determinare le condizioni di vita dei cittadini si sposta progressivamente verso attori che non rispondono ad alcun mandato democratico e che operano secondo logiche proprie, irriducibili a quelle dell’ordinamento giuridico statale.
I nuovi centri di potere: piattaforme, standard e autorità ibride
Se la sovranità statale si contrae, qualcuno ne occupa lo spazio lasciato vuoto. Ed è qui che il discorso giuridico deve confrontarsi con una fenomenologia del potere che non trova precedenti nella tradizione occidentale.
I nuovi centri di potere nell’era dell’intelligenza artificiale non sono né Stati né organizzazioni internazionali nel senso classico, ma entità ibride che combinano capacità tecnologica, forza economica e influenza normativa in forme inedite.
Le grandi piattaforme tecnologiche rappresentano il caso più evidente e più studiato. Imprese come Google, Microsoft, Meta, Amazon e, più di recente, OpenAI e Anthropic, non si limitano a offrire servizi sul mercato: governano infrastrutture su cui si regge una porzione crescente della vita economica, sociale e comunicativa del pianeta. Queste imprese determinano, attraverso le scelte architetturali dei propri sistemi, quali contenuti sono visibili e quali no, quali comportamenti sono incentivati e quali scoraggiati, quali categorie di persone hanno accesso a determinate opportunità e quali ne sono escluse.
Si tratta, a tutti gli effetti, di una funzione normativa, anche se esercitata non attraverso leggi e regolamenti, ma attraverso codice informatico, progettazione algoritmica e condizioni generali di servizio. Questa funzione normativa è tanto più significativa in quanto si accompagna a un potere conoscitivo senza precedenti.
I sistemi di intelligenza artificiale si nutrono di dati, e i dati sono, nell’economia contemporanea, la materia prima del potere. Chi controlla i dati — la loro raccolta, la loro elaborazione, il loro utilizzo per l’addestramento di modelli sempre più sofisticati — dispone di una capacità di comprensione e di previsione del comportamento umano che supera di gran lunga quella di qualsiasi apparato statale. La famosa asimmetria informativa teorizzata da Shoshana Zuboff nel suo lavoro sul capitalismo della sorveglianza non si è attenuata con l’avvento dell’intelligenza artificiale generativa: si è radicalizzata.
Ma le piattaforme tecnologiche non sono gli unici attori in gioco. Accanto ad esse, e spesso in rapporto di complessa interazione, si collocano altri centri di potere meno visibili ma non meno influenti. I consorzi di standardizzazione tecnica — organismi come l’ISO, il NIST, il CEN-CENELEC, l’IEEE — svolgono un ruolo decisivo nella definizione delle regole effettive dell’intelligenza artificiale. Gli standard tecnici, apparentemente neutri, incorporano scelte valoriali profonde: stabilire quali metriche misurano la “sicurezza” di un sistema di IA, quali test ne certificano l’“affidabilità”, quali requisiti di trasparenza sono considerati “adeguati”, significa, nei fatti, determinare il contenuto concreto degli obblighi normativi imposti dal legislatore.
La legge fissa il principio; lo standard ne definisce la sostanza. E gli standard sono elaborati in sedi tecniche dove la voce delle grandi imprese tecnologiche è incomparabilmente più forte di quella dei cittadini, delle organizzazioni della società civile o persino dei governi di molti Paesi.
Vi è infine un terzo livello di potere che merita attenzione: quello delle autorità di regolazione, sia nazionali sia sovranazionali, che si trovano a operare in un campo caratterizzato da una radicale asimmetria di competenze tecniche. L’AI Act europeo, con la sua architettura di sorveglianza del mercato, attribuisce un ruolo centrale alle autorità nazionali competenti e all’Ufficio europeo per l’IA istituito in seno alla Commissione.
Ma queste autorità, per poter esercitare efficacemente le proprie funzioni, dipendono in misura significativa dalle informazioni e dalle competenze tecniche fornite dagli stessi soggetti che dovrebbero controllare.
Si riproduce così, nel campo dell’intelligenza artificiale, quel fenomeno di cattura del regolatore che la letteratura economica ha da tempo identificato in altri settori, con l’aggravante che la complessità tecnica dell’IA rende questa cattura più probabile e più difficile da contrastare.
Il quadro che ne emerge è quello di un pluralismo normativo di fatto, in cui la produzione delle regole che governano l’intelligenza artificiale — e, per suo tramite, porzioni sempre più ampie della vita associata — è distribuita tra una pluralità di attori eterogenei, privi di un coordinamento sistemico e sottratti, in larga misura, al controllo democratico.
È questo, propriamente, il nomos dell’algoritmo: un ordinamento reticolare, decentrato, a geometria variabile, che si sovrappone agli ordinamenti giuridici tradizionali senza sostituirli formalmente, ma condizionandone profondamente l’efficacia.
La risposta europea: tra ambizione regolatoria e limiti strutturali
L’Unione europea ha tentato, con un’ambizione senza precedenti, di costruire un argine normativo a questa erosione della sovranità giuridica. L’AI Act, approvato definitivamente nel 2024, rappresenta il primo tentativo al mondo di disciplinare in modo organico l’intelligenza artificiale attraverso uno strumento legislativo vincolante. Il suo approccio, fondato sulla classificazione dei sistemi di IA in base al livello di rischio, mira a coniugare la promozione dell’innovazione con la tutela dei diritti fondamentali, secondo un modello che aspira a porsi come riferimento globale, replicando il cosiddetto “effetto Bruxelles” già sperimentato con il GDPR.
Sarebbe ingeneroso non riconoscere la portata di questo sforzo.
L’AI Act introduce principi importanti: il divieto di alcune pratiche considerate inaccettabili, come i sistemi di punteggio sociale e alcune forme di sorveglianza biometrica di massa; l’obbligo di valutazione del rischio per i sistemi ad alto impatto; requisiti di trasparenza e di supervisione umana che, se effettivamente attuati, potrebbero costituire un presidio significativo a tutela dei cittadini.
Il regolamento, inoltre, si inscrive in un mosaico normativo più ampio — che comprende il Data Governance Act, il Data Act, il Digital Services Act e il Digital Markets Act — attraverso il quale l’Unione sta cercando di costruire una cornice coerente per la governance dell’economia dei dati.
Eppure, a un’analisi più attenta, emergono limiti strutturali che rischiano di compromettere l’efficacia di questo impianto. Il primo limite è di ordine temporale.
La velocità di evoluzione dell’intelligenza artificiale è tale da rendere qualsiasi normativa potenzialmente obsoleta nel momento stesso della sua entrata in vigore.
L’AI Act, negoziato in un contesto in cui i modelli generativi di grande scala stavano appena emergendo, ha dovuto essere integrato in extremis con disposizioni sui modelli di IA a uso generale, la cui formulazione risente inevitabilmente dell’urgenza e dell’incertezza del momento.
Il secondo limite riguarda il perimetro di applicazione. Il regolamento si fonda sul presupposto che sia possibile identificare con sufficiente precisione il “fornitore” e il “deployer” di un sistema di IA, attribuendo loro responsabilità differenziate.
Ma le catene del valore dell’intelligenza artificiale sono oggi estremamente frammentate: un modello può essere sviluppato da un soggetto, perfezionato da un altro, integrato in un prodotto da un terzo e utilizzato da un quarto, ciascuno operante in una giurisdizione diversa. Questa frammentazione rende problematica l’attribuzione delle responsabilità e crea zone grigie che i soggetti più abili sapranno sfruttare.
Il terzo limite, forse il più profondo, è di ordine geopolitico. L’Unione europea può regolare l’uso dell’intelligenza artificiale sul proprio territorio, ma non può, da sola, governare la produzione dei modelli fondativi che ne costituiscono il presupposto. I grandi modelli di linguaggio, i sistemi di visione artificiale, le architetture di apprendimento per rinforzo che stanno trasformando l’economia e la società globale sono sviluppati, nella quasi totalità, da imprese statunitensi e, in misura crescente, cinesi.
L’Europa è, in questo campo, fondamentalmente una consumatrice di tecnologia altrui. Questa condizione di dipendenza strutturale limita drasticamente la portata effettiva di qualsiasi sforzo regolatorio, perché il potere di chi scrive le regole è sempre subordinato al potere di chi controlla le infrastrutture.
In questo contesto si inserisce la legge italiana n. 132 del 2025, che ha fatto dell’Italia il primo Paese dell’Unione a dotarsi di una legislazione nazionale organica sull’intelligenza artificiale.
La legge, ispirata a un approccio dichiaratamente antropocentrico, mira a integrare e specificare il quadro europeo con disposizioni settoriali che riguardano, tra l’altro, la pubblica amministrazione, la sanità, il lavoro e l’amministrazione della giustizia. Si tratta di uno sforzo apprezzabile, che testimonia una sensibilità istituzionale non scontata. Ma anche questa legge sconta il limite intrinseco di ogni normativa nazionale in un campo che è, per sua stessa natura, irriducibile ai confini dello Stato: può disciplinare l’uso dei sistemi di IA da parte dei soggetti sottoposti alla giurisdizione italiana, ma non può incidere sulle condizioni strutturali in cui quei sistemi vengono concepiti, sviluppati e resi disponibili sul mercato globale.
A conferma della consapevolezza delle istituzioni europee circa la necessità di un intervento di razionalizzazione complessiva, il 19 novembre 2025 la Commissione europea ha presentato il cosiddetto Digital Omnibus Package, un’iniziativa articolata in tre proposte di regolamento — COM(2025) 835, 836 e 837 — che rappresenta il più ampio tentativo di riordino dell’acquis normativo digitale europeo dall’entrata in vigore del GDPR.
L’obiettivo dichiarato è quello di semplificare, consolidare e armonizzare il quadro regolatorio, nato dalla stratificazione di una pluralità di atti legislativi — GDPR, AI Act, Data Act, Data Governance Act, Direttiva ePrivacy, Direttiva NIS2, Regolamento DORA — che, pur mossi da finalità condivisibili, hanno generato sovrapposizioni, duplicazioni di adempimenti e incertezze interpretative tali da incidere negativamente sulla competitività delle imprese europee.
L’iniziativa si colloca nel solco della più ampia strategia di semplificazione avviata dalla Commissione sulla scorta del rapporto Draghi sulla competitività europea, e interviene lungo due direttrici.
La prima, di carattere orizzontale (COM(2025) 837), incide su una pluralità di fonti esistenti, con modifiche significative al GDPR — tra cui la ridefinizione in chiave soggettiva e contestuale del concetto di dato personale, la riscrittura dell’art. 22 sulle decisioni automatizzate e l’introduzione di una nuova base giuridica per il trattamento di dati nel contesto dello sviluppo di sistemi di IA — nonché l’integrazione nel GDPR della disciplina della Direttiva ePrivacy e la razionalizzazione degli obblighi di notifica in materia di sicurezza informatica, con l’attribuzione a ENISA della gestione di una piattaforma unica per le segnalazioni di incidenti. La seconda direttrice, di carattere verticale (COM(2025) 836), interviene specificamente sull’AI Act, introducendo un meccanismo flessibile per l’entrata in applicazione degli obblighi sui sistemi di IA ad alto rischio, subordinandola alla disponibilità effettiva di standard armonizzati, specifiche comuni e linee guida della Commissione, con un termine ultimo fissato al 2 dicembre 2027.
Per i sistemi di IA che costituiscono dispositivi medici, il periodo transitorio è ulteriormente esteso fino al 2 agosto 2028. Il pacchetto estende inoltre alle piccole imprese a media capitalizzazione le semplificazioni già previste per le PMI, e centralizza presso l’AI Office la supervisione dei sistemi basati su modelli di IA a uso generale.
Il Digital Omnibus è, per ora, soltanto una proposta e dovrà attraversare l’intero iter legislativo ordinario di codecisione tra Parlamento europeo e Consiglio, con un’approvazione che non è attesa prima del 2027. Tuttavia, la sua portata merita attenzione già in questa fase, per almeno due ragioni che attengono direttamente al tema del presente contributo. La prima è che il pacchetto conferma, implicitamente, l’inadeguatezza dell’approccio regolatorio per stratificazione successiva: la stessa Commissione riconosce che l’accumulo di norme, lungi dal rafforzare la governance digitale, ne ha compromesso la coerenza e l’effettività. La seconda, più insidiosa, è che dietro la retorica della semplificazione si profila il rischio di un indebolimento sostanziale delle tutele: la ridefinizione del dato personale in chiave soggettiva, l’ampliamento delle basi giuridiche per l’addestramento dell’IA e il differimento degli obblighi per i sistemi ad alto rischio sollevano interrogativi legittimi sulla capacità dell’Unione di mantenere quell’equilibrio tra innovazione e diritti fondamentali che costituisce, a parole, il tratto distintivo del modello europeo. Il Digital Omnibus, in definitiva, rappresenta al tempo stesso un’ammissione di complessità e una scommessa sulla possibilità di governarla: il suo esito dipenderà dalla misura in cui il legislatore europeo saprà resistere alla tentazione di sacrificare la sostanza dei diritti sull’altare della competitività.
Verso un nuovo equilibrio: la tutela dei diritti come criterio ordinante
Di fronte a un quadro così complesso, la tentazione è duplice e simmetrica. Da un lato, l’illusione tecnocratica: la convinzione che basti moltiplicare le norme, affinare le classificazioni, potenziare le autorità di controllo per riportare l’intelligenza artificiale dentro l’alveo degli ordinamenti giuridici tradizionali. Dall’altro, la rassegnazione fatalisrica: l’idea che il potere della tecnologia sia ormai incontenibile e che ogni tentativo di regolazione sia destinato all’irrilevanza o, peggio, a favorire solo i Paesi e le imprese che non si sottopongono ad alcun vincolo. Entrambe queste posizioni, nella loro unilateralità, sono fuorvianti.
La strada percorribile è un’altra, e passa per un ripensamento della funzione stessa del diritto nell’era algoritmica. Se il nomos dell’algoritmo è un dato di fatto — se, cioè, l’intelligenza artificiale produce effettivamente un ordine normativo proprio, irriducibile a quello statale — allora il compito del giurista non è negare questa realtà, ma governarla. E il criterio per governarla non può essere che uno: la tutela effettiva dei diritti fondamentali delle persone.
Questo criterio, nella sua apparente semplicità, ha implicazioni operative profonde. Significa, in primo luogo, che la regolazione dell’intelligenza artificiale non può limitarsi a un approccio basato sul rischio, per quanto questo rappresenti un punto di partenza ragionevole. Il rischio, per definizione, è una categoria probabilistica e prospettica, che si presta a essere manipolata da chi ha interesse a minimizzarlo. Un approccio autenticamente orientato ai diritti richiede invece che si valutino ex post, e non solo ex ante, gli effetti concreti dei sistemi di IA sulla vita delle persone, con meccanismi di responsabilità effettivi e rimedi accessibili. La valutazione di impatto sui diritti fondamentali prevista dall’AI Act per i sistemi ad alto rischio va nella direzione giusta, ma rischia di restare un esercizio formale se non è accompagnata da strumenti di ricorso individuali e collettivi realmente utilizzabili.
Significa, in secondo luogo, che la questione della trasparenza algoritmica deve essere affrontata non come un obbligo burocratico, ma come una precondizione della democrazia. Un sistema decisionale che incide sui diritti delle persone senza che queste possano comprenderne il funzionamento, contestarne le conclusioni e ottenerne la rettifica è incompatibile con lo Stato di diritto, indipendentemente dalla sua efficienza tecnica. Il principio di spiegabilità, già presente nel GDPR con riguardo alle decisioni automatizzate e ripreso dall’AI Act, deve essere interpretato non in senso meramente tecnico — come obbligo di fornire una descrizione del funzionamento dell’algoritmo — ma in senso sostanziale, come diritto della persona a ottenere ragioni comprensibili delle decisioni che la riguardano.
Significa, infine, che la governance dell’intelligenza artificiale non può essere affidata alla sola dimensione normativa, ma richiede un investimento massiccio nella dimensione istituzionale. Le autorità di regolazione devono essere dotate di risorse, competenze e indipendenza adeguate alla complessità del campo in cui operano. Devono poter accedere al funzionamento interno dei sistemi di IA, condurre audit indipendenti, imporre misure correttive con tempi compatibili con la velocità dell’innovazione tecnologica. Ma soprattutto devono essere inserite in una rete di cooperazione internazionale che superi la frammentazione giurisdizionale, perché nessuna autorità nazionale o regionale, da sola, è in grado di confrontarsi efficacemente con attori che operano su scala globale.
Il dialogo tra l’ordinamento giuridico e l’ordinamento algoritmico, in definitiva, non può risolversi né nella subordinazione del secondo al primo — che sarebbe velleitaria — né nella resa del primo al secondo — che sarebbe inaccettabile. Deve piuttosto configurarsi come una tensione produttiva, in cui il diritto conserva la sua funzione essenziale di limite al potere, adattandola a un contesto in cui il potere non si manifesta più soltanto nella forma tradizionale della coercizione statale, ma anche nella forma, più sottile e pervasiva, dell’architettura algoritmica che struttura le nostre scelte, le nostre relazioni, le nostre possibilità di vita.
Considerazioni conclusive
L’intelligenza artificiale ci costringe a fare i conti con una verità scomoda: gli ordinamenti giuridici, così come li abbiamo conosciuti, non sono più l’unica, né forse la principale, sede di produzione delle regole che governano la vita associata. Accanto ad essi — e spesso al di sopra di essi — opera un ordinamento algoritmico che ha i suoi centri di potere, le sue gerarchie, i suoi meccanismi di inclusione e di esclusione. Ignorare questa realtà sarebbe un errore tanto grave quanto arrendersi ad essa.
Il compito che attende il giurista, e più in generale il cittadino consapevole, è quello di costruire gli strumenti concettuali e istituzionali per ricondurre il potere algoritmico dentro un orizzonte di legittimazione democratica, senza pretendere di eliminarne la specificità tecnica, ma senza nemmeno accettare che la complessità tecnica diventi un alibi per l’irresponsabilità.
L’AI Act europeo, il Digital Omnibus Package e la legge italiana n. 132/2025 rappresentano i primi passi di un cammino che si annuncia lungo e incerto. La loro efficacia dipenderà, in ultima analisi, non tanto dalla perfezione dei testi normativi, quanto dalla volontà politica di dotarsi delle risorse necessarie per darvi attuazione e dalla capacità della società civile di esercitare un controllo vigile sul modo in cui l’intelligenza artificiale viene sviluppata, distribuita e utilizzata.
Nel frattempo, una cosa è certa: il nomos dell’algoritmo non è un destino. È il prodotto di scelte umane — scelte di progettazione, scelte di investimento, scelte di regolazione, scelte di consumo — e come tale può essere orientato, contestato, riformato.
La partita è aperta, e il suo esito dipende dalla nostra capacità collettiva di pensare il diritto all’altezza delle sfide che la tecnologia ci pone. Non è poco, ma non è nemmeno impossibile.
PAROLE CHIAVE: AI Act / centri di potere / Digital Omnibus / diritti fondamentali / Governance algoritmica / intelligenza artificiale / legge 132/2025 / ordinamento giuridico / sovranità digitale
Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.


























