• Giurista con esperienza presso la Corte Suprema di Cassazione e in contesti internazionali. Ha operato nell’analisi giurisprudenziale e nella redazione diprovvedimenti, con particolare attenzione alla tutela dei diritti fondamentali e al dialogo tra ordinamenti nazionali ed europei. Ha maturato esperienze nelle relazioni istituzionali, nella gestione degli stakeholder e nella comunicazione pubblica, collaborando con organizzazioni internazionali e realtà editoriali. Attualmente in fase di specializzazione nel diritto delle nuove tecnologie, con focus su intelligenza artificiale, protezione dei dati ed etica dell’innovazione.

Abstract

Il caso Grok offre un interessante spunto per riflettere sulle dinamiche di potere nell’ecosistema digitale contemporaneo, con particolare riferimento alle piattaforme di social media, all’interno delle quali i grandi colossi tecnologici svolgono un potere di fatto di natura normativa. In una fase in cui i sistemi regolatori nazionali e sovranazionali cercano di rincorrere la rapidissima transizione digitale, tali piattaforme finiscono spesso per autoregolarsi attraverso policy interne e architetture tecniche che precedono o sostituiscono l’intervento pubblico. La questione diventa rilevante laddove questi attori privati tendono a privilegiare lo sviluppo tecnologico rispetto alla salvaguardia dei diritti fondamentali degli utenti. Ne deriva un articolato problema di responsabilità che difficilmente può essere affrontato mediante il ricorso alle tradizionali forme di responsabilità civile. Nei contesti in cui sistemi di intelligenza artificiale incidono sulle libertà fondamentali, le forme di responsabilità applicabili richiedono una riflessione più ampia considerata la pluralità di soggetti umani e non umani coinvolti nei processi decisionali.

Introduzione

Il rapido sviluppo delle tecnologie digitali e dei sistemi di intelligenza artificiale ha profondamente trasformato gli equilibri di potere all’interno dell’ecosistema comunicativo contemporaneo, attribuendo alle grandi piattaforme tecnologiche un ruolo sempre più centrale nella regolazione dello spazio digitale.

In tale contesto, il rapporto tra innovazione tecnologica, tutela dei diritti fondamentali e intervento pubblico si configura come uno dei nodi più rilevanti del dibattito giuridico attuale.

Il presente contributo prende le mosse dal caso Grok quale occasione per analizzare il potere normativo di fatto esercitato dalle piattaforme digitali, la persistente centralità dei meccanismi di autoregolamentazione e le difficoltà incontrate dai sistemi regolatori nel tenere il passo con l’evoluzione tecnologica. L’analisi si sofferma, in particolare, sul ruolo del legislatore europeo e sulle tensioni tra sviluppo tecnologico e protezione dei diritti fondamentali, evidenziando altresì le criticità legate all’individuazione delle responsabilità giuridiche nei contesti in cui sistemi di intelligenza artificiale incidono sulle libertà individuali.

 

Il potere normativo di fatto delle piattaforme

La recente vicenda legata al caso Grok rappresenta un interessante punto di partenza per una riflessione sul ruolo delle piattaforme di social media nell’attuale ecosistema digitale. La chatbot di intelligenza artificiale sviluppata da xAI ed integrata nella piattaforma X (precedentemente Twitter) è stata associata alla generazione di immagini pornografiche raffiguranti donne e minori. La questione è stata resa ancora più complicata dalla facilità con cui questi contenuti sono stati successivamente diffusi sul social media X tramite un semplice click.

Ciò che rende questo caso particolarmente rilevante ai fini della presente analisi non è tanto la sua dimensione scandalistica, quanto la capacità di evidenziare il potere pervasivo delle piattaforme digitali contemporanee, le quali tendono ad autoregolarsi indipendentemente dall’esistenza di barriere normative.

Il caso Grok va dunque inserito nel più ampio fenomeno dell’assunzione di un potere di fatto normativo da parte delle grandi piattaforme di social media che, attraverso policy interne e architetture algoritmiche, definiscono autonomamente i criteri relativi alla creazione, condivisione e rimozione dei contenuti.

Questa tendenza si è affermata in primo luogo a causa di un iniziale vuoto normativo sia a livello nazionale sia sovranazionale, che ha consentito alle grandi piattaforme digitali di assumere il ruolo di principali regolatori dello spazio comunicativo online. Tuttavia, nonostante i più recenti interventi normativi l’esistenza di standard regolatori interni continua a a caratterizzare l’operato dei principali attori dell’ecosistema digitale.

Il Digital Services Act e i limiti della regolazione pubblica

A tal proposito, il legislatore europeo è intervenuto nel 2022 con il Digital Services Act (DSA) al fine di mitigare i rischi legati alla concentrazione di potere all’interno di potenti piattaforme digitali. Questo strumento normativo rappresenta un tentativo di proteggere gli utenti online, obbligando i giganti del web ad assumere maggiore responsabilità sui contenuti illegali o nocivi che circolano sulle loro piattaforme. Al centro di questa svolta normativa ci sono le Very Large Online Platforms, cioè quei colossi digitali che superano la soglia dei 45 milioni di utenti attivi mensili nell’Unione Europea (UE).

Nel rendere queste piattaforme destinatarie di obblighi e responsabilità più stringenti, il legislatore ha posto l’accento sul rapporto tra dimensione dell’impresa e impatto sociale e sul fatto che i giganti del web sono a tutti gli effetti un elemento chiave della democrazia e attori in grado di incidere sull’ecosistema digitale contemporaneo.

Nonostante la sua ambizione di rendere Internet più sicuro, trasparente e responsabile — proteggendo gli utenti e rendendo illegale online tutto ciò che lo sia anche offline — l’assenza di un vero e proprio “Effetto Bruxelles” rivela la difficoltà che il DSA ha incontrato nell’imporsi come un reale game changer nell’ambiente digitale. Tale strumento normativo va infatti collocato in un quadro geopolitico più articolato, nel quale l’approccio europeo si confronta con quello statunitense.
Se, da un lato, i 27 Stati membri ambiscono a promuovere uno spazio digitale più sicuro e rispettoso dei diritti fondamentali attraverso la regolamentazione dei servizi online, incluse le piattaforme social, dall’altro gli Stati Uniti criticano l’approccio del legislatore europeo, talvolta qualificandolo come espressione di una forma di censura eccessiva. La tradizione americana, radicata nella Section 230, mira infatti a proteggere la libertà di espressione online, introducendo una sorta di immunità quasi assoluta per le piattaforme, che non sono civilmente responsabili per i contenuti pubblicati dagli utenti.

Oggi, a circa due anni dall’entrata in vigore del DSA, il confronto tra UE e Stati Uniti in materia di regolazione delle piattaforme digitali resta ancora aperto. È proprio a causa di questo quadro normativo non omogeneo e dell’assenza di standard globali che le grandi piattaforme tecnologiche continuano a mantenere un elevato margine di discrezionalità. I colossi digitali continuano, infatti, a essere protagonisti nella elaborazione degli standard a cui sono soggetti i propri ecosistemi digitali, gestendo molto spesso in modo autonomo le regole relative alla moderazione dei contenuti, alla gestione dei rischi e all’introduzione di tecnologie più avanzate.

Di conseguenza, l’intervento del legislatore europeo non è stato finora in grado di sostituire i meccanismi di regolazione privata delle Big Tech, ma si affianca ad essi in una logica di governance ibrida. Tuttavia, a differenza delle leggi pubbliche, tali regole sono il frutto di processi privati, spesso opachi e privi di legittimazione democratica, essendo introdotte in maniera unilaterale, senza un effettivo coinvolgimento degli utenti stessi o della società civile più in generale.

Innovazione tecnologica e tutela dei diritti fondamentali

La questione diventa ancora più complessa dal momento che la tendenza dei protagonisti del web all’autoregolamentazione è perlopiù dettata da un desiderio di predominio nell’ecosistema digitale che lascia poco spazio all’etica. I giganti del tech tendono infatti a mettere in primo piano la corsa all’innovazione tecnologica, senza adeguata considerazione per l’importanza del rispetto dei diritti fondamentali degli utenti. In una realtà caratterizzata da una fortissima competitività globale, le piattaforme digitali sono motivate a introdurre nuove funzionalità e servizi alternativi, al fine di mantenere elevato il livello di partecipazione degli utenti e rafforzare la loro posizione di mercato.
In un simile contesto, l’introduzione di misure volte alla tutela dei diritti umani e della sicurezza degli utenti finisce per essere percepita come un freno all’innovazione. Allo stesso modo, le regole pubbliche, soprattutto quando introducono disposizioni relative alla trasparenza, responsabilità e gestione dei rischi, vengono percepite come un ostacolo al progresso tecnologico.

Questo scenario provoca una tensione costante tra esigenza di innovazione e protezione dei diritti fondamentali, rendendo difficile trovare un modello di governance equilibrato.

In un contesto simile, l’Unione Europea è stata chiara nel delineare la propria posizione affermando che il suo approccio regolatorio non è negoziabile. Secondo i 27 Stati membri, è indispensabile promuovere un’innovazione tecnologica responsabile che sia fondata sul rispetto dei valori fondamentali dell’ordinamento europeo, quali la dignità umana, la libertà, la democrazia, l’uguaglianza, lo Stato di diritto e il rispetto dei diritti umani.

Il ruolo del lobbying e la difficoltà del legislatore

Accanto alla dimensione dell’autoregolamentazione, si colloca un ulteriore elemento che contribuisce a rendere particolarmente complessa la distinzione tra regolatore e regolato: l’intensa attività di lobbying esercitata dalle grandi piattaforme tecnologiche nei confronti dei decisori pubblici. Attraverso attività di advocacy e relazioni istituzionali strutturate, le principali imprese tecnologiche partecipano attivamente ai processi normativi, cercando di orientare l’adozione di normative che preservino la loro flessibilità operativa e limitino l’introduzione di vincoli ritenuti eccessivamente onerosi.
Tale coinvolgimento rafforza il ruolo delle piattaforme non solo come soggetti regolati, ma anche come attori in grado di incidere sulla definizione delle stesse regole che ne disciplinano l’attività. Dati recenti tratti dal Registro per la trasparenza dell’Unione europea evidenziano un aumento significativo delle risorse destinate dal settore digitale alle attività di rappresentanza di interessi. Secondo analisi indipendenti, la spesa complessiva avrebbe superato nel 2025 i 150 milioni di euro annui, risultando fortemente concentrata nelle mani di un numero ristretto di grandi operatori globali.

In questo contesto già complesso si inserisce un’ulteriore criticità: la difficoltà, per il legislatore tanto nazionale quanto sovranazionale, di tenere il passo con la rapidità con cui evolve l’ecosistema tecnologico. Il risultato è un persistente disallineamento temporale tra innovazione e regolamentazione, nel quale le piattaforme tendono ad anticipare l’intervento pubblico attraverso forme di autoregolamentazione che rischiano di incidere sulle libertà fondamentali degli utenti.

Ritornando al caso Grok, solo a seguito della diffusione non consensuale di deepfake a sfondo sessuale e di contenuti potenzialmente lesivi della dignità personale, il dibattito europeo ha registrato una rinnovata attenzione sui rischi connessi all’impiego di tecnologie generative avanzate. In risposta alle lacune normative emerse, nell’ambito dei lavori parlamentari sull’AI Omnibus è stata proposta l’introduzione di un esplicito divieto relativo ai sistemi di intelligenza artificiale in grado di generare contenuti sessualizzati non consensuali.
Tale proposta si inserisce nel quadro più ampio dell’AI Act, che già individua una serie di pratiche di intelligenza artificiale vietate in quanto incompatibili con i valori fondamentali dell’ordinamento europeo. L’esempio dimostra come il progresso tecnologico, soprattutto quando accompagnato dal potere normativo di fatto delle piattaforme, ponga il legislatore di fronte a sfide continue, costringendolo spesso a intervenire in via reattiva rispetto a fenomeni già manifestatisi nello spazio digitale.

Il problema della responsabilità

Questo quadro si intreccia con un ulteriore dilemma di notevole rilevanza giuridica: la difficoltà di individuare con precisione il soggetto responsabile nei casi in cui l’applicazione di sistemi generativi di intelligenza artificiale sia associata alla violazione di diritti fondamentali. Il caso Grok costituisce un esempio paradigmatico dell’inadeguatezza dei modelli tradizionali di imputazione della responsabilità.
La produzione e la diffusione dei contenuti lesivi risultano infatti riconducibili a una pluralità di soggetti — umani e tecnologici — coinvolti nella progettazione, nello sviluppo, nell’implementazione e nell’utilizzo dei sistemi di intelligenza artificiale. Nei casi in cui il contenuto venga generato da sistemi di intelligenza artificiale integrati in piattaforme social, i soggetti potenzialmente responsabili sono molteplici: il provider tecnologico che sviluppa e distribuisce il sistema; la piattaforma che ne consente l’integrazione e la diffusione; l’utente che utilizza lo strumento; nonché i soggetti coinvolti nella progettazione degli algoritmi e nell’addestramento dei modelli.

In presenza di tale frammentazione della catena decisionale, risulta complesso stabilire a chi debba essere imputata la responsabilità per eventuali violazioni dei diritti fondamentali. L’autonomia operativa dei sistemi di intelligenza artificiale e la loro capacità di generare contenuti in modo apparentemente indipendente contribuiscono a rendere sempre più sfumata la relazione causale tra azione e danno.

In virtù di tali criticità, il quadro giuridico contemporaneo appare chiamato ad evolversi verso modelli di responsabilità più articolati, capaci di tener conto della pluralità di soggetti coinvolti nella catena di progettazione, integrazione e utilizzo dei sistemi di intelligenza artificiale.

Conclusioni

L’analisi condotta ha evidenziato come il caso Grok rappresenti un esempio emblematico delle trasformazioni in atto nell’ecosistema digitale contemporaneo, nel quale le grandi piattaforme tecnologiche esercitano un potere normativo di fatto capace di incidere direttamente sulla circolazione dei contenuti e sull’esercizio dei diritti fondamentali. Nonostante i recenti interventi regolatori, in particolare a livello europeo, i meccanismi di autoregolamentazione continuano a svolgere un ruolo centrale nella governance dello spazio digitale.
Le tensioni tra innovazione tecnologica, interessi economici e tutela dei diritti fondamentali rendono necessario un rafforzamento dei meccanismi di trasparenza, accountability e supervisione pubblica. Allo stesso tempo, la crescente diffusione dei sistemi di intelligenza artificiale generativa impone una riflessione approfondita sui modelli di responsabilità applicabili in contesti caratterizzati da una pluralità di attori e da processi decisionali automatizzati.
La costruzione di un equilibrio sostenibile tra sviluppo tecnologico e tutela dei diritti fondamentali rappresenta, pertanto, una delle principali sfide per il diritto nell’era digitale.

PAROLE CHIAVE: Big Tech / diritti fondamentali / DSA / Grok / intelligenza artificiale / lobbying / potere normativo / VLOPs

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.