• Responsabile Sezione Sustainability

    Lavora presso AVEPA (Agenzia Veneta per i Pagamenti) dove per 13 anni ha svolto il ruolo di auditor interno, occupandosi successivamente di gestione documentale, digitalizzazione, gestione dei dati personali, tematiche sulle quali ha svolto attività di formazione per il personale interno e per gli studenti degli istituti scolastici sul territorio veneto. Promuove in prima persona progetti di cultura e alfabetizzazione digitale presso gli istituti di istruzione primaria e secondaria, sia in lingua italiana che in lingua spagnola.

     

Abstract

Le Linee Guida e il Codice di condotta per gli Influencer approvati dall’AGCOM con delibera 197/25/CONS di luglio 2025 riconoscono la figura dell’influencer virtuale che, per estensione, può essere non solo un avatar digitale, ma anche un agente artificiale capace di generare contenuti, interagire con il pubblico e incidere sulla sfera dell’influenza. Ma l’influenza algoritmica sta ridefinendo le forme della persuasione nello spazio digitale e mette in discussione l’idea che la trasparenza normativa e la riconoscibilità dell’intelligenza artificiale siano sufficienti a tutelare l’autonomia degli utenti.

Introduzione

Aitana López è una ragazza di 26 anni che vive a Barcellona. Sul suo profilo Instagram condivide scatti curati dei suoi momenti di vita quotidiana, sessioni in palestra, outfit alla moda, frammenti di una routine che sembra familiare a quella di molte altre influencer della sua generazione. I suoi post raccontano una giovane donna attenta al benessere fisico, allo stile e all’estetica, con una community ampia e partecipe che commenta, mette like, chiede consigli. I numeri sono quelli di un profilo di successo: centinaia di migliaia di follower, una pubblicazione costante di contenuti e collaborazioni con brand che la scelgono come volto per campagne di moda e lifestyle.

Emily Pellegrini, a sua volta, è una giovane influencer attiva nel mondo della moda e del lifestyle. Il suo profilo Instagram è costruito attorno a immagini ad alta qualità: pose studiate, ambientazioni riconoscibili, un’estetica coerente che richiama i codici visivi delle modelle e delle creator digitali più affermate. Anche in questo caso, il pubblico è numeroso, l’interazione elevata, la narrazione lineare ed Emily sembra vivere pienamente nello spazio dei social, come molte altre ragazze che hanno trasformato la propria immagine in un lavoro.

Emily Pellegrini e Aitana López non esistono. O meglio, non esistono come persone fisiche, ma sono perfettamente reali nello spazio digitale. Hanno profili social di successo, collaborazioni con brand, un’estetica riconoscibile e una narrazione coerente della propria identità. Producono contenuti, generano engagement, orientano gusti e desideri, interagiscono con una community che le percepisce come presenze autentiche. Sono influencer AI, o più precisamente influencer virtuali supportati da sistemi di intelligenza artificiale, e rappresentano una delle manifestazioni più evidenti di una trasformazione profonda delle dinamiche di influenza contemporanee.

Il punto, tuttavia, non è stabilire se queste figure siano “vere” o “false”. La questione centrale è che l’influenza che esercitano è reale, misurabile e, soprattutto, efficace. Esse mostrano come l’influenza possa ormai prescindere dalla presenza di un soggetto umano riconoscibile, spostandosi su un piano in cui identità, relazione e persuasione diventano il risultato di processi progettati, ottimizzati e scalabili.

 

Quando l’influenza diventa infrastruttura: l’iper-persuasione dell’AI

Per comprendere fino in fondo perché figure come Aitana López ed Emily Pellegrini risultino così efficaci sul piano dell’influenza, è necessario spostare l’attenzione dal singolo profilo al paradigma più ampio della persuasione algoritmica. In questa prospettiva, il concetto di iper-persuasione elaborato da Luciano Floridi (Hypersuasion – On AI’s Persuasive Power and How to Deal With It, Luciano Floridi 2024) costituisce una chiave interpretativa centrale per leggere le trasformazioni in atto. Floridi, contrapponendo la persuasione alla coercizione, rileva come essa operi attraverso il consenso, il linguaggio e la comunicazione e debba essere esercitata, rinnovata, adattata di volta in volta. La persuasione è sempre stata una tecnologia di potere, centrale nella politica, nel diritto, nella pubblicità e nella costruzione del consenso sociale.

Storicamente, le tecnologie persuasive si sono evolute insieme ai mezzi di comunicazione: dalla retorica classica alla stampa, dai mass media ai media digitali. Ogni passaggio ha ampliato la portata dell’influenza, rendendo i messaggi più riproducibili, più diffusi e più efficaci. Tuttavia, con l’avvento delle tecnologie digitali e, in particolare, dell’intelligenza artificiale, questa evoluzione conosce un salto qualitativo che Floridi definisce iper-persuasione.

L’iper-persuasione non è semplicemente una persuasione “più forte”, ma una forma di influenza strutturalmente diversa, che nasce dalla combinazione di due capacità fondamentali dell’AI.

Da un lato, il machine learning consente di elaborare enormi quantità di dati, sempre più dettagliati e granulari, per individuare pattern nei comportamenti, nelle preferenze e nelle vulnerabilità cognitive, emotive o culturali degli individui. Dall’altro, l’IA generativa rende possibile la produzione automatizzata di contenuti (testi, immagini, video) di elevata qualità, verosimili e altamente personalizzati, adattabili in tempo reale ai destinatari.

In questo quadro, la persuasione non consiste più nella trasmissione di un messaggio relativamente stabile a un pubblico indistinto, ma diventa un processo continuo di apprendimento e adattamento. I sistemi di IA possono identificare con precisione ciò che rende un soggetto persuasibile e, allo stesso tempo, fornire contenuti calibrati su misura per soddisfare quella specifica domanda persuasiva. L’influenza opera così in modo sottile e strategico, può agire su percezioni secondarie per incidere su obiettivi primari, minare selettivamente la fiducia in alcune fonti, rafforzare gradualmente determinate narrazioni o perseguire obiettivi “nidificati”, senza mai manifestarsi come imposizione esplicita.

A differenza delle forme tradizionali di persuasione, l’iper-persuasione si fonda sulla ripetizione, sulla continuità e sulla capacità di apprendere dai comportamenti del destinatario.

La sua natura incessante, scalabile, economicamente accessibile e integrata nell’infosfera quotidiana oscura i modelli precedenti, non solo per la profondità della personalizzazione, ma anche per l’ampiezza potenziale della sua diffusione. In questo senso, l’iper-persuasione amplifica strutturalmente l’asimmetria di potere tra chi progetta e governa i sistemi di influenza e chi ne subisce gli effetti.

Floridi sottolinea come questo potere non sia di per sé neutro. Le tecnologie persuasive sono tecnologie di potere e chi le controlla può perseguire qualsiasi obiettivo, economico, politico, sociale, plasmando credenze e comportamenti. L’iper-persuasione può essere utilizzata per finalità socialmente desiderabili, ma espone anche al rischio di abusi sistemici, soprattutto quando agisce sfruttando vulnerabilità cognitive e informative difficilmente percepibili dai soggetti influenzati.

È proprio questa capacità di operare senza inganno manifesto, senza coercizione e spesso senza consapevolezza, che rende l’iper-persuasione particolarmente problematica sul piano giuridico ed etico. L’influenza non si presenta come violazione evidente, ma come orientamento progressivo e adattivo, formalmente lecito eppure potenzialmente incisivo sull’autonomia decisionale degli individui.

 

L’influenza come processo

In questo quadro, la figura dell’influencer deve essere riletta non tanto come individuo o professione, quanto come elemento funzionale e strutturale all’interno di un’infrastruttura tecnologica. Tradizionalmente riconducibili ai testimonial o agli opinion leader, gli influencer rappresentano oggi un’evoluzione adattata all’ecosistema delle piattaforme digitali, caratterizzato dall’assenza di intermediari, dalla continuità delle interazioni e dalla centralità degli algoritmi.

L’autorevolezza dell’influencer non deriva da un riconoscimento istituzionale o professionale, ma dalla capacità di costruire una relazione di fiducia con la propria audience. Si tratta di una relazione partecipata, ma strutturalmente asimmetrica, mediata da sistemi algoritmici che regolano la visibilità dei contenuti sulla base di metriche come engagement, reattività e frequenza di pubblicazione. L’influenza esercitata è quindi il risultato di una coproduzione tra creatore di contenuti, pubblico e piattaforma. In questo senso, l’influencer non è soltanto uno strumento di marketing, in quanto la sua attività incide sulla costruzione degli immaginari, sulla normalizzazione di determinati stili di vita e sull’attribuzione di valore simbolico a comportamenti, prodotti e narrazioni.

Nelle esperienze operative attuali, gli influencer AI perlopiù non sono sistemi di intelligenza artificiale pienamente autonomi, né interagiscono liberamente e in tempo reale con gli utenti. Si tratta di personaggi digitali progettati e controllati da team umani, che ne definiscono identità, valori, tono di voce e traiettorie narrative. I contenuti pubblicati sono il risultato di processi editoriali ibridi, nei quali gli strumenti di intelligenza artificiale possono supportare la generazione o l’elaborazione di testi, immagini e video, senza che il personaggio disponga di una reale capacità decisionale autonoma. L’elemento di intelligenza è incorporato nei processi di produzione, analisi e ottimizzazione dei contenuti, non nella relazione diretta con l’utente.

L’espressione “influencer AI”, pertanto, allo stato attuale è in parte ingannevole (anticipa?) rispetto alla realtà tecnica. Nonostante ciò, la capacità di rendere la persuasione continua, coerente e scalabile, svincolandola dai limiti cognitivi, temporali ed emotivi propri dell’essere umano, rende queste figure problematiche da gestire.

 

Il quadro regolatorio è una tutela?

È in questo contesto che si inserisce il tentativo di regolazione giuridica dell’attività degli influencer. Il quadro normativo appare come un mosaico multilivello, nel quale convergono discipline diverse, tra cui pubblicità, tutela dei consumatori, responsabilità editoriale, protezione dei dati personali e governance delle piattaforme digitali.

L’intervento dell’Autorità per le Garanzie nelle Comunicazioni, con l’adozione di un codice di condotta dedicato agli influencer, rappresenta un primo tentativo di sistematizzazione. La categoria degli “influencer rilevanti” e la loro assimilazione, sotto alcuni profili, ai fornitori di servizi di media audiovisivi rispondono all’esigenza di estendere obblighi di trasparenza e tutela del pubblico a soggetti capaci di incidere in modo significativo sulle scelte degli utenti.

Accanto alla disciplina settoriale, il Regolamento (UE) 2016/679 sulla protezione dei dati personali incide direttamente sulle pratiche di profilazione, analisi dell’engagement e personalizzazione dei contenuti. Il Digital Services Act e il Data Act, a loro volta, intervengono sulla governance delle piattaforme e sull’uso dei dati, riconoscendo implicitamente che l’influenza non è il prodotto di azioni individuali isolate, ma l’esito di un’infrastruttura tecnica e organizzativa complessa.

Gran parte della risposta normativa ai rischi della persuasione algoritmica si fonda sull’idea che rendere riconoscibile l’uso dell’intelligenza artificiale e informare l’utente sia una condizione essenziale per preservarne l’autonomia decisionale. In questa direzione si muove il Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), che introduce una serie di obblighi di trasparenza e riconoscibilità applicabili a specifiche categorie di sistemi di IA.

In particolare, l’AI Act prevede che i sistemi di intelligenza artificiale destinati a interagire direttamente con persone fisiche siano progettati in modo tale da informare l’utente del fatto che sta interagendo con un sistema artificiale, salvo che ciò risulti evidente dal contesto. La logica sottesa è quella di evitare forme di inganno percettivo e di garantire che l’utente sia messo nella condizione di comprendere la natura dell’interlocutore con cui interagisce. Questa disposizione assume una rilevanza diretta nel caso di avatar digitali, chatbot e influencer virtuali che simulano comportamenti, linguaggi e stili comunicativi tipicamente umani.

Il Regolamento introduce inoltre obblighi specifici in relazione ai contenuti generati o manipolati da sistemi di IA. I fornitori di modelli di intelligenza artificiale generativa sono tenuti ad adottare misure tecniche idonee a contrassegnare gli output in modo leggibile meccanicamente, al fine di consentirne il riconoscimento come contenuti artificiali. Parallelamente, i soggetti che utilizzano sistemi di IA per generare o manipolare immagini, audio o video che appaiono veritieri e ritraggono persone, oggetti o eventi esistenti in modo potenzialmente ingannevole sono obbligati a rendere noto in modo chiaro e distinto che tali contenuti sono stati creati o alterati artificialmente. Si tratta delle disposizioni comunemente riferite ai cosiddetti deepfake.

Questi obblighi rispondono a una logica di trasparenza informativa, tuttavia, nel contesto dell’iperpersuasione, tale approccio mostra limiti strutturali. Sapere di interagire con un sistema di intelligenza artificiale o di fruire di contenuti generati artificialmente non equivale necessariamente a potersi difendere dalla loro influenza.

Nei contesti di interazione continua, personalizzata e adattiva tipici delle piattaforme digitali, la consapevolezza formale rischia di tradursi in una mera informazione iniziale, incapace di neutralizzare gli effetti cumulativi della persuasione algoritmica. L’utente può essere informato, ma resta esposto a microorientamenti ripetuti, ottimizzati e progressivamente adattati alle sue vulnerabilità cognitive ed emotive.

In questo senso, la trasparenza prevista dall’AI Act appare come una condizione necessaria, ma non sufficiente. È efficace nel contrastare l’inganno esplicito e le pratiche manipolative più evidenti, ma fatica a intercettare forme di influenza che operano senza violare formalmente i divieti normativi. L’illusione del controllo nasce proprio da qui, dall’idea che l’etichettatura e la riconoscibilità siano in grado, da sole, di preservare l’autonomia decisionale in un ecosistema informativo progettato per massimizzare l’attenzione, l’engagement e la persistenza dell’interazione.

Di fonte a questa vulnerabilità squisitamente umana, chi scrive ritiene che, nel lungo periodo, gli strumenti di tutela più efficaci rimangano l’educazione e l’alfabetizzazione digitale. Comprendere come funzionano i meccanismi di persuasione algoritmica, quale ruolo giocano i dati personali e in che modo le piattaforme orientano l’attenzione è essenziale per rafforzare la capacità critica degli individui e delle collettività. La sfida non è eliminare l’influenza (come mai potremmo?) ma evitare che essa si trasformi in una forma di controllo opaco e soprattutto incontestabile. Se gli influencer sognano pecore elettriche, la domanda aperta resta se noi, come persone, siamo in grado di restare vigili.

PAROLE CHIAVE: Influencer virtuali / intelligenza artificiale / Iper-persuasione

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.