Abstract
L’era digitale moderna è caratterizzata da una disponibilità informativa senza precedenti e di fronte ad una miriade di contenuti la verità sembra essere più sfuggente che mai. Il fenomeno delle fake news, che si diffondono rapidamente grazie ad algoritmi di raccomandazione che privilegiano contenuti emotivamente coinvolgenti, rischia di destabilizzare le democrazie di tutto il mondo. Nonostante l’esistenza di strumenti per la verifica delle informazioni, la vera difesa contro la disinformazione resta il senso critico.
In questa epoca viviamo in un paradosso informativo senza precedenti nella storia umana. Mai come oggi abbiamo avuto accesso a così tanti dati, con oltre 5 miliardi di persone connesse a Internet, eppure la verità appare sempre più sfuggente e frammentata. Le fake news, ovvero notizie false, si propagano in modo virale, influenzando l’opinione pubblica e le decisioni politiche. La capacità di distinguere tra informazioni vere e false è cruciale per il funzionamento di una società democratica e informata. Secondo una ricerca del MIT pubblicata su Science, le notizie false si diffondono sei volte più velocemente delle informazioni verificate, raggiungendo il 35% degli utenti in meno di 10 minuti dalla pubblicazione. Questo fenomeno non è casuale, ma dipende dal fatto che gli algoritmi premiano i contenuti emotivamente forti, indipendentemente dalla loro veridicità.
Con l’avvento dei social media e delle tecnologie di comunicazione istantanea, chiunque può diventare “giornalista” e diffondere notizie, senza necessariamente possedere le competenze o la responsabilità necessarie. Questo fenomeno ha portato a una crisi di fiducia anche nei confronti dei media tradizionali, rendendo fondamentale il tema della verifica delle fonti.
Un caso emblematico si verificò nel marzo 2022, quando un deepfake del presidente ucraino Volodymyr Zelensky generato con strumenti avanzati di IA circolò sui principali social network, il video mostrava con un buon grado di realismo Zelensky mentre ordinava la resa dell’esercito ucraino all’esercito russo, nonostante la smentita ufficiale, in pochissimo tempo ha raggiunto alcuni milioni di visualizzazioni prima della rimozione destabilizzando i mercati finanziari e il morale della popolazione. In questo caso la manipolazione della realtà è diventata un’arma geopolitica.
Sempre nel 2022, il candidato conservatore alla presidenza della Corea del Sud Yoon Suk-yeol (allora 60 anni) ha lanciato “AI Yoon”, un avatar deepfake creato per rivolgersi agli elettori giovani. Sviluppato da un team di esperti di IA, l’avatar riproduceva fedelmente i tratti fisici e la voce del candidato, ma con un linguaggio audace e satirico, lontano dalla sua immagine reale. È stato un successo virale, Yoon è passato da 10 punti di svantaggio al sorpasso sul rivale Lee Jae-myung tra gli under 30. Un utilizzo “istituzionale” di questa tipologia di strumenti apre sicuramente interrogativi etici importanti.
Psicologia umana e macchine algoritmiche
I social media operano secondo una logica dell’attenzione radicata nella nostra psicologia. Contenuti che generano rabbia, paura o indignazione morale hanno un tasso di condivisione superiore rispetto a quelli neutri, come dimostra uno studio della University of Pennsylvania pubblicato sul Journal of Marketing Research. Questo spiega perché un video falsificato su immigrati che incendiano un ospedale può ottenere mezzo milione di condivisioni in poche ore, mentre un accurato report dell’OMS sui benefici vaccinali fatica a raggiungere 10.000 visualizzazioni.
Stimoli minacciosi da un punto di vista psicologico generano una risposta rapida, creando un circolo vizioso che le piattaforme sfruttano consapevolmente.
Gli algoritmi di raccomandazione trasformano questo comportamento in una trappola. Durante le elezioni brasiliane del 2022, la maggior pare dei contenuti politici su WhatsApp raggiungeva esclusivamente gruppi omogenei ideologicamente, secondo l’analisi del Reuters Institute. Questo isolamento informativo crea camere d’eco (eco chambers) dove le convinzioni si polarizzano progressivamente.
Con l’avvento dell’IA, c’è stato un vero e proprio salto di qualità nella produzione dei contenuti, al costo di pochi dollari per un server in cloud, si possono produrre migliaia di articoli generando narrazioni alternative.
Conseguenze sulla democrazia
Le conseguenze di questa situazione sono misurabili e profondamente allarmanti. Negli Stati Uniti, la distanza ideologica tra elettori democratici e repubblicani è aumentata del 78% dal 2010, con il 64% che considera i sostenitori del partito avverso “una minaccia esistenziale alla nazione”, come rileva il Pew Research Center. Questo clima di reciproca demonizzazione rende impossibile qualsiasi dialogo costruttivo su temi cruciali come il cambiamento climatico o le politiche sanitarie.
Un altro esempio inquietante viene dalla Slovacchia, dove nel 2023 un deepfake audio del leader dell’opposizione Michal Šimečka ingannò il 93% degli ascoltatori, inclusi giornalisti esperti. La registrazione falsa mostrava il leader Šimečka complottare per manipolare le elezioni e causò uno spostamento nelle intenzioni di voto.
Durante la pandemia da COVID-19, l’Organizzazione Mondiale della Sanità ha registrato una vera epidemia di notizie false con milioni di post su cure fasulle e teorie complottiste.
Strumenti per l’investigazione digitale
Nell’era digitale, dove le informazioni circolano a una velocità senza precedenti, la capacità di verificare le fonti diventa cruciale. Esistono diversi strumenti e tecniche che ci possono aiutare a distinguere la verità dalla disinformazione:
- Fermarsi prima di condividere;
- Investigare la fonte attraverso verifiche su siti di fact checking come Pagella Politica, Bufale.net, Media Bias Fact Check;
- Verificare la notizia su fonti attendibili come ANSA e siti di quotidiani nazionali;
- Risalire all’origine usando strumenti come Google Reverse Image Search.
Per i contenuti generati da IA, i segnali d’allarme includono incoerenze come mani con dita extra o anomalie delle pupille, desincronizzazioni labiali nei video. Strumenti open-source come InVID WeVerify analizzano i metadati video, mentre altri strumenti di IA sono in grado di identificare contenuti generati da IA nella maggioranza dei casi ed altri possono aiutare a verificare la veridicità delle informazioni analizzando il tono e pattern ricorrenti.
Tuttavia nessuno strumento è infallibile, la vera difesa rimane lo spirito critico.
Regole, educazione e tecnologia
La risposta europea si sta concretizzando attraverso due pilastri legislativi: il Digital Services Act impone trasparenza algoritmica e rimozione di contenuti illegali entro 24 ore, mentre l’AI Act imporrà di rendere riconoscibili i contenuti sintetici tramite tecniche come il watermarking.
Sul fronte educativo, programmi innovativi come il gioco “Bad News” dell’Università di Cambridge riducono la vulnerabilità alle fake news insegnando le tattiche della disinformazione attraverso la simulazione interattiva.
I ricercatori del MIT stanno sperimentando soluzioni rivoluzionarie come il watermarking quantistico con Q-Signature, che inserisce firme digitali a livello fotonico direttamente nella luce laser dei video, e sistemi blockchain per certificare la provenienza dei contenuti. Questi sviluppi potrebbero creare un “notariato digitale” per l’era dell’IA, anche se la sfida resta prevalentemente culturale oltre che tecnologica.
Conclusione
La battaglia per la verità non è soltanto tecnologica ma profondamente civica. Come dimostrano i casi ucraino e slovacco, è necessario un “sistema immunitario” composto da almeno tre elementi: cittadini educati al pensiero critico, piattaforme responsabili sotto vigilanza e strumenti avanzati per il controllo delle fonti accessibili a tutti. Secondo il World Economic Forum, la disinformazione sistemica è la quarta minaccia globale dopo cambiamenti climatici e conflitti armati.
Verificare una fonte oggi non è solo curiosità intellettuale ma una necessità, solo attraverso una maggiore attenzione e un approccio critico possiamo sperare di preservare la verità in un contesto così complesso e interconnesso.
Sitografia
Study: On Twitter, false news travels faster than true stories
Spotting the deepfakes in this year of elections: how AI detection tools work and where they fail
Il politico sudcoreano che conquista consensi grazie al suo avatar
What Makes Online Content Viral? Journal of Marketing Research
La falsa notizia dell’assalto dei migranti all’ospedale di Birmingham
I social amplificano (ancora) le bugie online: le conferme
Political Polarization in the American Public
PAROLE CHIAVE: disinformazione / fake news / informazioni / verità
Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.