• Geografa, Professoressa Associata presso Università degli Studi dell'Insubria (sede di Como), ha lavorato presso numerosi atenei italiani e internazionali. I suoi campi di ricerca sono il turismo critico; le relazioni tra place, cyberspace e cyberplace; le geografie della comunicazione e la relazione tra giustizia spaziale e atto performativo.

Abstract

L’intelligenza artificiale e le tecnologie digitali modellano le nostre città, i nostri corpi e le nostre relazioni. Ma dietro la promessa di oggettività e progresso, queste tecnologie spesso replicano e amplificano pregiudizi radicati. Le discriminazioni di genere prendono forma anche nei codici: dagli algoritmi, che penalizzano le soggettività non conformi, ai sistemi di sorveglianza, che colpiscono in modo sproporzionato donne, persone LGBTQIA+ e soggettività razzializzate. A questo si affiancano forme di violenza digitale dirette: molestie e minacce online, pornografia non consensuale, condivisione non autorizzata di informazioni personali, fino al controllo algoritmico della mobilità e della visibilità nello spazio urbano e nei social media. In questo scenario, i femminismi – in dialogo con studi Black, queer e trans – propongono un altro modo di pensare e praticare il digitale. Le cosiddette glitch politics utilizzano gli errori, le deviazioni e le crepe del sistema per rifiutare le logiche normative e creare spazi relazionali alternativi. Tecnologie comunitarie, anonimato consapevole, rifiuto della datificazione forzata e pratiche di cura collettiva diventano strumenti per contrastare l’oppressione algoritmica e immaginare nuove possibilità di convivenza. Ripensare l’intelligenza artificiale in chiave femminista significa interrogare il potere che plasma ciò che è visibile, tracciabile e degno di esistere nello spazio digitale e urbano – e, allo stesso tempo, costruire mondi dove il diritto alla complessità, all’opacità e alla sicurezza sia garantito a chiunque.

IA: oggettiva come un oroscopo di parte

Cartolina dal Paese dei Bias: Gentile utente, il suo volto è stato riconosciuto con il 99,2% di accuratezza. Peccato non fosse il suo.

Negli ultimi anni, l’intelligenza artificiale è stata celebrata come la nuova divinità della neutralità. Basta darle dati e lei ci dirà la verità, ci ripetono come un mantra. È la favola del calcolatore imparziale, immune alle passioni e ai pregiudizi che infettano il giudizio umano. Peccato che, come certi oroscopi di riviste patinate, l’oggettività dell’IA spesso assomigli a un esercizio di conferma dei propri bias di partenza. Il caso più emblematico è lo studio Gender Shades, condotto nel 2018 da Joy Buolamwini e Timnit Gebru al MIT Media Lab. Analizzando tre sistemi commerciali di riconoscimento facciale, hanno scoperto un divario degno di una satira politica: per gli uomini dalla pelle chiara, l’errore massimo era dello 0,8%, mentre per le donne dalla pelle scura si arrivava fino al 46,8%.

Tradotto: se sei un uomo bianco, la macchina ti vede e ti riconosce; se sei una donna nera, potresti attraversare un aeroporto rimanendo invisibile al sistema. Un paradosso che decide chi avanza e chi viene fermato, trasformando il privilegio in passaporto e l’invisibilità in barriera.

Questi non sono semplici errori statistici: sono mappe di potere incarnate in codice, che stabiliscono gerarchie di visibilità nei flussi globali di persone e informazioni. Gli aeroporti, le stazioni, le piazze urbane diventano nodi di una geografia digitale in cui l’accesso e la mobilità dipendono dalla compatibilità del proprio volto con il volto standard addestrato nei dataset. E se queste distorsioni sembrano confermare vecchi pregiudizi accademici, la realtà quotidiana è ancora più eloquente. La mia collega Teresa G., geografa come me, ha recentemente avuto una lunga discussione con un sistema di IA che le si ostinava a dare del maschile. Il motivo? Le sue domande erano tecniche e scientifiche e, nel cervello binario della macchina, era scontato che stesse interagendo con un uomo. Teresa ha documentato tutto con screenshot che sembravano un’installazione di arte concettuale, ironica e inquietante insieme: dietro la forma c’era il problema strutturale, la traduzione algoritmica di un vecchio dogma — la scienza è maschile — ora incorporato e replicato in scala planetaria.

 

Bias: istruzioni per l’uso (involontario)

Cartolina dal Paese dei Bias: Amazon assume uomini perché assumeva uomini. È la logica dell’“abbiamo sempre fatto così”, ma in versione 4.0.

Il pregiudizio digitale è come la polvere negli angoli: invisibile finché non ti soffoca. Gli algoritmi apprendono da montagne di dati che raccontano un mondo già diseguale. Se nei dataset la parola dirigente è abbinata quasi esclusivamente a immagini di uomini in giacca e cravatta, l’IA imparerà che quella carica sa di maschio. Non serve che il programmatore lo scriva: la correlazione diventa un assioma, una regola non detta che ridisegna le opportunità e i confini di accesso.

Poi c’è l’ingrediente umano: chi sviluppa il codice porta inevitabilmente con sé il proprio bagaglio culturale e le proprie prospettive, che finiscono per essere codificate nelle infrastrutture digitali. È il caso dell’algoritmo sperimentale di Amazon per la selezione del personale, che imparò a scartare i curricula femminili perché, leggendo la storia delle assunzioni, aveva dedotto che i candidati uomini erano più desiderabili. Una deduzione logica ma perfettamente allineata a un modello storico di esclusione.

A peggiorare le cose, ci sono le metriche di successo: clic, tempo di permanenza, conversioni. Safiya Noble, in Algorithms of Oppression, ha mostrato che per anni una ricerca su Google di Black girls restituiva contenuti pornografici. Non era un complotto, ma l’esito di un’architettura informativa che privilegia ciò che genera traffico — e il traffico, spesso, si concentra su contenuti sessisti e razzisti. In questa prospettiva, l’IA non è imparziale: è fedele al suo padrone, il mercato, e se il mercato discrimina, l’IA affina il meccanismo.

Questa dinamica produce vere e proprie geografie economiche del pregiudizio: spazi in cui certi profili professionali o culturali vengono resi visibili, e altri relegati ai margini delle pagine di ricerca o esclusi del tutto. Non è solo una questione di risultati errati, ma di redistribuzione dell’attenzione e, quindi, delle opportunità, che finiscono concentrate nei centri del potere economico-digitale e sottratte alle periferie — fisiche e simboliche — del mondo.

 

Mappe invisibili e occhi troppo attenti

Cartolina dal Paese dei Bias: Gentile passeggera, la sua sicurezza non è prevista nel nostro algoritmo di navigazione. Buona fortuna.

Gli algoritmi non sono entità astratte sospese nel cloud: hanno conseguenze materiali, ancorate a precise geografie di potere. Simone Browne, in Dark Matters, ricostruisce una genealogia della sorveglianza che va dai registri degli schiavi fino ai moderni software di polizia predittiva.

Questa continuità storica mostra che la tecnologia non inventa nessun controllo, semplicemente, lo eredita, e quindi lo codifica e lo amplifica.
I corpi non sono sorvegliati tutti allo stesso modo: alcuni sono visti troppo, altri per nulla. In entrambi i casi, la visibilità è un’arma.

Pensiamo alle app di navigazione: spesso sono progettate per un utente-tipo che non teme di camminare da solo di notte in aree poco illuminate. Questa figura astratta — maschile, giovane, normodotata, appartenente alla maggioranza etnica — è in realtà un costrutto spaziale: un corpo che può attraversare certi quartieri, senza che la sua presenza venga percepita come fuori posto. Gli algoritmi che suggeriscono percorsi più rapidi ignorano i rischi percepiti da altre categorie, invisibilizzando le geografie della paura e della sicurezza differenziata.

Lo stesso vale per i sistemi di telecamere intelligenti che, in alcune città, segnalano come comportamento sospetto lo stazionare in gruppo in spazi pubblici. L’idea di pubblico qui è fortemente condizionata: utile, forse, se non fosse che a finire schedati siano spesso giovani neri o migranti, inscritti in un paesaggio di sospetto che ricorda la cartografia razziale delle città coloniali. La mappa che ne risulta non è disegnata su carta, ma è incorporata nel software, negli algoritmi di riconoscimento facciale, nelle banche dati delle forze dell’ordine. Il paradosso si ripete online: piattaforme che oscurano un post di attivismo queer per contenuto inappropriato e, nello stesso tempo, lasciano indisturbata una pubblicità ipersessualizzante. Questa asimmetria non è casuale: risponde a logiche di monetizzazione e a filtri culturali incorporati nel codice, i quali stabiliscono gerarchie di visibilità. È una geografia digitale che decide chi può essere visibile e chi no, tracciando mappe invisibili di accesso e di esclusione. Come nelle carte antiche, ci sono aree riccamente illustrate, e altre lasciate vuote con un perentorio hic sunt leones.

Nel mondo algoritmico, quelle zone vuote non sono spazi di libertà, ma territori negati, invisibili per scelta e, dunque, più facili da controllare.

 

Dal click allo slap: la violenza made in algoritmo

Cartolina dal Paese dei Bias: Segnalare un contenuto offensivo: 6 clic. Segnalare un capezzolo artistico: rimozione immediata.

Quando il pregiudizio si fa azione, l’effetto non è solo discriminatorio, ma diventa violento. Le molestie online, la pornografia non consensuale, il doxxing (diffusione di informazioni personali) sono fenomeni in crescita che colpiscono in modo sproporzionato donne, persone LGBTQIA+ e soggettività razzializzate. Questa violenza non è virtuale solo perché avviene su uno schermo: è una violenza materiale, capace di attraversare confini geografici e incidere sulla mobilità, sulla possibilità di lavorare, di abitare certi luoghi o di partecipare a spazi pubblici senza paura. E qui, la risposta delle piattaforme è spesso tragicomica (molto più tragica che comica): segnalare e rimuovere contenuti offensivi può richiedere più passaggi che ottenere un mutuo. Gli algoritmi di moderazione, lungi dall’essere neutri, sono progettati secondo gerarchie culturali e commerciali che hanno radici precise: server farm in Stati con leggi permissive sul trattamento dei dati, team di moderazione in outsourcing localizzati in Paesi a basso costo del lavoro, database di addestramento costruiti su campioni visivi e linguistici prevalentemente occidentali.

Queste infrastrutture non si limitano a riflettere i pregiudizi: li incorporano nel codice e li distribuiscono globalmente, come un’architettura invisibile che decide cosa può stare nello spazio digitale e cosa no.

Facebook, per anni, ha censurato immagini di allattamento e opere d’arte classica contenenti nudi femminili, lasciando però correre foto ipersessualizzate in contesto commerciale. La logica non è incoerenza, ma coerenza con un modello di monetizzazione che privilegia ciò che può essere sfruttato economicamente e reprime ciò che sfugge alla categorizzazione di mercato. In questa geografia del potere algoritmico, la libertà di espressione diventa così un privilegio per chi rientra nei canoni estetici e sociali accettati dal software: corpi conformi e linguaggi comprensibili alla macchina. Gli altri corpi — queer, neri, grassi, disabili, trans — vengono resi invisibili o ipervisibili a seconda delle esigenze del modello di business: invisibili quando reclamano spazio politico, ipervisibili quando possono essere mercificati.

Se tracciassimo una carta del rischio algoritmico, vedremmo arcipelaghi di visibilità tossica circondati da mari di invisibilità forzata, con corridoi stretti e sorvegliati che collegano i contenuti accettabili ai centri di potere digitale.

Gli epicentri della violenza online non sarebbero solo le zone calde dei commenti d’odio, ma i data center, le policy room e i consigli di amministrazione dove si decide quali vite meritano protezione immediata e quali possono attendere sei clic e una risposta automatica. In questo senso, la violenza non è un errore di percorso: è la mappa stessa, e cambiarla richiede di ridisegnare confini, legende e direzioni di marcia.

 

Glitch e ribellioni: quando l’errore è una strategia

Cartolina dal Paese dei Bias: Errore 404: la normalità non è stata trovata.

Eppure, non tutto è distopia. I femminismi, intrecciando studi Black, queer e trans, hanno elaborato un arsenale di risposte che non si limitano a chiedere più diversità nei dataset. Legacy Russell, in Glitch Feminism, descrive il glitch come un’arma: un errore che interrompe il flusso previsto e apre nuove possibilità. Qui nascono le reti comunitarie, i server autogestiti, le pratiche di anonimato consapevole e il rifiuto della datificazione forzata. Questa la chiave: il glitch non è solo un gesto tecnico ma un atto geografico-politico.

Interrompere il flusso significa anche deviare e sabotare le rotte obbligate delle infrastrutture digitali che concentrano potere nei nodi del Nord globale e nei distretti tecnologici ad alta capitalizzazione.

Questi nodi non sono semplici punti su una carta: sono porti franchi del capitalismo digitale, spazi iperconnessi dove la sovranità statale è spesso subordinata agli interessi delle big tech, e dove la logistica dei dati si intreccia con quella delle merci e dei capitali. In questo contesto, il server autogestito di una comunità queer in un piccolo centro periferico non è semplicemente un hardware alternativo: è una dichiarazione di sovranità territoriale digitale, una forma di pianificazione dal basso che ridefinisce confini, accessi e alleanze. È una zona libera che resiste alla logica delle autostrade informatiche e rivendica il diritto di costruire vicoli, sentieri e piazze digitali che sfuggono alla sorveglianza centralizzata. La scelta di non aderire alle logiche estrattive delle piattaforme mainstream crea una micro-geografia dell’Internet in cui le mappe di proprietà e controllo vengono distorte. Come nei portolani medievali, dove il mare era punteggiato di isole immaginarie e coste sconosciute, queste pratiche tracciano spazi volutamente incerti, inaccessibili alla navigazione algoritmica standard. In questo senso, il glitch diventa un corridoio di fuga, una faglia da cui immaginare infrastrutture di cura e redistribuzione, piuttosto che di accumulazione e sorveglianza. È una strategia che riconosce il potere materiale delle reti — i cavi sottomarini, le torri cellulari, i data center — e decide di riarticolarlo per obiettivi collettivi e solidali. Non è una nostalgia per un’epoca digitale più ingenua, ma la costruzione di un futuro in cui la materialità delle reti venga progettata per garantire relazioni di equità, e non gerarchie.

Così, il glitch smette di essere un malfunzionamento temporaneo e diventa un elemento permanente di progettazione politica: un punto di attrito che costringe a rallentare, a guardare le mappe del potere digitale con occhi diversi, e a disegnare nuove rotte in cui la vulnerabilità non sia una debolezza da eliminare, ma una risorsa per fare comunità.

 

Opacità come superpotere (e autodifesa)

Cartolina dal Paese dei Bias: Qui non c’è nulla da vedere, e proprio per questo c’è tutto da vivere.

Ripensare l’IA in chiave femminista significa, soprattutto, rifiutare l’ossessione per la trasparenza totale. Il filosofo Édouard Glissant parlava del diritto all’opacità: non tutto deve essere visibile e leggibile agli occhi del potere. In un mondo in cui gli algoritmi tracciano, valutano e predicono, rivendicare il diritto a essere complessi, contraddittori e persino illeggibili è un atto politico. Da un punto di vista geografico, l’opacità è anche una strategia spaziale. Significa sottrarre porzioni di territorio — fisico e digitale — alla cartografia permanente delle piattaforme, evitando che ogni movimento diventi un dato monetizzabile. Così come nelle mappe coloniali le aree bianche erano spazi da conquistare, nelle mappe digitali contemporanee ciò che non è tracciato appare come un’anomalia, un vuoto da colmare con sensori, app e flussi di dati. Difendere l’opacità equivale allora a creare zone franche, spazi extragiurisdizionali in cui il controllo algoritmico si interrompe o si confonde. Questi spazi non sono necessariamente isolati: possono essere reti di punti non mappati, coordinate volutamente distorte, interfacce che generano rumore anziché dati puliti.

La geografia del potere digitale non è inevitabile: può essere ridisegnata. Ma per farlo serve smettere di credere che la tecnologia sia neutra.

Come ci insegna l’esperienza di Teresa e di tante altre persone, il pregiudizio di genere non è un bug da correggere, è parte del sistema. E, se le mappe non ci piacciono, possiamo sempre disegnarne di nuove — cartografie contro-egemoniche in cui il diritto alla mobilità, alla presenza e alla privacy non siano concessioni dall’alto, ma condizioni di partenza. Opacità e glitch, così, diventano coordinate complementari di una topografia di resistenza: la prima rende invisibile ciò che il potere vuole vedere, il secondo rende visibile ciò che il potere vorrebbe ignorare.

PAROLE CHIAVE: algoritmo / bias / contenuti / femminismo / glitch / glitch politics / IA / intelligenza artificiale / pregiudizio

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.