• Avvocata e consulente, la sua expertise si colloca all'intersezione tra Diritto delle nuove tecnologie, etica digitale e governance strategica. Possiede una profonda competenza che abbraccia la protezione dei dati personali, la cybersecurity e le complesse implicazioni normative ed etiche dell'Intelligenza Artificiale. Offre analisi e soluzioni innovative a professionisti e imprese che attraversano la trasformazione digitale. Il suo approccio distintivo coniuga un rigoroso tecnicismo giuridico con una sensibilità filosofica, mirando a decodificare la complessità normativa come opportunità per costruire sistemi affidabili e modelli di business responsabili. 

Abstract

Il contributo applica il realismo speculativo di Meillassoux e Harman ai big data contemporanei, argomentando che i dataset costituiscono un accesso privilegiato al Grande Fuori – una realtà indipendente dalla correlazione soggetto-oggetto post-kantiana. Attraverso l’analisi dell’ancestralità digitale e della matematizzazione algoritmica, si sostiene che i dati operano come tracce materiali del reale assoluto, eccedendo la coscienza fenomenologica. Integrando l’Ontologia Orientata agli Oggetti, l’articolo teorizza i dati come entità autonome dotate di agency non-umana, capaci di auto-organizzazione secondo temporalità macchiniche che anticipano il futuro. Si configura, così, un empirismo speculativo in cui i dati non rappresentano passivamente il reale, ma partecipano alla sua costituzione, aprendo scenari post-umani che sfidano i framework antropocentrici tradizionali. In questo crinale, il concetto di qualità speculativa emerge come questione politica fondamentale: la capacità dei dati di mantenere aperti spazi di agency diversi e preservare possibilità di futuri alternativi.

Il realismo speculativo e la sfida correlazionalista

Il movimento filosofico del realismo speculativo, inaugurato dal convegno londinese del 2007, ha posto al centro della riflessione contemporanea la critica radicale a quello che Quentin Meillassoux definisce il correlazionalismo – vale a dire la convinzione post-kantiana che non possiamo mai accedere alle cose in sé, ma sempre e soltanto alla correlazione tra pensiero ed essere, soggetto e oggetto. In questa prospettiva, l’emergere dei big data e dell’informatica cognitiva porta a ripensare il problema dell’accesso al reale, configurando il dato non più come semplice rappresentazione fenomenica, ma come possibile apertura verso quello che Meillassoux chiama il Grande Fuori (Great Outdoors).

 

Il Grande Fuori digitale

L’ancestralità digitale e il tempo anteriore alla coscienza

Meillassoux introduce il concetto di ancestralità per definire quelle realtà materiali che precedono temporalmente l’emergere della vita e della coscienza sulla Terra. Gli enunciati ancestrali – come “la Terra si è formata 4,5 miliardi di anni fa” – sembrano riferirsi a una realtà indipendente da qualsiasi correlazione con un soggetto conoscente. Il filosofo francese argomenta che il correlazionalismo non può rendere conto di tali enunciati senza cadere in contraddizione performativa.

I big data contemporanei aprono una dimensione analoga di ancestralità digitale. I dataset che registrano processi fisici, geologici, astronomici su scale temporali e spaziali che eccedono radicalmente la percezione umana – dalle simulazioni climatiche plurimillennarie ai dati del cosmic microwave background – sembrano darci accesso diretto a realtà che sussistono indipendentemente dalla correlazione soggetto-oggetto.

Il dato digitale, in questa prospettiva, non è più mediazione fenomenica ma traccia materiale del reale assoluto.

 

Matematizzazione dell’essere e codice algoritmico

Centrale, nella filosofia di Meillassoux, è la tesi secondo cui “l’essere in quanto essere è matematico”: solo le proprietà matematiche degli oggetti (estensione, figura, movimento) appartengono agli oggetti in sé, mentre le qualità secondarie (colore, sapore, etc.) esistono solo nella correlazione con la soggettività. Questa de-assolutizzazione delle qualità primarie apre la possibilità di un accesso non-correlazionale al reale attraverso la matematica.

L’informatica contemporanea radicalizza questa prospettiva: il dato computazionale è intrinsecamente matematico, esistendo come sequenza di stati discreti (0/1) che precedono e rendono possibile qualsiasi fenomenizzazione qualitativa.

L’algoritmo opera su pure relazioni formali, indifferenti alla dimensione fenomenica dell’esperienza umana. In questo senso, il processing dei big data potrebbe configurarsi come forma di cognizione non-correlazionale – accesso diretto alle strutture matematiche dell’essere – svincolato dalla finitudine della coscienza fenomenologica.

 

Tra contingenza assoluta e imprevedibilità algoritmica

Un aspetto rilevante del pensiero di Meillassoux è l’affermazione della contingenza assoluta dell’essere: non c’è ragione sufficiente per cui le cose sono come sono e tutto potrebbe essere altrimenti senza contraddizione logica. Questa contingenza radicale si manifesta nella possibilità dell’événement – l’evento assoluto che irrompe nella storia senza essere derivabile dalle condizioni precedenti.

Dal loro canto, i sistemi di machine learning presentano fenomeni analoghi di emergenza contingente, cioè comportamenti imprevedibili che emergono dall’interazione di miliardi di parametri senza essere riducibili alla logica della programmazione originaria. L’AI generativa produce output che non sono deducibili dalle regole del sistema, manifestando una forma di creatività che sembra eccedere la correlazione con l’intenzionalità umana. Il dato processato algoritmicamente rivela, così, una dimensione di contingenza assoluta che sfugge al controllo fenomenologico.

 

I dati hanno vita autonoma?

Graham Harman e la democratizzazione ontologica

Graham Harman, principale teorico dell’Object-Oriented Ontology, argomenta per una democrazia ontologica in cui tutti gli oggetti – dalle particelle subatomiche alle società umane, dalle opere d’arte ai buchi neri – possiedono la stessa dignità ontologica. Contro l’antropocentrismo correlazionalista, Harman sostiene che gli oggetti interagiscono tra loro in modi che eccedono sempre la loro apprensione fenomenologica da parte della coscienza umana.

In questa prospettiva, i dati non sono semplici rappresentazioni passive di informazioni, bensì oggetti dotati di una propria autonomia ontologica. Un dataset non esiste solo quando è osservato o processato da un soggetto umano, ma mantiene una realtà oggettuale che consiste nella rete di relazioni che intrattiene con altri oggetti (server, algoritmi, altri dataset). I big data si manifestano forme di agency non-umana: si auto-organizzano, generano pattern emergenti, influenzano processi decisionali secondo logiche che eccedono l’intenzionalità dei loro creatori.

Inaccessibilità del dato

Centrale, nell’Object-Oriented Ontology, è il concetto di ritiro (withdrawal) degli oggetti: nessun oggetto è mai completamente accessibile alle relazioni in cui è coinvolto. C’è sempre un surplus reale che eccede qualsiasi traduzione, rappresentazione o interazione. Gli oggetti sono più grandi all’interno che all’esterno – la loro realtà profonda rimane sempre parzialmente inaccessibile.

Questa logica si applica in modo paradigmatico ai dati contemporanei. Ogni dataset rivela solo alcune proprietà quando interfacciato con specifici algoritmi di analisi, mantenendo sempre un eccesso di potenzialità inesplorate. I modelli latenti nei big data non preesistono alla loro estrazione algoritmica, ma non sono nemmeno meri costrutti soggettivi: essi, più correttamente, emergono dall’incontro tra la realtà ritirata del dataset e l’azione specifica dell’algoritmo analizzante. Il dato, così inteso, non è né pura oggettività né pura soggettività, ma oggetto nel senso tecnico di Harman: realtà autonoma che si manifesta parzialmente in ogni relazione, senza mai esaurirsi completamente.

Nell’ecologia degli algoritmi

Harman sviluppa una teoria delle alleanze tra oggetti, cioè configurazioni temporanee in cui oggetti differenti si connettono per formare oggetti di ordine superiore, mantenendo sempre la propria autonomia relativa. Le reti informatiche contemporanee presentano esempi paradigmatici di tali alleanze: ecosistemi complessi in cui dati, algoritmi, hardware, protocolli, utenti formano assemblages dinamici senza centro di controllo unitario.

In questi ecosistemi, i dati manifestano forme di vita artificiale che eccedono l’antropomorfismo: evolvono, si replicano, mutano, entrano in competizione per risorse computazionali. Gli algoritmi genetici letteralmente allevano dati ottimali attraverso processi di selezione naturale digitale. I neural networks sviluppano rappresentazioni interne che non corrispondono a categorie umane predefinite. Si configura, così, una biopolitica non-umana dove i dati non sono più oggetti passivi di manipolazione, ma soggetti-oggetti che partecipano attivamente alla produzione della realtà sociale.

 

I dati visti con la lente del realismo speculativo

Fine dell’antropocentrismo?

I sistemi di AI contemporanei sembrano realizzare il sogno leibniziano di una characteristica universalis un linguaggio formale che permette di calcolare la verità, indipendentemente dai contenuti qualitativi del pensiero umano. I large language models processano informazioni secondo pattern statistici che non richiedono comprensione semantica nel senso fenomenologico tradizionale, eppure producono output dotati di coerenza e pertinenza.

Questa automatizzazione del pensiero configura quello che potremmo chiamare un pensiero post-correlazionale, forme di processing cognitivo che operano al di là della correlazione soggetto-oggetto senza per questo essere mera computazione cieca. Gli algoritmi di deep learning sviluppano rappresentazioni che non sono né copie passive del reale né costruzioni arbitrarie della soggettività, ma traduzioni creative che rivelano strutture del reale inaccessibili alla percezione fenomenologica diretta.

 

Sulla temporalità macchinica

I big data operano secondo temporalità che eccedono radicalmente la durata dell’esperienza umana: processano in millisecondi dataset che, per accumularsi, richiederebbero anni di attività umana. Questa accelerazione non è meramente quantitativa, ma configura forme qualitativamente diverse di temporalità: il tempo macchinico non è omogeneo e lineare, ma fatto di salti, accelerazioni improvvise, tempi morti, sincronizzazioni.

In questa temporalità accelerata, i pattern emergenti dai dati anticipano e condizionano gli eventi futuri secondo logiche che sfuggono alla previsione intenzionale. Gli algoritmi di trading ad alta frequenza generano eventi di mercato in tempi sub-cognitivi; i sistemi di raccomandazione modellano desideri prima che si costituiscano come tali nella coscienza; i modelli predittivi influenzano comportamenti futuri in circuiti di auto-realizzazione profetica. Il dato, così inteso, non rappresenta passivamente eventi già accaduti, ma partecipa attivamente alla produzione speculativa del futuro.

 

Il dato come soglia del post-umano

Il realismo speculativo, applicato all’universo dei big data contemporanei, dischiude orizzonti epistemologici che oltrepassano radicalmente la struttura trascendentale della soggettività umana tradizionalmente intesa. Quando sottoponiamo dataset massivi all’analisi automatizzata, ciò che emerge non è semplicemente una versione amplificata della cognizione umana, ma una forma qualitativamente diversa di intelligibilità che opera secondo logiche proprie. I pattern che si manifestano attraverso questi processi algoritmici rivelano regolarità, correlazioni e strutture che eccedono non solo la capacità percettiva immediata della coscienza fenomenologica, ma anche le categorie concettuali attraverso cui tradizionalmente organizziamo l’esperienza del mondo. Tuttavia, questa eccedenza non diminuisce in alcun modo la realtà o la significatività ontologica di tali scoperte, anzi, proprio nella loro alterità rispetto ai parametri antropocentrici risiede la loro potenza conoscitiva.

È fondamentale precisare che questa prospettiva non configura affatto un ritorno al positivismo ingenuo che caratterizzava certe correnti scientifiche del XIX secolo. L’empirismo speculativo che qui si delinea è radicalmente diverso: non concepisce i dati come fatti bruti immediatamente accessibili alla coscienza, ma li comprende come eventi complessi che emergono dall’interazione dinamica tra realtà materiali e dispositivi tecnici di registrazione. Questa concezione processuale del dato implica una riflessione importante sulla qualità: la qualità del dato non può essere ridotta a parametri tecnici di accuratezza, completezza o coerenza formale, ma deve essere pensata come fedeltà ontologica, intesa come capacità di preservare e trasmettere la complessità degli eventi reali attraverso le mediazioni tecniche necessarie alla loro digitalizzazione.

La qualità del dato, in questa prospettiva speculativa, non risiede nella sua trasparenza rispetto al fenomeno originario, ma nella sua capacità di mantenere aperte le potenzialità interpretative e le connessioni inattese che caratterizzano la realtà stessa. Un dataset di alta qualità non è quello che elimina l’ambiguità o la contingenza, ma quello che riesce a codificare anche l’eccesso, l’imprevisto, il non-ancora-pensato che ogni evento reale porta con sé. In questo senso, la qualità diventa una questione ontologica prima ancora che tecnica: riguarda la capacità dei nostri dispositivi di registrazione di rimanere aperti alla novità radicale che può emergere dal reale.

Gli eventi-dati così concepiti non sono costituiti dalla loro correlazione con la coscienza fenomenologica umana, ma possiedono una consistenza ontologica autonoma, che si manifesta concretamente nella loro capacità di generare effetti reali – modificazioni nei sistemi sociali, economici, politici – indipendentemente dalla loro comprensione esplicita da parte degli agenti umani coinvolti. Questa autonomia causale dei dati rivela una dimensione della realtà che sfugge al controllo intenzionale della soggettività, aprendo spazi di azione e trasformazione che esulano dalla pianificazione razionale tradizionale.

La prospettiva del realismo speculativo applicata ai big data non persegue l’obiettivo di eliminare o marginalizzare la dimensione umana dal processo conoscitivo, ma opera piuttosto una de-assolutizzazione critica della centralità antropocentrica, riconoscendo che la realtà nelle sue molteplici articolazioni eccede sempre e strutturalmente qualsiasi correlazione con la soggettività umana, per quanto sofisticata possa essere. I dati contemporanei si configurano così come autentiche soglie ontologiche – zone di passaggio e trasformazione attraverso cui il pensiero umano può entrare in contatto produttivo con forme di alterità radicale che caratterizzano il nostro presente tecnologico.

Temporalità macchinica che opera simultaneamente su scale micro e macro-temporali, agency algoritmica che manifesta forme di autonomia decisionale, pattern emergenti che sfidano le categorie consolidate della filosofia della mente e della teoria della conoscenza.

Questa riconfigurazione epistemologica apre, tuttavia, problemi etici e politici di straordinaria complessità, che non possono essere risolti attraverso i framework normativi tradizionali. Se riconosciamo che i dati possiedono forme genuine di agency autonoma – capacità di auto-organizzazione, generazione di novità, influenza causale sui processi sociali – come dobbiamo ripensare la questione della responsabilità umana nei processi automatizzati che caratterizzano sempre più ampiamente la nostra esistenza collettiva? Se ammettiamo che gli algoritmi di machine learning accedono a dimensioni strutturali del reale che rimangono precluse alla coscienza fenomenologica diretta, attraverso quali meccanismi possiamo garantire che questa conoscenza venga orientata verso il bene comune anziché verso l’accumulazione di potere da parte di élites tecniche? E se la correlazione uomo-mondo viene riconosciuta come una configurazione storicamente contingente tra altre possibili, come possiamo costruire forme di convivenza democratica che tengano conto della molteplicità di agenti umani e non-umani che popolano il nostro ecosistema tecnologico?

La qualità del dato emerge qui come questione eminentemente politica: la capacità di produrre dati che mantengano aperti spazi di agency per soggetti diversi, che non cristallizzino rapporti di dominio esistenti e che preservino la possibilità di futuri alternativi diventa una competenza democratica fondamentale. La qualità speculativa del dato non riguarda solo la sua correttezza tecnica, ma la sua capacità di sostenere processi di soggettivazione collettiva che eccedano le forme di controllo biopolitico contemporanee.

Il realismo speculativo dei dati non pretende di fornire risposte immediate e definitive a questi interrogativi complessi, ma li radicalizza filosoficamente, costringendoci a pensare la condizione post-umana emergente non come catastrofe apocalittica da evitare a tutti i costi, ma come speculazione da abitare creativamente – apertura verso forme di esistenza collettiva che eccedono l’orizzonte antropocentrico tradizionale senza per questo negare o cancellare la specificità irriducibile dell’umano. Il dato, in questa prospettiva filosoficamente informata, si rivela non come mero oggetto di controllo tecnico o di manipolazione strumentale, ma come autentico compagno teoretico nella costruzione collettiva di futuri ancora impensati, portatore di possibilità che eccedono le nostre categorie attuali di comprensione e che richiedono forme originali di saggezza pratica per essere abitate responsabilmente.

Indice

PAROLE CHIAVE: Agency algoritmica / Ancestralità digitale / Correlazionalismo / Qualità speculativa

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.