• Laureato in Ingegneria dell'informazione, in Scienze filosofiche e in Epistemologia delle scienze umane, unisce una solida formazione accademica a un costante impegno nella divulgazione scientifica e tecnologica. Lavora nell'area ricerca di un'autorità finanziaria, dove si occupa di sistemi di gestione della conoscenza e della digital library istituzionale. Da oltre trent'anni esplora le frontiere della tecnologia e della scienza, traducendo temi complessi in analisi accessibili a un pubblico ampio. Negli ultimi anni ha concentrato la sua ricerca sulla dimensione culturale delle trasformazioni tecnologiche, con approfondimenti su privacy, intelligenza artificiale, biotecnologie e sul valore del dato scientifico e dell'informazione giornalistica. Ha scritto per testate come Wired, Agenda Digitale, Il Cibernetico, Infomedia e Punto Informatico. È stato direttore delle riviste tecniche DEV e Linux Magazine, ed è tra i promotori del Progetto Winston Smith e del convegno e-privacy.

Abstract

La tesi di Enrica Priolo secondo cui i big data costituirebbero un accesso privilegiato al “Grande Fuori” e i dataset manifesterebbero una forma di agency non-umana, sulla scorta di Quentin Meillassoux e dell’Object Oriented Ontology (OOO) di Graham Harman tende a ontologizzare i dati e a confondere livelli epistemici e metafisici. I dati vengono riformulati come prodotti fenomenotecnici—esiti di montaggi tecnico-teorici—piuttosto che “tracce pure” del reale; la loro efficacia viene riscritta in termini di catene di riferimento e traduzioni, non come proprietà autonome degli oggetti; l’apparente “autonomia” dei dataset è letta come fase di processi di individuazione tecnico-sociale e, infine, bisogna distinguere la normalità statistica estratta dai modelli dalla normatività del vivente, e anche dei concetti scientifici, che istituiscono norme nuove anziché adeguarsi alle medie. Una proposta: riconfigurare la “qualità speculativa” dei dati come compito tecnico-politico di ispezionabilità, provenienza, versionamento e pluralismo istituzionale, volto a mantenere aperti spazi di normatività collettiva invece di ipostatizzare i dati come accesso al reale assoluto.

L’articolo di Enrica Priolo «L’insurrezione degli oggetti: quando i dati pensano il mondo senza di noi» (Digeat Rivista N. 3-2025) è ambizioso, affascinante, suggestivo. Prova a saldare registri molto diversi — ontologia speculativa, epistemologia della misura, teoria dell’informazione e pratica del machine learning — in un complesso innovativo che suscita molti interrogativi [1]. La tesi è ardita ma fragile in tre punti: l’uso estensivo del lessico meillassouxiano dell’“ancestralità” sui dati contemporanei; la trasposizione della tesi “l’essere è matematico” in un’identificazione troppo rapida tra digitalizzazione e accesso non-correlazionale al reale; l’accostamento fra “contingenza assoluta” e imprevedibilità algoritmica.

Andiamo con ordine: sarebbe semplice, per un post-kantiano, affrontare i fondamentali «salti alle conclusioni» che vengono solitamente criticati a Meillassoux e Harman. Ad esempio:

«La dimostrazione di Meillassoux – perché proprio di una dimostrazione si tratta – stabilisce che solo una cosa è assolutamente necessaria: che le leggi di natura siano contingenti.» [2]

dice Alan Badiou quando, nell’introduzione di «Dopo la finitudine» anticipa il punto più controverso dell’opera, la “necessità della contingenza”. L’argomento resta però tutto ancora da giustificare dipendendo da assunzioni modali e insiemi teorici non neutrali e anche da un passaggio poco definito dall’epistemologia all’ontologia. La promessa di “salvare” la scienza negando la necessità delle leggi scientifiche richiede di chiarire come si intendano i processi di induzione, stabilità empirica e matematizzazione senza scivolare nel fideismo che lo stesso autore vuole combattere. Certo, Meillassoux propone un quadro affascinante, ma lontano da quella dimostrazione che Badiou vorrebbe avere, forse anche per sostenere il proprio obiettivo di fondare l’ontologia sulla matematica1.

Nel caso di Harman, invece, la postulazione del “ritiro” universale degli oggetti — la tesi secondo cui ogni oggetto, di qualunque scala, si sottrae intrinsecamente a ogni relazione e a ogni accesso, umano o non umano — come principio ontologico di base, esteso dal caso fenomenologico dell’utensile heideggeriano all’intero reale è un «salto alle conclusioni» perché l’argomento nasce da un’analisi dell’esperienza e poi viene proiettato come legge dell’essere: dall’opacità funzionale che gli strumenti presentano alla coscienza deduce una inaccessibilità reciproca fra tutti gli enti, e su questa erige sia la “democrazia ontologica”2 sia la teoria della “causalità vicaria”3.

Detto questo, però, è solo accettando il discorso di Priolo, e non facendolo crollare dalle fondamenta, che si può stimolare un raffinamento della tesi, che rimane di grande interesse teoretico.

 

I dati non sono archifossili

In Meillassoux, l’“archifossile” indica l’ente che testimonia un tempo anteriore a ogni correlazione con la coscienza, e che la scienza moderna articola matematicamente [6]. È qui cruciale notare che gli enunciati ancestrali si riferiscono a eventi fisici pre-umani; e i dataset, pur se rappresentassero quegli eventi, e comunque qualsiasi evento umano e non-umano rappresentino, sono prodotti tecnico-sociali nel tempo presente, generati da apparati di misura con le loro convenzioni di campionamento, modelli di pre-trattamento e procedure di inferenza. I dati del fondo cosmico a microonde o delle carote di ghiaccio non sono essi stessi ancestrali; sono traduzioni strumentali contemporanee di tracce del passato.

Dire che:

«Il dato digitale […] non è più mediazione fenomenica ma traccia materiale del reale assoluto.» (Priolo, 2025)

confonde il fenomeno pre-umano con il dispositivo attuale che lo registra. Questo, ovviamente, non smentisce la forte tesi del “Grande Fuori”, ma non può essere il dataset a costituire l’uscita dal correlazionalismo: è piuttosto la struttura matematica delle scienze — e la loro argomentazione — a permettere quegli enunciati, non la mera presenza di bit su un server [6], [7].

Meillassoux critica l’esperienza immediata sul dato in quanto tale e, come Bachelard e dopo di lui Canguilhem, sostiene la centralità del “nuovo spirito scientifico” in cui il reale è pensato sotto vincoli formali e strutturali, non come dato sensibile grezzo. Gli enunciati ancestrali meillassouxiani sono possibili proprio perché sono articolati matematicamente, cioè in un linguaggio in grado di valere indipendentemente dalle qualità soggettive [6]. Questo, però, non coincide con la pratica dei big-data, che rimane dipendente dalla teoria e dalla «fenomenotecnica» che genera tale pratica. Questo è un punto che Bachelard e Canguilhem avrebbero riconosciuto: la scienza moderna non descrive ma costruisce il suo oggetto attraverso volontarie rotture epistemologiche, strumenti creati ad hoc, idealizzazioni e matematizzazioni costruite a bella posta per ottenere il risultato; in questo senso, l’oggettività non è la trasparenza ai sensi, ma il rigore delle mediazioni concettuali e tecniche [8], [9], [10]

Meillassoux però fa compiere alla matematizzazione un passo metafisico: dagli esiti della scienza trae la tesi che vi sia un “Grande Fuori” in senso forte e che le proprietà matematiche colgano qualcosa dell’essere in quanto tale, oltre ogni correlazione. Bachelard e Canguilhem invece si arrestano prima, ancora sulle soglie di un materialismo scientifico: per loro, il fatto è fenomenotecnico: è un evento reso possibile da un insieme di apparecchiature, protocolli, convenzioni e modelli e non è mai una finestra diretta sull’“in-sé”, ma il risultato storicamente situato di un’operazione razionale e tecnica.

Se ciò non fosse abbastanza, Canguilhem aggiungerebbe un ulteriore vincolo a complicare la pretesa dell’assolutismo meillassouxiano: la normatività del conoscere. La scienza non procede accumulando dati e misure, ma procede riformando le proprie norme interne e ridefinendo cosa è errore e quale correzione è valida quando v’è un errore che prima non lo era. Per Canguilhem i concetti scientifici hanno una vita che, come quella biologica, supera se stessa grazie alla propria capacità di creare norme su se stessa e non mantenersi nel proprio normale omeostatico/cibernetico. In questo senso, la “qualità” del dato è inseparabile dal regime normativo che lo rende tale; ciò che oggi è un dato, domani potenzialmente è errore, e ciò che oggi è errore potrà essere dato valido: nessun bit è mai “assoluto”, perché il suo valore epistemico dipende da una pratica che stabilisce cosa conti come fatto, come rumore, come anomalia [10].

L’idea di dataset come “traccia materiale del reale assoluto” è una posizione forte, scollegata all’idea meillassouxiana che nessuna legge è necessaria per principio: l’ordine che osserviamo è un fatto stabile-per-ora ma sempre revocabile, mentre il solo assoluto è la necessità della contingenza. In un certo senso questo giustificherebbe la continua instabilità dei dataset che cambiano anche quando si replicano uguali misure con carichi teorici differenti. Comunque però non si può farne, né singolarmente né in composizione, un assoluto.

La posizione di Priolo sembra ipostatizzare il dato in un dataismo, facendone il motore di una conoscenza assoluta e non antropocentrica; ma anche la tradizione culturale dell’“oggettività meccanica” mostra che procedure, automazione e controlli incrociati, pur essendo antropogenici, possono ridurre ma mai eliminare del tutto le proiezioni del soggetto umano [11]. Qui, come nella Quarta Via di Tommaso d’Aquino (ex gradibus), si opera il passaggio dai gradi empiricamente osservabili — più o meno vero, buono, nobile — all’ipostasi di un massimo assoluto, causa dei gradi inferiori; è il medesimo salto dal comparativo all’assoluto che anche Kant rifiuta, perché dall’ordine comparativo del dato non segue l’esistenza di un ente necessario [12].

 

La matematica forse no, ma l’algoritmo è un’opinione

Meillassoux sostiene che soltanto le determinazioni matematiche sono universalmente asseribili senza ricadere nella correlazione [6]. Ma un algoritmo non opera su, né è, “pura matematica” nel senso ontologico. Un algoritmo o una computazione, nei termini della macchina di Turing, opera su rappresentazioni discrete già concettualmente modellate. Rappresentazioni che sono necessariamente né assolute, né pulite. Il segnale fornito all’algoritmo è necessariamente rumoroso (e, per Norbert Wiener, conoscere significava appunto filtrare). I segnali hanno sempre forti ipotesi implicite su distribuzioni, cammini e obiettivi.

Quindi, il digitale per sé, è spesso opera di trasduzione, ma non un varco metafisico: è piuttosto, esso stesso, una tecnologia di discretizzazione e calcolo. La formula secondo cui il processing dei big data costituirebbe “cognizione non-correlazionale” generalizza indebitamente su fondamenta fragili.

Le pipeline dati del machine-learning sono piene di scelte operative che riflettono fini umani, interessi economici, opzioni politiche, domini applicativi, metriche e sottospecifiche volute, anelate, pretese: non sono mai neutrali né “indifferenti alla fenomenicità”, ma dipendono da un’intera economia di modellazione [13], [14].

Tuttavia, se la matematizzazione di Meillassoux può sostenere pretese di universalità degli enunciati, allora, come aveva prefigurato Koyré nel passaggio dall’“all’incirca” all’universo della precisione, la sua implementazione digitale introduce nuovi strati di mediazione da rendere espliciti, tracciabili e discutibili. All’opposto di come presentato, la precisione è un’idealizzazione produttiva, non un contatto immediato con l’in-sé [15].

L’informatica contemporanea, come dice Priolo, è vero, sostiene che «il dato computazionale [sia] intrinsecamente matematico, esistendo come sequenza di stati discreti (0/1) che precedono e rendono possibile qualsiasi fenomenizzazione qualitativa» ma questo comporta sempre un’etica delle mediazioni in cui “qualcuno” decide le soglie, e lo fa per i propri fini e con effetti su soggetti diversi. Poi, l’informatica futura, quantistica, sarà ben poco binaria. Se l’idea che il digitale come varco metafisico verso l’essere si indebolisce già in ambito classico, allora collassa del tutto in ambito quantistico perché la meccanica quantistica non ammette valori delle osservabili indipendenti dal contesto di misura: l’“informazione” è uno stato vettoriale in uno spazio di Hilbert che produce esiti discreti solo dopo la scelta di base, osservabile e protocollo sperimentale, e l’intero calcolo quantistico dipende da convenzioni su rumore, codici di correzione e soglie di tolleranza dell’errore; i teoremi di Bell e di Kochen-Specker escludono un “dato” pre-definito e assoluto che preceda le mediazioni, sicché ciò che chiamiamo output è il risultato di una proiezione operativa e non un varco sull’in-sé [16], [17], [18], [19].

C’è però anche di più, sul piano etico-politico. Dare vita non-antropomorfa al dataset, nascondendo o dimenticandone le mediazioni che l’hanno prodotto (fenomenotecnica) e quelle che lo useranno (algoritmica), rischia di realizzare anche una forte giustificazione per la creazione di “zone di assorbimento morale” sui prodotti, e primo tra questi sui grandi modelli di linguaggio e i GPT. Se il dataset fosse una presenza necessaria della natura non antropomorfa, non sarebbe più il produttore del dato o il programmatore dell’algoritmo, ad essere investito di responsabilità morale, perché il dato diventa oggetto necessario di natura e l’algoritmo mero incolpevole trasformatore.

La lente foucaultiana sui “regimi di veridizione” rende esplicito ciò che spesso resta impensato: i dispositivi tecnici che producono e fanno circolare verità sono anche dispositivi di governo: modellano condotte e distribuiscono possibilità [20]. Un’infrastruttura di dati o un sistema algoritmico non è mai solo un modello descrittivo; è piuttosto performativo e normativo. Gli oggetti tecnici hanno un “milieu” associato, un ambiente nel quale sono annidati, e si individuano storicamente insieme alle collettività umane che li creano o li usano. Progettare sistemi di dati significa progettare ambienti di vita, con obblighi di compatibilità tra forme di normatività tecnica e forme di normatività umana [21].

A questo punto, la bachelardiana “psicoanalisi della conoscenza oggettiva” richiede una pratica di vigilanza immediata e, come dovere etico quantomeno per il filosofo, chiama all’azione di smascherare l’ostacolo epistemologico del dataismo — cioé la credenza che il dato “parli da sé”.

 

L’accostamento fra “contingenza assoluta” e imprevedibilità algoritmica

In Meillassoux la “necessità della contingenza” non è una diagnosi della nostra ignoranza o della complessità del mondo, ma un’affermazione circa lo statuto delle leggi: esse non sono necessarie, e potrebbe non esservi alcuna ragion sufficiente perché siano come sono; ciò che è necessario è solo che potrebbero essere altrimenti, senza contraddizione [6]. Dare come controesempi dinamiche caotiche o modelli opachi mostra soltanto il limite delle nostre descrizioni o capacità di calcolo, non l’assenza ontologica di necessità. Quando passiamo ai sistemi di apprendimento statistico, l’imprevedibilità ha cause note: non linearità, alta dimensionalità, dipendenza dalle condizioni iniziali, approssimazioni numeriche, rumore e, soprattutto, il fatto che inferiamo strutture da campioni finiti sotto assunzioni implicite sul processo generativo dei dati. La cosiddetta “allucinazione” di un LLM è un errore di generalizzazione o un artefatto della funzione obiettivo e del regime di “adattamento”, non un evento metafisico; confondere i due piani rende fragile il discorso filosofico [22]. Meillassoux tematizza l’événement come rottura non deducibile dalle condizioni precedenti, ma noi vediamo nel comportamento inaspettato di un modello l’effetto dei pregiudizi induttivi, oppure le evidenti sottospecifiche, tanto care agli informatici, ma certamente non la rivelazione di una contingenza ontologica.

I modelli predittivi colgono regolarità statistiche ottimizzate rispetto a funzioni di perdita ma non per questo scoprono leggi causali. L’accesso alle strutture del mondo richiede strumenti d’intervento, condizioni controfattuali, ipotesi di chiusura su ciò che confonde e criteri d’invarianza che trascendono la mera osservazione passiva sui dati [23], [24].

Ne segue che buone previsioni non autorizzano alcuna inferenza verso un “reale matematico non-correlazionale”: ciò che apprendiamo è una famiglia di mappe utili solo entro un determinato regime di stabilità; quando il regime cambia, le prestazioni crollano, mostrando la dipendenza da ipotesi che non possono essere assolute.

Gli LLM sono lungi dal realizzare la characteristica universalis di Leibniz, perché non “calcolano la verità” ma approssimano distribuzioni condizionali su stringhe/token. La loro eccellenza deriva da questioni di scala, regolarizzazione implicita e ottimizzazione di obiettivi linguistici [22], [25]. Parlare qui di “comprensione non-fenomenologica” rischia di confondere la prestazione funzionale con una tesi forte sull’intelligibilità del reale. Un lettore competente difficilmente qui non ravviserà un salto indebito dal tecnico al metafisico.

Il dibattito filosofico sull’AI nasconde, e spesso dimentica, un punto sostanziale: ogni successo predittivo presuppone un pregiudizio induttivo.

“No Free Lunch”! Questo ci ricorda che senza assunzioni sui compiti o sulle distribuzioni non esiste un algoritmo universalmente superiore. I modelli funzionano perché la porzione di mondo è guardata nella scala prevista, e solo quella, dove condivide regolarità che quei modelli sono progettati per sfruttare [26]. Come avviene per i farmaci, il riposizionamento di un modello su una differente porzione e scala di mondo è possibile e può anche dare risultati, ma un risultato eventualmente positivo non si discosta da un colpo di fortuna.

In termini epistemologici, la riuscita di quello che molto inappropriatamente è chiamato “apprendimento”, ma che altrimenti dovrebbe essere più opportunamente essere chiamato “adattamento”, conferma l’accoppiamento tra ipotesi e dominio, e non l’accesso metafisico all’in-sé; in termini bachelardiani, conferma la potenza di una teoria solida su cui si basa un’operazione fenomenotecnica ben congegnata, non la trasparenza del reale [9]. Sul piano pratico questo si traduce nei bilanciamenti che sono ben noti alla teoria dell’apprendimento statistico: margini, capacità del modello, regolarizzazione, tassi di errore; cioè quei parametri che istituiscono una normatività del conoscere, esattamente nel senso canguilhemiano, stabilendo quello che va considerato segnale, rumore, eccezione, outlier [10].

Va evitato anche un differente fraintendimento che serpeggia nell’articolo di Priolo: la creatività dell’AI non prova la contingenza metafisica. Un output inedito di un LLM non dimostra, in un qualche modo, la mancanza ontologica di necessità, piuttosto che l’ottimizzazione in uno spazio ad altissima dimensione produce combinazioni plausibili che non erano state viste prima. Un output nuovo è solo l’effetto computazionale combinatorio ma non una prova della metafisica. Non è un significato emergente ma piuttosto nessun significato che, per mero caso, sembra un qualcosa di plausibile.

Questo quadro ha anche un risvolto normativo. Se la contingenza assoluta è una tesi metafisica e l’imprevedibilità dei modelli è invece una questione epistemica, allora le responsabilità etiche non vanno dissolte in retoriche sull’“incontrollabilità” dell’AI.

Proprio perché l’imprevedibilità è in larga parte di origine modellistica e organizzativa, possiamo e dobbiamo intervenire. Bisogna pretendere di intervenire sulle funzioni obiettivo, sui vincoli d’invarianza, sull’adozione di sottomodelli causali, con la progettazione di cicli di feedback che riducano l’effetto performativo delle previsioni sui sistemi sociali, ed evitare regimi di ottimizzazione che amplificano correlazioni spurie [22], [24].

 

Object Oriented Ontology

Se su Meillassoux le tesi di Priolo sono più ardite, su Harman e l’Object-Oriented Ontology (OOO), sono piuttosto prudenti, ma lasciano sul campo due rischi.

Innanzitutto si tende ad attribuire “agency non-umana” ai dati senza definire il termine. In Harman gli oggetti sono ontologicamente autonomi e si ritirano rispetto a ogni relazione, quindi chiamare “agency” la loro mera causalità rischia di reintrodurre dentro l’oggetto, l’antropomorfismo concettuale che si voleva abbandonare. Senza grossa perdita però si può, in questo caso, adottare un lessico più “debole”, come quello dell’attore-rete di Latour [27].

Nel quadro latouriano il dataset non è un ente che agisce da sé, ma un “mobile immutabile”, un artefatto abbastanza stabile da poter essere trasportato, confrontato e calcolato a distanza, funzionando da leva per i “centri di calcolo” che coordinano azioni senza contatto diretto col fenomeno originario [28]. Questa stabilità è sempre il risultato di operazioni di scrittura con catene di strumenti, formati, pulizie, annotazioni e protocolli che trasformano tracce effimere in segni durevoli e manipolabili [29]. Dire che i dati “hanno agency” significa allora, in termini più rigorosi, riconoscere che essi mediano e modificano il corso dell’azione: non sono però intermediari che trasportano invarianti, ma mediatori che trasformano ciò che mettono in relazione.

La distinzione fra “intermediario” e “mediatore” è il punto nevralgico che evita un errore categoriale: i dati raramente sono intermediari; quanto piuttosto mediatori che riscrivono lo stato di cose cui partecipano [27].

Questa lente permette anche di ricomporre il rapporto con Meillassoux e con la critica alla scorciatoia “digitale = varco all’assoluto” fatta in precedenza. In Latour la “circolazione della referenza” non è una finestra sull’in-sé, ma una lunga catena di trasformazioni che, se ben costruite, conservano relazioni operative fra mondo e segni, rendendo possibile l’azione informata e la controversia pubblica su come quei segni sono stati ottenuti [30]. I dati del fondo cosmico o delle carote di ghiaccio non sono, per Latour, archifossili, ma sono estremità parzialmente stabilizzate di catene di iscrizioni; la loro forza deriva dalla qualità delle mediazioni che li hanno resi tali. In questo senso, l’Actor Network Theory di Latour rafforza la tesi sostenendo che l’uscita dal correlazionalismo non passa per i bit, ma dalla capacità delle pratiche scientifiche di costruire dispositivi che rendano tracciabile e criticabile la referenza.

Questa impostazione regge anche di fronte alla computazione contemporanea, classica o quantistica. In entrambi i casi i dati entrano in reti sempre più astratte, e il loro “potere” deriva dalla capacità di circolare in forma stabile pur continuando a trasformare ciò che legano. L’etica che ne segue non è quella dell’“agenzia dei dati”, ma della governance delle mediazioni: verificabilità delle catene di referenza, apertura dei passaggi obbligati, pluralismo dei portavoce, possibilità di contro-iscrizioni.

Infine, è problematico assumere che i pattern “emergano dal dato” come se fossero proprietà latenti intrinseche. Questo è un punto delicato: parlare di “pattern che emergono dal dato” induce a trattare le strutture apprese con il machine-learning come proprietà latenti intrinseche, mentre nella pratica dell’apprendimento statistico l’emersione è l’esito di un accoppiamento preciso, un adattamento, un match, tra struttura del dataset e vincoli del modello, inclusi sottospecifiche, regolarizzazione e algoritmo di ottimizzazione [22]. Il “ritiro” di Harman può valere solo come monito alla parzialità di ogni traduzione, non come prova che i dati “vivono” o “si auto-organizzano” [31]. Quindi il criterio operativo potrebbe essere quello di trattare i pattern come ipotesi co-prodotte, documentare le mediazioni, cercare robustezza trasversale e, quando serve, spiegazioni causali; solo allora è sensato promuoverli a candidati “strutturali”. Altrimenti è una sorta di vitalismo dei bit.

 

Conclusioni

L’ambizione dell’articolo di Priolo merita di essere salvata da due opposti errori: il vitalismo dei bit e il disincanto riduzionistico. I dati non pensano il mondo “senza di noi”, ma noi pensiamo e agiamo attraverso reti di mediatori che includono dati, apparati e modelli; in questo senso, l’oggettività non è un varco sull’assoluto, è un lavoro pubblico di mediazioni che regge solo se è verificabile, contestabile e responsabile. La matematizzazione consente enunciati che pretendono validità oltre l’esperienza soggettiva, ma la loro implementazione digitale — classica o quantistica — intensifica, e non annulla, le scelte tecnico-normative.

Chi cerca un realismo all’altezza del presente, farebbe bene a preferire il realismo delle pratiche a ogni scorciatoia metafisica: trattare i pattern come ipotesi co-prodotte da dati e modelli, cercarne l’invarianza con prove e interventi, e sottoporre a governo democratico le catene di iscrizione che li generano. Solo così i “dati” smettono di essere feticci o capri espiatori e diventano ciò che possono e devono essere: strumenti di conoscenza situata, capaci di aprire possibilità senza usurpare l’assoluto [9], [23], [27].

 

Bibliografia e Sitografia

[1] E. Priolo, «L’insurrezione degli oggetti: quando i dati pensano il mondo senza di noi», Digeat, fasc. 7, set. 2025.

[2] A. Badiou, «Prefazione», in Dopo la finitudine. saggio sulla necessità della contingenza, Milano–Udine: Mimesis, 2012. Disponibile qui.

[3] Q. Meillassoux, «Time without becoming: Lecture at the centre for research in modern european philosophy (crmep), middlesex university, london», mag. 2008, Accesso: 4 ottobre 2025. [[Online]]. Disponibile qui.

[4] L. R. Bryant, The democracy of objects. in New metaphysics. Open Humanities Press, 2011. Accesso: 4 ottobre 2025. [[Online]]. Disponibile qui.

[5] G. Harman, «On vicarious causation», Collapse, vol. 2, pp. 187–221, 2007, Accesso: 4 ottobre 2025. [[Online]]. Disponibile qui.

[6] Q. Meillassoux, Dopo la finitudine. saggio sulla necessità della contingenza. Milano–Udine: Mimesis, 2012. Disponibile qui

[7] I. Hacking, Conoscere e sperimentare: Questioni introduttive di filosofia della scienza naturale. Roma–Bari: Laterza, 1987. Disponibile qui

[8] G. Bachelard, La formazione dello spirito scientifico. Milano: Raffaello Cortina, 1996. Disponibile qui.

[9] G. Bachelard, Il razionalismo applicato. Bari: Edizioni Dedalo, 1993. Disponibile qui.

[10] G. Canguilhem, Il normale e il patologico. Torino: Einaudi, 2014. Disponibile qui.

[11] L. Daston e P. Galison, Objectivity. New York: Zone Books, 2007. Disponibile qui.

[12] I. Kant, Critica della ragion pura. Roma–Bari: Laterza, 2005. Disponibile qui.

[13] L. Floridi, La filosofia dell’informazione. Milano: Raffaello Cortina, 2024. Disponibile qui.

[14] R. Kitchin, The Data Revolution: Big Data, Open Data, Data Infrastructures & Their Consequences. London: SAGE, 2014. Disponibile qui.

[15] A. Koyré, Studi galileiani. Torino: Einaudi, 1979. Disponibile qui.

[16] M. A. Nielsen e I. L. Chuang, Quantum Computation and Quantum Information, 10th Anniversary ed. Cambridge: Cambridge University Press, 2010. Disponibile qui.

[17] J. S. Bell, «On the Einstein Podolsky Rosen Paradox», Physics physique fizika, vol. 1, pp. 195–200, 1964, doi: 10.1103/PhysicsPhysiqueFizika.1.195.

[18] S. Kochen e E. P. Specker, «The Problem of Hidden Variables in Quantum Mechanics», Journal of mathematics and mechanics, vol. 17, pp. 59–87, 1967, doi: 10.1512/iumj.1968.17.17004.

[19] D. A. Lidar e T. A. Brun, A c. di, Quantum Error Correction. Cambridge: Cambridge University Press, 2013. doi: 10.1017/CBO9781139034807.

[20] M. Foucault, Sorvegliare e punire. nascita della prigione. Torino: Einaudi, 2014. Disponibile qui.

[21] G. Simondon, Del modo di esistenza degli oggetti tecnici. Salerno: Orthotes, 2021. Disponibile qui.

[22] M. Mitchell, Intelligenza artificiale. guida per esseri pensanti. Torino: Einaudi, 2022. Disponibile qui.

[23] J. Pearl e D. Mackenzie, The Book of Why: The New Science of Cause and Effect. New York: Basic Books, 2018. Disponibile qui.

[24] J. Peters, D. Janzing, e B. Schölkopf, Elements of Causal Inference: Foundations and Learning Algorithms. Cambridge, MA: MIT Press, 2017. Disponibile qui.

[25] E. M. Bender, T. Gebru, A. McMillan-Major, e S. Shmitchell, «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?», in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21), New York: Association for Computing Machinery, 2021, pp. 610–623. doi: 10.1145/3442188.3445922.

[26] D. H. Wolpert, «The Lack of A Priori Distinctions Between Learning Algorithms», Neural computation, vol. 8, fasc. 7, pp. 1341–1390, 1996, doi: 10.1162/neco.1996.8.7.1341.

[27] B. Latour, Riassemblare il sociale. actor–network theory. Milano: Meltemi, 2022. Disponibile qui.

[28] B. Latour, Science in Action: How to Follow Scientists and Engineers Through Society. Cambridge, MA: Harvard University Press, 1987. Disponibile qui.

[29] B. Latour e S. Woolgar, Laboratory Life: The Construction of Scientific Facts, 2nd ed. Princeton, NJ: Princeton University Press, 1986. Disponibile qui.

[30] B. Latour, Pandora’s Hope: Essays on the Reality of Science Studies. Cambridge, MA: Harvard University Press, 1999. Disponibile qui.

[31] G. Harman, The Quadruple Object. Winchester: Zer0 Books, 2011. Disponibile qui.

 

Emmanuele Somma — Quando si dis-pensano i dati dal mondo — 20260223 — 4d7439a8-16a2-4640-8382-78a3c32c5976

Licenza: This work is licensed under Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International

 


NOTE

1 Meillassoux ammette che quel passaggio argomentativo non è risolto in After Finitude. Nella conferenza “Time without Becoming” (Middlesex University, 8 maggio 2008) dice espressamente: “Now, my project consists of a problem which I don’t resolve in After Finitude, but which I hope to resolve in the future […] Would it be possible to derive, to draw from the principle of factiality, the ability of the natural sciences to know, by way of mathematical discourse, reality in itself […] independently of our subjectivity?” . Nella stessa lezione, poco prima, aggiunge anche: “I believe it [correspondence/truth] is the condition for every scientific theory, but I can’t demonstrate this here”, ulteriore conferma che la “dimostrazione” completa è riconosciuta come mancante in quel momento [3]

2 Si adotta qui il lessico di Levi Bryant, con un’impostazione coerente con OOO: una “piattezza” che attribuisce eguale dignità ontologica agli oggetti e che presuppone, ancora, il ritiro come eccedenza rispetto a ogni relazione [4].

3 Harman universalizza esplicitamente il ritiro e fonda su questo la “causalità vicaria”: nel saggio programmatico “On Vicarious Causation” parla di “a world packed full of ghostly real objects signaling to each other from inscrutable depths, unable to touch one another fully,” e precisa: “I hold that one billiard ball hides from another no less than the ball-in-itself hides from humans.”; le relazioni “non incontrano mai direttamente la realtà autonoma dei loro componenti”, perciò “relations between all real objects, […] occur only by means of some form of allusion”, cioè attraverso un intermediario sensuale [5]. Queste righe non descrivono soltanto l’esperienza umana con gli utensili; estendono il dispositivo heideggeriano al cosmo intero e lo trasformano in un principio ontologico generale, con l’effetto ulteriore di richiedere una teoria speciale della causalità (la “causalità vicaria”).

PAROLE CHIAVE: AI / contingenza assoluta / dataismo / dati / machine learning / OOO / Qualità del dato

Condividi questo contenuto su

Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.