Abstract
In un’epoca caratterizzata dall’espansione dell’intelligenza artificiale e dalla sua quantificazione, questo articolo esplora i limiti epistemologici dei dati e ne mette in discussione l’impiego come criterio assoluto di valutazione. Attraverso un’analisi filosofica, etica e tecnologica, si dimostra che la “qualità” non può essere dedotta dai numeri, ma deve essere costruita mediante giudizio interpretativo, responsabilità umana e riflessione critica. Il lavoro propone le basi per una scienza della qualità, fondata sul pluralismo dei criteri, sulla trasparenza valutativa e sul dialogo interdisciplinare.
Introduzione
Il dato, nella sua apparente neutralità, ha assunto il ruolo di giudice supremo della realtà. Tuttavia, ciò che non viene esplicitamente menzionato può talvolta rivelarsi più rilevante di quanto esplicitamente dichiarato.
In un’epoca di eccesso di informazioni, i dati hanno acquisito un ruolo centrale come strumento fondamentale per orientare le decisioni e le valutazioni. La loro forza risiede nella promessa di oggettività, nella riduzione dell’incertezza e nel potere di guidare l’azione sulla base di evidenze. Tuttavia, tale fiducia assoluta potrebbe risultare un dogmatismo epistemico. In ambito scientifico, economico, sanitario, educativo — e sempre più anche etico — il primato del dato tende a oscurare le dimensioni qualitative, interpretative e intersoggettive del sapere.
Il presente contributo si prefigge di sottoporre a scrutinio critico il paradigma della misurazione, al fine di evidenziare le aporie che emergono quando la qualità viene ridotta esclusivamente a parametri quantitativi. Si intende esaminare la tensione tra dato e qualità alla luce della filosofia della scienza, evidenziando i limiti epistemologici di una conoscenza fondata esclusivamente su evidenze numeriche.
Una particolare attenzione sarà rivolta al ruolo dell’intelligenza artificiale che oggi – ben oltre la sua natura di strumento tecnico – agisce come soggetto epistemico, capace di formulare valutazioni autonome. L’automazione del processo decisionale solleva interrogativi cruciali riguardo alla natura stessa del giudizio, alla responsabilità etica e alla possibilità di preservare uno spazio per la comprensione umana della realtà.
Attraverso un’analisi che intreccia epistemologia, etica e tecnologia, l’articolo sostiene che la qualità non possa essere meramente dedotta dai dati, ma debba essere costruita attraverso pratiche interpretative consapevoli, criteri condivisi e una riflessione critica costante. In tale prospettiva, la qualità non rappresenta esclusivamente un’esigenza metodologica, ma si manifesta come un imperativo etico.
La fiducia nei dati: origini e implicazioni epistemologiche
Nel corso del Novecento, la scienza ha consolidato la propria autorità epistemica, facendo affidamento sull’osservazione sistematica e la misurazione. Il dato, inteso come risultato finale dell’osservazione e della rappresentazione del reale, è stato elevato a fondamento oggettivo del sapere. Tale concezione trova le sue radici nel positivismo logico, il quale si proponeva di espungere la conoscenza da ogni residuo metafisico, riducendola a proposizioni verificabili. Secondo Carnap, “il significato di un’affermazione è determinato dal metodo della sua verifica”[1].
Questo approccio ha prodotto conseguenze durature: i dati sono stati investiti di un’aura di neutralità e infallibilità. Tuttavia, a partire dalla seconda metà del XX secolo, si sono levate voci critiche contro tale impostazione. Secondo Kuhn, i dati non sono indipendenti, ma sono sempre interpretati all’interno di modelli teorici che ne determinano il significato. Il dato, pertanto, non è autosufficiente: viene interrogato, selezionato e valorizzato in funzione delle visioni del mondo condivise nell’ambito scientifico[2].
La complessità del quadro epistemologico è ulteriormente accentuata da Feyerabend, il quale invita a diffidare della rigidità metodologica, sostenendo che “la scienza non è un’attività omogenea e le regole metodologiche rigide ne ostacolano il progresso”[3]. In assenza di un metodo universale, e considerando il carattere teorico dei dati, l’idea di una verità oggettiva garantita dalle misurazioni si rivela problematica.
Nel contesto contemporaneo, la fiducia nei dati è sostenuta dall’espansione delle tecnologie digitali e dell’intelligenza artificiale, che sono in grado di generare e analizzare quantità ingenti di informazioni in tempo reale.
Tuttavia, come sottolineato da O’Neil, “i modelli algoritmici sembrano neutri, ma spesso perpetuano disuguaglianze e pregiudizi preesistenti”[4]. L’illusione di precisione si connette all’autorità del dato, generando un nuovo dogmatismo tecnocratico.
La qualità: concetto, valori e valutazione
Il termine “qualità” è onnipresente nel linguaggio scientifico, politico e organizzativo ma, al contempo, è profondamente sfuggente. In ambito accademico, sanitario, educativo, industriale, la qualità è invocata come criterio di eccellenza e legittimazione.
Ma cosa intendiamo esattamente con “qualità”? Si tratta di una proprietà intrinseca dell’oggetto osservato, di una valutazione esterna, o di una costruzione socio-culturale? E in che modo essa si relaziona alla misurazione?
Nel pensiero filosofico, la qualità si è storicamente contrapposta alla quantità. Aristotele, nella Metafisica, distingue i predicati qualitativi da quelli quantitativi, assegnando ai primi una connessione con l’essenza delle cose. Con la modernità scientifica, l’analisi quantitativa ha progressivamente marginalizzato ciò che non è misurabile. Tuttavia, come osserva Polanyi “la conoscenza personale… include il giudizio tacito, che non può essere ridotto a regole formali né a dati oggettivi”[5].
I parametri impliciti che sottendono la valutazione della qualità
Ogni valutazione, anche quella espressa in termini tecnici, incorpora valori soggettivi. Le metriche, i criteri e i pesi attribuiti ai diversi parametri non sono mai neutri, ma riflettono visioni del mondo, aspettative sociali e scelte etiche. Come sottolineato da Longino, “la scienza è carica di valori”[6]. Come è noto in ambito accademico, anche le pratiche più rigorose sono influenzate dal contesto sociale e culturale in cui si sviluppano.
La qualità, pertanto, non può essere ridotta a una semplice prestazione misurabile. Tale concetto implica la necessità di una coerente condotta etica, una stretta aderenza agli obiettivi prefissati, nonché il rispetto per gli individui coinvolti.
La misurazione garantisce precisione, replicabilità e comparabilità, tuttavia, rischia di occultare ciò che non può essere codificato numericamente. In questa prospettiva, la qualità non può essere esclusivamente determinata dai dati, ma necessita di essere interpretata, argomentata e discussa. La sua valutazione richiede l’adozione di criteri condivisi, una riflessione critica costante e un coinvolgimento consapevole delle parti interessate.
L’intelligenza artificiale e il paradigma della quantificazione
L’intelligenza artificiale ha rivoluzionato le modalità di raccolta, interpretazione e valutazione dei dati. Algoritmi predittivi, modelli linguistici e reti neurali analizzano ampi set di dati per ottimizzare le decisioni e le classificazioni. Tuttavia, tale potenza computazionale ha codificato — anziché risolto — “Le macchine non sono neutrali: esse riflettono i presupposti di chi le ha progettate” e ambiguità epistemiche.”[7].
L’intelligenza artificiale ha ormai acquisito una valenza che va oltre quella meramente tecnica, divenendo un agente epistemico delegato, capace di effettuare valutazioni autonome. Tale approccio metodologico si caratterizza per l’identificazione di modelli, la formulazione di ipotesi probabilistiche e la proposta di interventi basati su evidenze empiriche.
I modelli di IA apprendono dai dati disponibili, tuttavia, tali dati sono storicamente e socialmente connotati. Nel caso in cui il dataset rifletta discriminazioni o squilibri, l’algoritmo tenderà a riprodurli e, frequentemente, ad amplificarli. Secondo Kate Crawford, “la visione del mondo fornita dall’IA è parziale, costruita e spesso invisibilmente normata”[8].
Il paradosso è evidente: la precisione numerica dell’IA non garantisce maggiore equità o qualità, ma può consolidare distorsioni preesistenti, mascherandole da oggettività scientifica.
L’impiego dell’Intelligenza Artificiale (IA) in contesti decisionali, quali la sanità, l’istruzione, la giustizia e il lavoro, solleva interrogativi complessi riguardo all’etica della delega. Nel momento in cui un sistema stabilisce chi è legittimato a ricevere un servizio, chi merita una valutazione positiva o chi è “idoneo”, la responsabilità del giudizio si dissocia dall’azione umana deliberata.
Luciano Floridi, con il concetto di algoretica[9], formula una riflessione etica sulla qualità delle decisioni automatizzate. Tuttavia, l’etica algoritmica incontra delle difficoltà nel gestire l’unicità dell’essere umano, in quanto emozioni, eccezioni e contesto non possono essere facilmente formalizzati.
Quando l’Intelligenza Artificiale assume il ruolo di arbitro principale della qualità, si consolida una monocultura quantitativa.
Verso una scienza della qualità: le prospettive etiche
Come sostenuto da Pierpaolo Donati, “la qualità non è una proprietà intrinseca, ma piuttosto una relazione dinamica tra soggetti, valori, contesti e responsabilità.”[10].
Riconosciuti i limiti epistemologici del dato e il ruolo insostituibile della decisione umana, si impone una ridefinizione radicale della qualità, che deve essere etica, riflessiva e contestuale. Una “scienza della qualità” non può fondarsi esclusivamente su metriche e modelli. È necessario integrare giustizia, equità, pluralismo e trasparenza, trasformando la qualità in un imperativo etico e in un progetto epistemologico.
La qualità misurabile è soggetta a standard prestabiliti quali l’efficienza, l’efficacia e la performance. Tuttavia, tale riflessione solleva interrogativi circa il senso, l’impatto e la coerenza tra i mezzi e i fini. Secondo Donald Schön, “l’azione competente si caratterizza per una riflessione continua durante l’azione stessa, una capacità di problematizzazione delle routine e un’apertura all’imprevisto”. Jean-Louis Le Moigne, con la sua teoria delle “situazioni concrete”, invita ad effettuare una valutazione alla luce dell’interazione complessa tra soggetti, contesti e finalità. La qualità, pertanto, non rappresenta un concetto statico, bensì dinamico e processuale, in quanto è un processo che si sviluppa attraverso il dialogo e la trasformazione.
La qualità, intesa come valore etico, implica la consapevolezza che ogni giudizio implica una valutazione morale. La definizione di ciò che è “giusto”, “adeguato” o “di valore” richiede l’elaborazione di criteri espliciti, la loro discussione e la presentazione delle relative motivazioni. Michael Sandel sottolinea che “valutare è sempre assumere una posizione etica: la neutralità è un’illusione”. Nel caso dell’Intelligenza Artificiale, ciò comporta l’implementazione di presidi etici, quali la supervisione, la responsabilità verso le azioni intraprese e la partecipazione attiva. La qualità, come intesa in questo contesto, non è determinata unicamente dall’algoritmo, ma è definita collettivamente attraverso un processo deliberativo.
Una scienza della qualità, pertanto, deve necessariamente accogliere il pluralismo, riconoscendo che non esiste un unico modo di valutare, bensì una molteplicità di prospettive. Si propongono criteri integrati, sia quantitativi che qualitativi, oggettivi e soggettivi, esperienziali e strutturali. Daston, nel corso della sua analisi della storia degli standard, sostiene che “l’universalità delle regole deriva dalle tensioni tra uniformità e discrezione”. Una qualità etica si fonda sulla capacità di includere l’eccezione, interrogare il parametro e riconoscere la singolarità.
Il dialogo interdisciplinare e la co-produzione del sapere rappresentano due concetti fondamentali per comprendere le dinamiche contemporanee della ricerca accademica.
La qualità non può essere considerata come una caratteristica intrinseca del silenzio disciplinare, ma piuttosto come il risultato di un dialogo costruttivo. Per poter definire i criteri e valutarne l’adeguatezza, è necessario che le discipline coinvolte quali la filosofia, la sociologia, l’informatica, la pedagogia e la medicina, convergano. Secondo Jasanoff e Simmet, “la qualità emerge quando sapere scientifico e valori sociali si costruiscono insieme”[11]. Una scienza della qualità risulta pertanto più adeguata, in quanto più perspicace e in grado di apprendere dai contesti e di rendere visibile ciò che non è rilevato dai dati.
Conclusioni
In un’epoca caratterizzata dal predominio dei dati nel dominio scientifico, tecnologico ed etico, questo contributo ha messo in evidenza come la qualità non possa essere dedotta meccanicamente da cifre e modelli. Al contrario, si configura come un processo interpretativo, relazionale e profondamente umano.
Si è proceduto all’attraversamento delle criticità epistemologiche del paradigma della misurazione, mediante l’esplorazione delle teorie di Kuhn, Feyerabend e Lakatos, e la comprensione della complessità del ruolo svolto dall’Intelligenza Artificiale come agente epistemico. È stato evidenziato come la qualità, in ambiti cruciali quali la medicina, l’istruzione e la giustizia, non derivi dal calcolo, ma dalla responsabilità del giudizio, dalla capacità di considerare il singolo e l’imponderabile.
La riflessione proposta conduce così alla necessità di una “scienza della qualità” eticamente fondata, in grado di integrare criteri pluralistici, di riconoscere il valore dell’esperienza vissuta e di rendere trasparenti i processi decisionali, soprattutto quando affidati a sistemi automatizzati.
La qualità non può essere ridotta a un mero numero, ma deve essere compresa come una pratica di discernimento, un impegno epistemico, una responsabilità condivisa. Questo elemento consente di preservare il senso, anche in assenza di dati concreti.
L’ultima misura della qualità non è ciò che l’IA può calcolare, ma ciò che l’umanità si rifiuta di lasciare senza nome.
NOTE
[1] Rudolf Carnap, The Logical Syntax of Language, 1934
[2] Thomas Kuhun, La struttura delle rivoluzioni scientifiche, 1962
[3] Paul Feyerabend, Against Method, 1975
[4] Cathy O’Neil, Weapons of Math Destruction 2016.
[5] Michael Polanyi, Personal Knowledge 1958
[6] Helen Longino, The Fate of Knowledge, 2002.
[7] Virginia Eubanks, Automating Inequality 2018
[8] Virginia Eubanks, Automating Inequality 2018
[9] Luciano Floridi, Ethics of Information, 2013
[10] Pierpaolo Donati, Relational Sociology 2011
[11] Sheila Jasanoff, The Ethics of Invention: Technology and the Human Future, 2016
PAROLE CHIAVE: Epistemologia / Etica della decisione / Filosofia della scienza / intelligenza artificiale / qualità / Valutazione
Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.