• Presidente del Consiglio Didattico in Filosofia e Scienze Filosofiche dell'Università del Salento. Professore Associato di Storia della Filosofia per il Corso di Laurea in Filosofia, Scienza e Tecniche Psicologiche e Sociologia di Unisalento.

  • Docente a contratto per i corsi di laurea in Comunicazione e per il corso di laurea magistrale in Filologia Moderna dell’Università di Pavia, si occupa di cultura digitale e nuovi media. È tra i soci fondatori di Spindox (società di consulenza) e di Betwyll (startup innovativa che sviluppa tecnologie a supporto della didattica).

  • Responsabile Sezione Sustainability

    Responsabile dell’Area strategica trasformazione digitale ARTI - Agenzia regionale per la tecnologia e l'innovazione della Regione Puglia

Abstract

La necessità di uno sviluppo sostenibile “che soddisfi i bisogni del presente senza compromettere la possibilità delle generazioni future di soddisfare i propri” è entrata prepotentemente nell’Agenda del Paese. La sostenibilità è diventata un passaggio obbligato dei Piani strategici delle Aziende e trova spazio anche nel piano triennale di AGID per l’informatica pubblica. In particolare, la transizione digitale da una parte pone problemi di sostenibilità (si pensi, ad esempio, a quanto le risorse di calcolo per l’intelligenza artificiale consumino acqua ed energia) dall’altro abilita potenzialità che non sarebbero possibili senza la tecnologia.
La transizione digitale, quindi, deve essere sostenibile, ma soprattutto la transizione digitale può creare sostenibilità. In questa rubrica si affronteranno i vari aspetti della sostenibilità digitale in tale duplice connotazione e il delicato equilibrio sotteso alle due visioni, ricco di opportunità ma non esente da rischi.

In questo primo appuntamento della rubrica ho coinvolto il Prof. Fabio Ciracì, Direttore Scientifico del Centro di ricerca interdipartimentale in Digital Humanities dell’Università del Salento e il Prof. Paolo Costa, Professore di Digital Humanities e di Comunicazione Multimediale presso l’Università degli Studi di Pavia su un aspetto specifico: esiste un equilibrio tra innovazione e sostenibilità delle tecnologie dell’intelligenza artificiale nel mondo delle professioni?

Prof. Ciracì, parliamo di impatto dell’intelligenza artificiale sulle professioni tradizionali, in che modo pensa che l’AI possa trasformare le competenze richieste nel mondo del lavoro e quali strategie suggerirebbe per preparare i professionisti a questa transizione?

«Questa è certamente una delle domande più urgenti a cui siamo tenuti a rispondere. Al momento sappiamo solo che l’AI avrà un impatto profondo e significativo sul mondo del lavoro. L’AI rappresenta una tecnologia inedita e profondamente trasformativa. Certo, tutte le tecnologie sono in qualche misura trasformative. Per esempio, gli antibiotici hanno prodotto un aumento esponenziale della popolazione mondiale nel secolo scorso. Tuttavia, la trasformazione digitale ha una velocità superiore alla capacità di assorbimento e trasformazione armonica delle società. Da un lato, l’IA può essere utilizzata per automatizzare compiti ripetitivi e noiosi, liberando le persone dall’onere di lavori faticosi e noiosi, permettendo attività maggiormente creative e stimolanti. Dall’altro lato, l’IA può anche portare alla perdita di posti di lavoro, soprattutto in settori come la produzione e i servizi. Secondo un rapporto del World Economic Forum, l’IA potrebbe creare 58 milioni di nuovi posti di lavoro entro il 2025 a fronte di una perdita di 75 milioni. Il saldo è negativo. I lavoratori più competitivi saranno quelli con competenze digitali e capacità di problem solving. Se da un lato potremmo lavorare di meno e produrre di più, dall’altro lato si potrebbero creare sacche di disoccupazione endemica, dovuta all’obsolescenza di alcuni mestieri e a lavori irrigiditi in vecchi schemi produttivi. Di certo, il futuro sarà dei creativi e, più in generale, genererà lavori ibridi, a cavallo tra settori differenti. Gli Stati dovranno allora attivare programmi di riqualificazione e adattamento delle competenze su larga scala.

Bisogna però essere tempestivi, non aspettare effetti irreversibili sulla società. In quanto vettore di potere trasformativo, l’AI può dimostrarsi un utile strumento di ridistribuzione di risorse, servizi e benefici se orientata al bene pubblico; diversamente, potrebbe rappresentare un fattore di sperequazione di risorse e di iniquità sociale»

Prof. Costa, volendo approfondire l’impatto dell’AI sulle professioni creative, ritiene condivisibile la paura di una sostituzione del lavoro delle persone dalla tecnologia?

«Intanto occorre dire che lo straordinario sviluppo dell’intelligenza artificiale degli ultimi 3-4 anni rappresenta solo l’ultima manifestazione di un fenomeno di ordine più generale: il consolidarsi del paradigma digitale in tutti gli ambiti della vita sociale. In questo senso, l’intelligenza artificiale agisce in connessione con le ondate che l’hanno preceduta e che, in qualche modo, ne hanno preparato il terreno: accesso universalmente diffuso a Internet (prima ondata), mobile computing (seconda ondata), cloud/edge computing (ovvero distribuzione di servizi di calcolo tramite la Rete, terza ondata). Se vogliamo, c’è un’ulteriore ondata di cui ci dovremo occupare nel 2024 e – ancor di più – nel 2025, a partire dalla diffusione dei dispositivi di Apple Vision Pro: quella relativa allo spatial computing.

Per formulare qualche ipotesi sui cambiamenti che ci possiamo aspettare, riguardo al modo di svolgere la maggior parte delle attività umane di tipo intellettuale, occorre ricordare che l’intelligenza artificiale esibisce oggi due capacità.

La prima capacità è quella di risolvere problemi e prendere decisioni tramite l’utilizzo di tecniche e modelli matematici, ovvero mediante calcoli. Il suo impiego, dunque, sarà sempre più rilevante in tutte le attività in cui, appunto, si richiede di indirizzare problemi complessi e prendere decisioni in tempi rapidi, in un contesto di incertezza. L’intelligenza artificiale, insomma, supporta il problem solving, in quanto aiuta a formulare velocemente previsioni accurate in scenari complessi.

La seconda capacità, conseguita in tempi più recenti e tipica della cosiddetta intelligenza artificiale generativa, riguarda la simulazione di artefatti umani: testi, immagini e suoni. All’intelligenza artificiale possiamo affidare il compito di selezionare specifici documenti all’interno di vasti corpi, riprodurne il contenuto, riassumerlo, ordinarlo, variarlo e tradurlo da una lingua all’altra o da una modalità all’altra (per esempio, un testo diventa un’immagine o un suono, un’immagine diventa un testo ecc.) Parliamo dunque di una forma di creatività sintetica, per quanto l’espressione “creatività” sia usata qui in senso metaforico.

Chi lavora nel mondo della conservazione di opere d’arte, libri, documenti e artefatti deve quindi domandarsi in che modo questa duplice capacità possa aggiungere valore al modo di operare umano, senza necessariamente pensare a una sostituzione. Lo scenario più plausibile è quello di un affiancamento, in cui l’essere umano e la macchina si divideranno i compiti in funzione delle rispettive abilità.

Facciamo alcuni esempi.

Per quanto riguarda la prima capacità, possiamo immaginare un impiego sempre più massiccio di modelli matematici sia a supporto della visione artificiale (riconoscimento e analisi dei materiali, diagnostica delle opere d’arte e dei documenti d’archivio, studi paleografici, datazioni e attribuzioni ecc.) sia per l’analisi testuale (filologia computazionale), soprattutto quando potenziata dalla collaborazione allo studio di una stessa opera di gruppi di ricercatori coordinati in rete. Un ulteriore ambito applicativo è quello a supporto della didattica.

Con riferimento alla seconda capacità, invece, quello che ci si può attendere è un modo nuovo di organizzare la conoscenza, articolata in patrimoni documentali sempre più vasti, che vengono acceduti, letti e classificati tramite sistemi di tipo RAG (retrieval-augmented generation), fornendo risposte sempre più puntuali quando ci muoviamo all’interno di archivi di dimensioni “disumane”».

Quindi Prof. Costa, potremmo immaginare un futuro molto prossimo in cui valorizzeremo sempre più questa tecnologia in affiancamento alle competenze e alla creatività umana, ma con riferimento all’altro aspetto che genera molta preoccupazione e cioè l’impatto ambientale qual è il suo pensiero?

«Dal mercato dei microchip giungono segnali piuttosto chiari, in questo inizio d’anno: la fame di capacità di calcolo non si placa ed è stimolata soprattutto dal settore dell’intelligenza artificiale generativa. Ovviamente più capacità di calcolo significa più risorse energetiche da mettere in campo.

L’intelligenza artificiale generativa richiede immani risorse di calcolo. E, conseguentemente, di energia elettrica. In base alle stime formulate dalla International Energy Agency, già oggi i data center sono responsabili dell’1-1,5% dei consumi totali di energia elettrica. La diffusione di tecnologie come GPT-4, Bert e LLaMa rischia di aggravare il quadro, rendendo il bilancio energetico dell’ecosistema digitale sempre meno sostenibile. Nel 2019, per esempio, Emma Strubell, Ananya Ganesh e Andrew McCallum hanno calcolato che per addestrare e sviluppare Bert, con i suoi 110 milioni di parametri, sia stata consumata una quantità di energia pari a quella di un volo transcontinentale di andata e ritorno per una persona. Le cose vanno anche peggio per GPT-3, molto più grande e con 175 miliardi di parametri.

Secondo David Patterson e altri, l’addestramento del primo LLM di successo di OpenAI ha comportato il consumo di 1.287 megawattora di elettricità e ha generato 552 tonnellate di anidride carbonica equivalente, più o meno quanto 123 veicoli passeggeri alimentati a benzina guidati per un anno. Possiamo solo immaginare, a questo punto, l’impatto energetico di GPT-4, che si basa su 100 trilioni di parametri.

È interessante, in questo senso, seguire le analisi di Alex de Vries, il quale dal 2014 raccoglie dati sulle conseguenze negative – in una prospettiva ambientale – dell’ecosistema digitale. Gli studi di de Vries sono disponibili sulla piattaforma informativa Digiconomist. Ora de Vries formula alcune ipotesi per il futuro, basandosi sulla possibile evoluzione del mercato dei sistemi di intelligenza artificiale generativa. Se, per esempio, NVIDIA dovesse effettivamente consegnare 1,5 milioni di server AI all’anno entro il 2027, tutte queste unità hardware consumerebbero almeno 85,4 terawattora di elettricità all’anno, una quantità superiore a quella utilizzata da molti piccoli paesi (del ruolo di NVIDIA nella partita dell’intelligenza artificiale generativa abbiamo parlato qui). Se poi nel prossimo futuro i motori di ricerca arrivassero a funzionare come Bard o ChatGPT, Google Search consumerebbe la stessa quantità di energia dell’Irlanda intera

Prof Ciracì, è possibile immaginare un equilibrio tra Innovazione tecnologica e Sostenibilità? Uno sviluppo dell’intelligenza artificiale che sia non solo innovativo ma anche sostenibile e inclusivo?

«Le innovazioni tecnologiche si valutano sempre sulla base del rapporto tra costi e benefici. Se l’investimento iniziale ripaga i costi, allora l’innovazione funziona. Qui interviene però il concetto di sostenibilità, che non vuol dire semplicemente fare i conti con l’impatto della tecnologia sull’ambiente, ma anche su società ed economia. Si tratta di tre dimensioni tra di loro strettamente intrecciate, in relazione alle quali occorrono strategie correttive di eventuali effetti negativi, pensando però non solo in termini “compensativi”, ma anche in termini di sviluppo e di nuove opportunità. L’AI applicata a sistemi di distribuzione idrica, per esempio, possono rappresentare una risorsa fondamentale per il risparmio dell’acqua da impiegare in agricoltura. Non è un caso che la Fondazione per la Sostenibilità Digitale diretta da Stefano Epifani abbia dedicato al tema “acqua” un gruppo verticale (idem per “discriminazioni e inclusività”). Tuttavia, la scelta di utilizzare o meno l’AI in senso redistributivo e democratico è politica e istituzionale. Gli onerosi costi di sviluppo delle AI impongo il ricorso ad “ambienti ibridi”, integrati con tecnologie sostenibili. Magari, anche la condivisione dei risultati di data-training e delle strategie di correzione di bias e allucinazioni. In relazione all’uomo, invece, occorre pensare a una nuova dimensione dell’agire umano, a un “ecosistema simbiotico”, in cui i sistemi di AI collaborano con l’essere umano cercando di svilupparne le capacità in maniera armonica (Symbiotic AI). Molto si giocherà su come collaborare con l’AI, abituandoci a interagire con essa, stimolando la nostra creatività e immaginazione, evitando una sostituzione integrale della persona, affinché non si disabitui a scrivere o a pensare autonomamente. Le discipline umanistiche possono contribuire a definire una prospettiva critica sull’utilizzo dell’AI, analizzando le implicazioni su società e individuo dell’uso dell’AI, ripensando non solo il mondo del lavoro ma più in generale l’agire umano. Tutto questo però deve avvenire in maniera non ingenua: la dialettica tra tecnologia e potere è complessa, tutt’altro che trasparente. Si possono generare tecnologie che aiutano a plasmare politiche e pratiche in favore dell’innovazione sostenibile e dell’inclusività. Ma si possono anche produrre tecnologie per il controllo sociale e per la ridefinizione dei perimetri del potere.

Una tecnologia senza riflessione critica sarebbe cieca o, peggio, adusa alla logica del profitto, senza alcun riguardo per la persona umana. Invece, una filosofia indifferente al ruolo della scienza o della tecnologia sarebbe solo un gioco ozioso, forse un lusso irragionevole.»

È quindi necessario un presidio attento e consapevole, che richiede un coinvolgimento attivo delle istituzioni. Veniamo ora al mondo della PA: mi sono chiesta quanto e come impatta l’AI sulla professione di Responsabile per la Transizione Digitale di una PA? “L’intelligenza artificiale ha il potenziale per essere una tecnologia estremamente utile, o addirittura dirompente, per la modernizzazione del settore pubblico. L’IA sembra essere la risposta alla crescente necessità di migliorare l’efficienza e l’efficacia nella gestione e nell’erogazione dei servizi pubblici.” Con questa premessa, il Piano Triennale per l’Informatica 24-26, documento strategico per eccellenza per la digitalizzazione del Paese, introduce il tema dell’Intelligenza Artificiale nella PA. Rilevante sottolineare come nel documento vengano definiti i “principi generali per l’utilizzo” dell’AI; dunque, delle regole alle quali ogni RTD deve attenersi. Ma non solo, così come previsto dalla nuova struttura del piano che per ogni capitolo riepiloga obiettivi e azioni realizzative a carico delle istituzioni e delle PA, anche in riferimento all’AI ci sono “i compiti a casa” per le PA, con specifici target temporali: già dicembre 2025 indica il termine entro cui: “Le PA adottano le Linee per promuovere l’adozione dell’IA nella Pubblica Amministrazione…, Le PA adottano le Linee guida per il procurement di IA nella Pubblica Amministrazione, Le PA adottano le Linee guida per lo sviluppo di applicazioni di IA nella Pubblica Amministrazione…”.

L’IA deve quindi entrare a pieno titolo nella programmazione strategica di ciascun ente e deve essere supportata da un’adeguata strategia di gestione dei dati, in coerenza con i principi sopra richiamati. Tra i principi legati all’utilizzo dell’AI troviamo “… Le pubbliche amministrazioni investono nella formazione e nello sviluppo delle competenze necessarie per gestire e applicare l’intelligenza artificiale in modo efficace nell’ambito dei servizi pubblici…” Ma quali sono le competenze necessarie? In primis è necessario prevedere un profilo di esperto di apprendimento automatico e di intelligenza artificiale che possa supportare le attività di sviluppo e gestione di soluzioni basate su AI, non può mancare uno specialista dedicato a presidiare il tema della AI conforme ai principi etici e legali, così come bisogna prevedere una figura esperta di gestione, analisi e sicurezza dei dati. Ritengo altresì necessaria la competenza di una risorsa esperta di sostenibilità digitale che possa guidare lo sviluppo della soluzione tecnologica anche in relazione all’impatto sulle dimensioni ESG. Infine servirà l’esperto del dominio nel quale la soluzione di intelligenza artificiale deve essere applicata, perché l’obiettivo resta l’efficacia del servizio. Al RTD spetta la competenza della visione strategica e della capacità di mettere insieme la squadra che esprima tutte le “competenze necessarie” estremamente diversificate, di farla dialogare, di armonizzare le attività, di conciliare lo slancio verso la tecnologia di frontiera con i vincoli normativi. In realtà il RTD ha già in sé questa vocazione, è stato proprio il legislatore che ha definito questo particolare profilo quando nell’art. 17 del CAD e successivamente con la circolare Bongiorno del 2018, gli ha attribuito una serie di specifiche responsabilità, dotandolo di un ufficio che disponesse delle competenze necessarie anche se appartenenti a figure di altre aree dell’ente, attribuendogli la capacità di costituire e formalizzare gruppi di lavoro dedicati per specifici progetti, enfatizzando così la trasversalità e la pervasività della digitalizzazione in tutti i settori della pubblica amministrazione e l’esigenza di progettare degli interventi condivisi e pervasivi.

Al RTD spetta un altro grande compito che viene spesso poco evidenziato ed è quello di dover creare all’interno del proprio ente un ambiente fertile per accrescere la consapevolezza dell’importanza della transizione digitale, vincere la resistenza al cambiamento, coinvolgere le persone nei percorsi di formazione e nella definizione dei nuovi processi da attivare, dei nuovi progetti di digitalizzazione da realizzare, nei nuovi strumenti tecnologici da utilizzare.

Se poi si parla di progetti tecnologici basati su AI, la resistenza al cambiamento si alimenta anche di un acceso dibattito che campeggia su tutti i media legato alla paura di una tecnologia in dirompente evoluzione e che porta con sé nell’immaginario collettivo la sostituzione dell’uomo con la macchina. In questa direzione un ruolo molto importante può essere giocato dall’attuazione all’interno della strategia di digitalizzazione di ciascun ente del principio della sostenibilità digitale. La misurazione attraverso specifiche metriche e kpi degli impatti diretti e indiretti che la transizione digitale genera sulle dimensioni ESG può essere utile e funzionale ad aumentare la percezione del purpose-oriented che sempre più caratterizza l’ingaggio positivo del far parte del mondo della PA. Riuscire a dare evidenza di quanto la digitalizzazione di una procedura possa agevolare il wellbeing, di come si possano raggiungere risultati positivi in termini di inclusione e accessibilità o di come più in generale le scelte tecnologiche possano concorrere al raggiungimento degli obiettivi SDGs, è il primo passo per comunicare correttamente che la tecnologia, qualunque essa sia, è uno strumento che agevola il percorso di cambiamento delle professioni della PA verso organizzazioni innovative incentrate su impegno, responsabilità e competenze e che garantiscano efficacia, efficienza, sostenibilità e qualità della vita.

Vorrei concludere evidenziando un ultimo importante aspetto per uno sviluppo sostenibile delle tecnologie basate su AI ed è quello di scegliere un approccio corale per cogliere le opportunità e fronteggiare le sfide come “territorio”, mettere insieme mondo pubblico, privato e mondo accademico per aumentare la capacità di esprimere competenze, intercettare esigenze e sviluppare soluzioni concrete.

A questo proposito, l’ing. Cosimo Elefante, RTD di Regione Puglia descrive così la recente istituzione Centro di Competenza regionale sull’Intelligenza Artificiale nella Pubblica Amministrazione. «Il Centro ha lo scopo di indagare analizzare comprendere monitorare e valutare tutte le implicazioni (etiche, normative, infrastrutturali, economiche etc) e la sostenibilità di applicazioni, sistemi, strumenti e soluzioni di intelligenza artificiale nella Pubblica Amministrazione regionale. Il Centro promuove la redazione di linee di indirizzo, specifiche attività di ricerca, formazione e studio anche tramite costituzione di tavoli di lavoro. Si tratta di un concreto modello per la sperimentazione di applicazioni, sistemi, strumenti e soluzioni di intelligenza artificiale in ambito regionale all’interno di processi e sistemi dell’Ente coinvolgendo allo scopo anche la Rete degli RTD delle agenzie e delle in-house regionali.» Il Centro è coordinato dal Responsabile della Transizione Digitale regionale ed è composto da un Comitato Tecnico, di cui fanno parte, tra l’altro, le Università del territorio e l’Agenzia per l’Italia Digitale.

PAROLE CHIAVE: competenze / innovazione / intelligenza artificiale / professioni / RTD / sostenibilità / tecnologie / transizione digitale

Condividi questo contenuto su