• Responsabile Sezione Digital AFC e Digital Tax

    Esperto di digitalizzazione, Manager del Gruppo Enel con qualifica di Director. Componente del Comitato tecnico-scientifico di ANORC Professioni.

Abstract

Lo scorso 13 marzo il Parlamento europeo ha votato per l’approvazione del primo quadro normativo al mondo per la regolamentazione dell’intelligenza artificiale: Artificial Intelligence Act (la “legge sull’intelligenza artificiale”). Il Regolamento europeo intende bilanciare questa innovazione tecnologica, di cui ancora non si conoscono gli impatti nella società, con la protezione dei diritti fondamentali, della salute e della sicurezza della persona, definendo i limiti di utilizzo in molti campi, ma in particolare per i sistemi di intelligenza artificiale denominati “ad alto rischio” quando sono impiegati sui luoghi di lavoro e nei rapporti con il personale.

Il percorso di attuazione del Regolamento Europeo sull’IA

L’AI Act votato dal Parlamento Europeo il 13 marzo 2024 è stato successivamente approvato in data 21 maggio Consiglio dell’Unione europea, che rappresenta i governi degli Stati membri, e quindi adottato formalmente e pubblicato nella Gazzetta ufficiale dell’Unione europea ed entrerà in vigore venti giorni dopo.

L’attuazione avverrà gradualmente secondo le seguenti fasi:

  • le disposizioni relative ai divieti di pratiche considerate inaccettabili si applicheranno sei mesi dopo l’entrata in vigore, in quanto le tematiche più delicate, relative all’etica e alla sicurezza, si devono affrontare entro un termine relativamente breve;
  • i codici di buone pratiche seguiranno dopo nove mesi, dando tempo alle organizzazioni di adeguare la loro operatività;
  • le norme di governance generali a tutte le aziende e le PA saranno applicate dopo 12 mesi;
  • entro due anni dall’entrata in vigore il Regolamento sarà pienamente applicabile, tranne gli obblighi per i sistemi ad alto rischio che avranno tempo 36 mesi.

I sistemi di IA ad “alto rischio”

Il Regolamento comunitario pone dei limiti importanti nell’utilizzo di sistemi di intelligenza artificiale ad “alto rischio” ossia quelli che presentano un rischio di danno per la salute, la sicurezza e i diritti fondamentali delle persone fisiche e che sono elencati nell’Allegato 3.

I sistemi di IA ad alto rischio vengono suddivisi in otto diversi ambiti di utilizzo, ma con riferimento al mondo del lavoro risultano particolarmente importanti quelli utilizzati nei seguenti campi:

  • sistemi di IA destinati a essere utilizzati per l’assunzione o la selezione di persone fisiche, in particolare per la pubblicità delle offerte di lavoro mirate, l’analisi o il filtraggio delle candidature, la valutazione dei candidati nel corso di colloqui o test;
  • sistemi di IA destinati a essere utilizzati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro.

Chiaramente si tratta di ambiti che possono incidere molto sulla vita delle persone e spersonalizzare i rapporti umani.

Infatti, in base a quanto stabilito dall’art. 26 del Regolamento sugli obblighi degli operatori, il datore di lavoro che ricorra ad un sistema di IA ‘ad alto rischio’ per l’adozione di decisioni riguardanti i rapporti di lavoro, è tenuto a:

  1. adottare misure tecniche ed organizzative tali da garantire l’uso del sistema di IA in stretta osservanza delle istruzioni d’uso indicate dal Fornitore mediante apposita documentazione tecnica;
  2. affidare l’attività di sorveglianza umana (human oversight) sul funzionamento del sistema di IA ad una persona fisica, lavoratore subordinato o autonomo, che sia dotata di necessarie competenze, training, nonché poteri e ruoli aziendali che assicurino l’effettivo svolgimento di tale attività. A detta persona designata dal datore di lavoro deve essere assicurato il necessario supporto e garantite le opportune condizioni per lo svolgimento dell’attività.

Le suddette misure organizzative devono essere opportunamente raccordate con quanto disposto dall’art. 22 del Regolamento (UE) del 27 aprile 2016, n. 679 in materia di processi decisionali automatizzati e profilazione, e dall’art. 1-bis del D.Lgs. 26 maggio 1997, n. 152 – introdotto dal D.Lgs 27 giugno 2022, n. 104 – che disciplina gli obblighi informativi in capo al datore di lavoro nel caso di utilizzo di sistemi decisionali o di monitoraggio integralmente automatizzati.

Inoltre, il Regolamento UE sull’IA vieta l’introduzione di sistemi di riconoscimento delle emozioni sul luogo di lavoro, l’uso sistemi di categorizzazione biometrica per dedurre  informazioni sensibili sugli individui, nonché l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.

Possibili utilizzi nel mondo del lavoro e obblighi di comunicazione

L’intelligenza artificiale può essere utilizzata come componente di sistemi per la sicurezza dei lavoratori (come le tute ergonomiche per la prevenzione e il controllo delle malattie muscolo-scheletriche) o di sistemi di monitoraggio della prestazione (come nel caso dell’uso di algoritmi per il controllo a distanza) e può fornire in tempo reale moltissimi dati che vengono costantemente raccolti ed analizzati per prendere decisioni.

I sistemi di IA – seppur classificati come “ad alto rischio” dall’Allegato III – possono poi essere utilizzati nel campo dell’istruzione o della formazione professionale, per esempio per determinare l’ammissione o l’assegnazione delle persone a istituti o programmi d’istruzione e formazione professionale a tutti i livelli, o per valutare il grado di apprendimento delle persone. In questi casi è importante proteggere il diritto all’istruzione e alla formazione, evitando di limitare percorsi o progressioni di carriera sulla base di discriminazioni, per esempio, nei confronti delle donne, delle persone disabili o per alcune caratteristiche come l’orientamento sessuale e l’età.

Ad esempio, nel 2018 Amazon si è resa conto che il software di assunzione che stava sviluppando da quattro anni assegnava ai candidati qualificati di sesso femminile un punteggio inferiore alle loro controparti maschili. Il motivo era semplice. L’intelligenza artificiale era stata addestrata sulla base dei precedenti dati di assunzione dell’azienda e, poiché gli uomini dominano l’industria tecnologica, aveva deciso che i candidati maschi erano preferibili alle donne.

Secondo il Considerando 92 “Il Regolamento lascia impregiudicati gli obblighi dei datori di lavoro di informare o di informare e consultare i lavoratori o i loro rappresentanti a norma del diritto e delle prassi dell’Unione o nazionali, compresa la direttiva 2002/14/CE del Parlamento europeo e del Consiglio che istituisce un quadro generale relativo all’informazione e alla consultazione dei lavoratori, in merito alle decisioni di mettere in servizio o utilizzare sistemi di IA. Rimane necessario garantire che i lavoratori e i loro rappresentanti siano informati in merito alla diffusione programmata dei sistemi di IA ad alto rischio sul luogo di lavoro, qualora non siano soddisfatte le condizioni per tali obblighi di informazione o di informazione e consultazione previsti da altri strumenti giuridici”.

Nell’ambito dell’ordinamento italiano, come accennato in precedenza, ricordiamo l’art. 1-bis del Decreto legislativo 26/05/1997, n. 152, come modificato dal Decreto-legge n. 48/2023 che obbliga il datore di lavoro o committente pubblico a rispettare gli obblighi di informazione ai lavoratori, anche per il tramite delle rappresentanze sindacali, sul funzionamento dei sistemi decisionali o di monitoraggio nel caso in cui siano integramente automatizzati.

Nello specifico, la norma prevede che, in modo chiaro e trasparente (art. 3 del D.Lgs. 27 giugno 2022, n. 104), siano rese informazioni, ad esempio, circa:

  • gli aspetti del rapporto di lavoro sui quali incide l’utilizzo di tali sistemi ;
  • gli scopi e le finalità per le quali l’utente-datore di lavoro ricorre a tali sistemi nonché le relative logiche  funzionamento;
  • le categorie di dati e i parametri principali utilizzati per programmare o addestrare il sistema, inclusi i meccanismi di valutazione delle prestazioni;
  • le misure di controllo adottate per le decisioni automatizzate.

L’attività di sorveglianza umana

Ai fini di un corretto impiego di un sistema di IA ad alto rischio da parte di un datore di lavoro-utente, assume particolare rilievo l’attività di ‘sorveglianza umana’ (human oversight), disciplinata dall’art. 14 del Regolamento comunitario.

In particolare, si prevede che sistemi di IA ad alto rischio siano progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati che consentano di poter essere efficacemente supervisionati da persone fisiche mentre sono in uso, in modo da prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere.

Le persone fisiche alle quali è affidata la sorveglianza umana devono avere la possibilità di:

  1. comprendere correttamente le capacità e i limiti pertinenti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, anche al fine di individuare e affrontare anomalie, disfunzioni e prestazioni inattese;
  2. essere consapevoli della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull’output prodotto da un sistema di IA ad alto rischio (“distorsione dell’automazione”), in particolare per i sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche;
  3. interpretare correttamente l’output del sistema di IA ad alto rischio, tenendo conto ad esempio degli strumenti e dei metodi di interpretazione disponibili;
  4. decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output del sistema di IA ad alto rischio;
  5. intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di “arresto” o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza.

Con particolare riferimento ai sistemi di identificazione biometrica remota, inoltre, le misure di sorveglianza umana devono garantire che non vengano assunte decisioni solo sulla base dell’identificazione risultante dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della necessaria competenza, formazione e autorità.

Fatti salvi gli obblighi in materia di sorveglianza umana, gli utilizzatori di sistemi di IA ad alto rischio sono tenuti a informare senza ritardo sia il fornitore (nonché gli eventuali distributori), sia la preposta autorità di vigilanza, qualora abbiano motivo di ritenere che l’uso del sistema di IA possa presentare un rischio per la salute o la sicurezza o per i diritti fondamentali delle persone.

In conclusione

E’ chiaro che le parole chiave nell’attività di supervisione, sono competenza, consapevolezza, etica e responsabilità in quanto la persona incaricata deve avere solide capacità di lettura e d’interpretazione dei risultati delle elaborazioni del sistema, accompagnate da apposite procedure e controlli  affinché le evidenze raccolte siano sottoposte all’analisi degli organi direttivi dell’impresa al fine di garantire il corretto impiego del sistema di IA e il miglioramento e affinamento continuo dello stesso.


NOTE

Regolamentazione dell’intelligenza artificiale: Artificial Intelligence Act (la “legge sull’intelligenza artificiale”) del 13 marzo 2024

Sistemi d’intelligenza artificiale ad alto rischio e obblighi del datore di lavoro di  Luca Barbieri e Andrea Rossetti Sole24ore, Norme e Tributi PLUS Lavoro 4 Aprile 2024

Decreto Legislativo 27 giugno 2022, n. 104 – Attuazione della direttiva (UE) 2019/1152 del Parlamento europeo e del Consiglio del 20 giugno 2019, relativa a condizioni di lavoro trasparenti e prevedibili nell’Unione europea.

Indice

PAROLE CHIAVE: intelligenza artificiale / lavoro / regolamento europeo / rischio

Condividi questo contenuto su