
Il 26 giugno 2025 la Camera dei deputati ha trasmesso al Senato il Disegno di Legge 1146-B, che delega il Governo a legiferare in materia di intelligenza artificiale. Contestualmente, il Ministero del Lavoro e delle Politiche Sociali ha pubblicato le prime Linee guida sull’implementazione dell’IA nel mondo del lavoro, a chiusura di una fase di consultazione pubblica. Si tratta di un documento articolato in otto sezioni, pensato come strumento pratico per orientare imprese, professionisti e lavoratori nel processo di adozione delle nuove tecnologie.
Tra i temi di maggior rilievo, spiccano quelli dedicati all’inserimento dell’IA nei contesti aziendali, alla formazione e allo sviluppo delle competenze digitali, alla gestione dei rischi e all’individuazione di criteri per un uso responsabile e sicuro dell’intelligenza artificiale. Le Linee guida mettono in luce le opportunità ma anche i pericoli legati a una tecnologia in rapida evoluzione, che necessita di un inquadramento giuridico e organizzativo ancora in fase di assestamento.
Non manca, infatti, una certa distanza tra le indicazioni ministeriali e il quadro normativo europeo tracciato dall’AI Act (Regolamento UE 2024/1689), in vigore dal 2 agosto 2024. Un primo nodo riguarda la definizione stessa di “sistema di IA”, che resta oggetto di interpretazioni non univoche nonostante i chiarimenti offerti dalla Commissione europea nel febbraio scorso.
Un punto critico è il raccordo, tuttora mancante, tra le nuove Linee guida e la normativa nazionale già esistente. Ad esempio, resta poco esplorato il coordinamento tra l’uso di sistemi decisionali automatizzati e gli obblighi informativi previsti dal Dlgs 152/1997, senza contare le implicazioni derivanti dal GDPR in materia di profilazione, o dall’articolo 4 dello Statuto dei lavoratori in tema di controllo a distanza. Ancora più urgente, ma solo accennata, è la questione della sicurezza sul lavoro: l’impiego dell’IA può comportare non solo rischi fisici, come nel caso dell’automazione dei processi industriali, ma anche nuovi rischi psicosociali, legati al sovraccarico cognitivo, alla sorveglianza continua e alla deumanizzazione delle relazioni professionali.
In tal senso, le Linee guida fanno riferimento al principio della sorveglianza umana, previsto dall’art. 14 dell’AI Act, ma senza integrarlo esplicitamente con le disposizioni già operative del Dlgs 81/2008 e l’art. 2087 del codice civile, che impongono al datore di lavoro un obbligo permanente di valutazione e prevenzione del rischio. Eppure, proprio il rispetto anticipato delle prescrizioni dettate per i sistemi ad “alto rischio” potrebbe rappresentare una linea d’azione virtuosa, in vista dell’effettiva applicabilità delle norme europee prevista per il 2 agosto 2027.
Sul fronte organizzativo e gestionale, manca inoltre un’esplicita menzione agli obblighi introdotti dall’articolo 26 dell’AI Act in capo ai cosiddetti deployer, ossia i datori di lavoro che adottano un sistema di IA ad alto rischio, né si valorizza il supporto tecnico-normativo offerto dalla norma ISO/IEC 42001:2023, che già definisce i parametri per l’adozione di un sistema di gestione dell’intelligenza artificiale conforme.
L’aspetto forse più promettente delle Linee guida è quello legato alla formazione. Si auspica che la proposta di istituire centri di competenza in materia di IA trovi presto attuazione, specie in un contesto dove l’alfabetizzazione digitale – come previsto dallo stesso AI Act – è considerata il primo baluardo contro gli effetti collaterali di un’automazione priva di consapevolezza, come l’automation bias, che rischia di compromettere l’autonomia decisionale dei lavoratori e l’equilibrio nei rapporti uomo-macchina.
In definitiva, le Linee guida ministeriali rappresentano un primo passo, utile ma ancora interlocutorio, verso l’integrazione dell’intelligenza artificiale nel mondo del lavoro. Serve ora un salto di qualità: un raccordo più stretto con la normativa esistente, una visione più organica dei rischi giuridici e una maggiore attenzione agli strumenti tecnico-operativi già disponibili. Perché l’IA non è un futuro lontano, ma un presente che bussa con insistenza alle porte delle nostre imprese e dei nostri diritti.

