Stretta sul lavoro con l’intelligenza artificiale, cosa dice la legge approvata dall’Italia

Via libera alla prima legge nazionale sull’AI in Europa: nuove regole e obblighi per professionisti e imprese che utilizzano queste tecnologie. L’Italia è il primo Paese UE ad adottare un quadro normativo completo.

Foto di Claudio Garau

Claudio Garau

Editor esperto in materie giuridiche

Laureato in Giurisprudenza, con esperienza legale, ora redattore web per giornali online. Ha una passione per la scrittura e la tecnologia, con un focus particolare sull'informazione giuridica.

Pubblicato:

L’intelligenza artificiale vive un periodo di grande popolarità perché studenti, lavoratori, imprese, enti pubblici e privati cittadini ne stanno scoprendo le innumerevoli potenzialità e la varietà dei campi di utilizzo. Tuttavia, è anche una sorta di modernissimo giocattolo che rischia di sfuggire di mano, se utilizzato in modo sconsiderato e non sufficientemente attento. Ben si comprende, allora, il via libera alla prima legge quadro in materia, la legge 132/2025 pubblicata in Gazzetta Ufficiale pochi giorni fa.

Con 77 voti favorevoli, 55 contrari e 2 astensioni, il Senato ha approvato definitivamente il disegno di legge che include disposizioni e deleghe al Governo per la regolamentazione dell’uso dell’intelligenza artificiale. La finalità di fondo è sfruttare i benefici offerti dalla tecnologia, ma sempre prestando grande attenzione alla tutela dei dati personali, dei minori, dei lavoratori e alla protezione dai rischi economici e sociali derivanti da un uso sregolato o incontrollato dell’IA.

Le nuove regole sull’uso dell’IA per datori di lavoro e lavoratori

In Europa è la prima legge quadro nazionale a recepire principi e obblighi del regolamento Ue 2024/1689 sull’uso dell’intelligenza artificiale.

In più articoli del testo compaiono disposizioni di carattere generale anche in materia di occupazione, finalizzate (almeno nelle intenzioni degli autori) a promuovere uno sviluppo etico, sicuro e trasparente dell’alta tecnologia, oggi presente anche nelle scuole. Non a caso, per accelerare competitività e adozione, il testo attiva un programma di investimenti da un miliardo di euro a favore di startup e Pmi nei campi dell’IA, della cybersicurezza e delle tecnologie emergenti, sostenendo trasferimento tecnologico e filiere strategiche.

Pur riconoscendo la diffusione capillare dell’intelligenza artificiale, la legge 132/2025 ribadisce la centralità dell’essere umano, che non deve mai essere sostituito dalla macchina, per evitare il rischio di compromettere libertà costituzionali, diritti fondamentali, sicurezza, protezione dei dati personali e principi di non discriminazione (per sesso, età, etnia, credo religioso, ecc.).

Obblighi di informazione dell’azienda sull’intelligenza artificiale

Dopo alcune righe che definiscono l’utilità della tecnologia per migliorare le condizioni lavorative, tutelare l’integrità psicofisica dei lavoratori e accrescere la qualità delle prestazioni e produttività, all’articolo 11 c’è un importante avvertimento:

l’uso dell’intelligenza artificiale non può mai contrastare la dignità umana o penetrare nella sfera di riservatezza individuale.

In particolare, il datore di lavoro o il committente è tenuto a informare il lavoratore dell’utilizzo dell’IA nei casi e con le modalità previste dall’art. 1-bis del d. lgs. 152/1997, che attua l’importante direttiva 91/533/Cee.

Il controllo dell’uomo e il ruolo dell’Osservatorio

In sostanza, è sempre l’individuo a dover garantire il controllo sull’intelligenza artificiale, che deve restare un mero strumento al servizio della decisione finale del proprio cervello. In questo modo, la tecnologia, nell’organizzazione e nella gestione del rapporto, non rischia mai di trasformarsi in una minaccia per i diritti inviolabili del lavoratore. Non a caso, agli artt. 14 e 15 della legge quadro, vengono fatti gli esempi di un uso virtuoso dell’IA nel campo delle attività delle Pubbliche amministrazioni e dei tribunali.

Per garantire il rispetto delle norme generali, all’art. 12 della legge quadro è menzionato un ente apposito e istituito presso il Ministero del Lavoro. Oltre a promuovere la formazione di aziende e dipendenti in materia, l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro avrà tre distinti obiettivi:

  • definire una strategia sull’uso dell’IA in ambito lavorativo;
  • monitorare il suo impatto sul mercato dell’occupazione;
  • identificare i settori lavorativi più interessati dalla diffusione di questa tecnologia.

Il ruolo dell’Osservatorio sarà centrale e svolto nell’esclusivo interesse della collettività. Infatti, ai suoi membri non andranno gettoni di presenza, rimborsi di spese o altri compensi di qualsiasi tipo, perché il  funzionamento dell’Osservatorio non comporterà nuovi o maggiori oneri a carico della finanza pubblica.

Le previsioni in tema di professioni intellettuali

Un’altra previsione che qui interessa riguarda specificamente l’uso dei sistemi di intelligenza artificiale nelle professioni intellettuali. All’art. 13, a sottolineare i confini della correttezza delle attività, gli autori della legge quadro affermano che la tecnologia dovrà essere usata esclusivamente per attività strumentali e sempre con prevalenza del lavoro intellettuale oggetto della prestazione.

Questo vuol dire che l’IA può essere usata dai professionisti (avvocati, operatori della sanità, ingegneri, giornalisti, ecc.) solo come supporto o per svolgere compiti operativi secondari, amministrativi o organizzativi. Ma la parte centrale e decisiva della prestazione, cioè l’attività intellettuale, creativa o di responsabilità che caratterizza la professione, dovrà sempre restare in mano alla persona, non alla macchina.

Per esempio un avvocato può usare strumenti di IA per cercare rapidamente giurisprudenza o modulistica, ma la stesura dell’atto giudiziario, l’analisi strategica del caso e le decisioni professionali restano sempre di sua esclusiva responsabilità. Analogamente, un medico può utilizzare un sistema altamente tecnologico per analizzare immagini radiologiche o suggerire diagnosi preliminari, ma la valutazione finale, la scelta della terapia e la comunicazione con il paziente devono restare suoi compiti primari.

Non solo:

Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.

L’obbligo di informare il cliente e le criticità

Non è affatto escluso che queste nuove regole vadano a sollevare perplessità, dubbi e critiche tra i liberi professionisti. I motivi sono diversi e riguardano ad esempio l’onere aggiuntivo che ne deriva, cioè il dovere di informare dettagliatamente il cliente sull’uso dell’IA, che potrebbe essere visto come un ulteriore adempimento burocratico di cui si farebbe volentieri a meno.

C’è poi una sorta di timore competitivo, perché c’è chi potrebbe pensare che ammettere l’uso dell’intelligenza artificiale riduca il valore percepito del proprio lavoro agli occhi del cliente. Quest’ultimo potrebbe pensare erroneamente che la macchina faccia gran parte dell’attività.

Infine, il fattore rappresentato dalle ambiguità interpretative è un’altra incognita: non è ancora chiaro fino a che punto e con quale livello di dettaglio occorra comunicare l’uso dell’IA, e questo genera incertezza.

Se la finalità della norma è la trasparenza verso il cliente, dal lato dei professionisti il rischio concreto è che sia vista come un vincolo in grado di minare libertà operativa e competitività. Ecco perché, anche e soprattutto da questo punto di vista, per dare un giudizio complessivo e più preciso sulle novità, dovremo attendere i decreti attuativi, all’adozione dei quali, nello stesso testo, è delegato il Governo.