Ddl intelligenza artificiale approvato in Senato, cosa prevede la riforma Meloni sull’AI

Il disegno di legge sull'intelligenza artificiale è stato approvato in Senato e cambia le regole sull'uso delle macchine nel mondo del lavoro, nella sanità e nell'informazione

Foto di Mirko Ledda

Mirko Ledda

Editor e fact checker

Scrive sul web da 15 anni, come ghost writer e debunker di fake news. Si occupa di pop economy, tecnologia e mondo digitale, alimentazione e salute.

Pubblicato: 20 Marzo 2025 16:33

Via libera del Senato al disegno di legge sull’intelligenza artificiale, che detta disposizioni e deleghe al Governo in materia di AI. Il voto è arrivato con 85 sì, 42 no e nessun astenuto. Il provvedimento passa ora all’esame della Camera dei Deputati.

Il ddl 1146, presentato a Palazzo Madama lo scorso maggio da Giorgia Meloni e dal ministro della Giustizia Carlo Nordio, stabilisce regole precise per lo sviluppo, l’applicazione e il controllo di tecnologie AI, con l’obiettivo di bilanciare innovazione e tutela dei diritti.

Ma cosa prevede, nel concreto, la bozza? E cosa cambierà per chi usa già l’intelligenza artificiale in Italia?

A cosa serve il ddl sull’AI

I principi del documento sono:

  • l’antropocentrismo e la tutela della dignità umana;
  • la trasparenza sul funzionamento e la tracciabilità di ogni sistema AI;
  • l’utilizzo di dati di qualità e privi di bias discriminatori;
  • la cybersicurezza, garantita con misure proporzionali al rischio;
  • la protezione della privacy con norme chiare sul trattamento e la conservazione dei dati personali degli utenti;
  • la riduzione dell’impatto ambientale dei server che alimentano le intelligenze artificiali.

Il ddl 1146 sottolinea a più riprese che i sistemi AI, introdotti in vari campi, dalla sanità alla giustizia, non devono in alcun modo sostituire il giudizio umano in processi decisionali critici e deve essere sempre garantita la possibilità di intervento da parte di un operatore.

Impone inoltre l’obbligo per le aziende di dichiarare le modalità di addestramento degli algoritmi e dei modelli di linguaggio generativo e deep learning, garantendo la possibilità di verificare l’origine delle decisioni delle macchine.

Cosa cambia e per quali settori

Il disegno di legge sull’intelligenza artificiale prevede la regolamentazione dell’uso delle macchine in diversi settori chiave:

  • sanità;
  • occupazione;
  • Pubblica amministrazione;
  • giustizia;
  • sicurezza nazionale;
  • media e mondo dell’informazione.

Introduce inoltre la Strategia nazionale per l’intelligenza artificiale, che sarà approvata ogni due anni dal comitato interministeriale per la Transizione digitale (Citd) e attuata dal dipartimento per la Trasformazione digitale della Presidenza del Consiglio.

Sanità

Nello specifico, l’AI potrà essere impiegata per fare diagnosi, personalizzare le terapie e ottimizzare la gestione delle risorse ospedaliere, a patto che il personale medico qualificato monitori l’uso di questi strumenti. Non dovranno mai essere applicate decisioni automatizzate che potrebbero compromettere la sicurezza del paziente.

Viene effettuata una modifica a decreto legge 179/2012, che norma l’uso dell’AI nel Fascicolo sanitario elettronico, con un rimando a specifici decreti del Ministero della Salute che dovrà stabilire una stretta sull’uso dei dati dei pazienti.

Lavoro

Verrà creato un Osservatorio ministeriale sull’intelligenza artificiale per monitorarne l’adozione nel mondo del lavoro e prevenire i rischi per i lavoratori, con il divieto assoluto di delegare ai computer le valutazioni delle performance dei dipendenti senza la possibilità di contestazione.

I datori di lavoro saranno tenuti a informare i lavoratori sull’uso di queste tecnologie per la gestione del personale e le aziende dovranno fornire corsi di formazione a tutti i dipendenti. I professionisti dovranno inoltre avvertire i propri clienti dell’uso di strumenti alimentati da AI.

Sono previsti sgravi fiscali e fondi riservati ai ricercatori che scelgono di lavorare in Italia o rimpatriano per fornire le proprie competenze tecnologiche, con investimenti gestiti da Cdp Venture Capital.

Settore pubblico

La Pubblica amministrazione avrà la facoltà di usare l’AI per migliorare l’efficienza delle procedure, ridurre i tempi di attesa e migliorare l’accesso ai servizi per i cittadini.

Tuttavia, la normativa impedisce agli algoritmi di assumere il controllo su decisioni amministrative che potrebbero avere effetti sui diritti delle persone.

Il ddl impone che tutti i sistemi di intelligenza artificiale destinati all’uso pubblico debbano essere installati su server situati in Italia, con l’eccezione delle operazioni militari all’estero.

Giustizia

Nel settore della giustizia, gli strumenti digitali potranno essere utilizzati per analizzare grandi quantità di dati giuridici e velocizzare la stesura di atti processuali.

Nel disegno di legge viene anche in questo caso specificata la priorità delle decisioni umane: i magistrati rimarranno gli unici responsabili delle sentenze e l’uso dell’AI dovrà essere limitato a compiti di supporto e non di sostituzione degli esseri umani.

Sicurezza

Spazio all’AI anche nei settori della cybersecurity, con strumenti avanzati per la protezione delle reti e dati strategici e l’individuazione automatizzata delle minacce informatiche in tempo reale e attacchi hacker.

L’Agenzia per la Cybersicurezza Nazionale (Acn) sarà responsabile della vigilanza e dello sviluppo di protocolli di sicurezza con l’intelligenza artificiale.

Il ddl vieta la sorveglianza di massa automatizzata e l’uso indiscriminato dei sistemi AI per monitorare i cittadini, che violerebbero i diritti fondamentali del diritto italiano.

Tuttavia i sistemi più avanzati potranno essere usati per l’analisi dei dati e il riconoscimento di pattern e schemi ripetuti di minaccia, sempre nei limiti della tutela della privacy degli individui.

Sono previste anche pene più severe per chi crea fake news, deepfake e truffe che possono minare la sicurezza pubblica o lo stato democratico.

Media e copyright

Nella stessa ottica ogni contenuto generato o modificato dall’AI, in conformità anche con i regolamenti Ue e delle principali piattaforme digitali, dovrà essere segnalato chiaramente con un’apposita targhetta o filigrana.

Gli editori saranno obbligati a indicare quando un’immagine, un video o un testo è stato alterato dall’intelligenza artificiale, per evitare la diffusione di informazioni ingannevoli o manipolate.

Viene implementato anche il divieto di far creare contenuti e notizie automaticamente all’AI senza supervisione umana e viene impedita la registrazione con copyright di media e testi generati esclusivamente dalle macchine.

Rimangono dubbi su come effettivamente sarà possibile confermare la proprietà intellettuale di un prodotto culturale e come tracciare il confine tra un contenuto generato integralmente con la macchina o con un suo coinvolgimento parziale.

Multe e sanzioni del Ddl

Il ddl 1146 introduce un sistema articolato di pene e sanzioni per contrastare l’uso illecito dell’intelligenza artificiale in diversi ambiti. Si va da 5 anni di reclusione per le truffe fino ai 7 anni per le manipolazioni dei mercati finanziari, passando per multe da 200mila euro alle strutture sanitarie per diagnosi e trattamenti decisi dalle macchine, con la sospensione del medico competente.

Si rischia soprattutto con la violazione della privacy, con 500mila euro di multa per le aziende che addestrano le macchine con i dati personali degli utenti e fino a 4 anni di reclusione per chi accede agli stessi dati in modo illecito.

Il testo stabilisce infine che non solo i giornali, le testate online e i fornitori di contenuti professionali, ma anche i social media, i motori di ricerca e le piattaforme di condivisione video come YouTube, TikTok, Instagram e Facebook saranno responsabili della gestione dei contenuti generati con l’AI.

Le sanzioni colpiranno le piattaforme che non segnalano correttamente l’origine artificiale di testi, immagini, video e audio prodotti o modificati dalle intelligenze artificiali.

Se un utente caricherà un video deepfake senza dichiararlo, il social dovrà intervenire tempestivamente per rimuoverlo o applicare un’etichetta chiara, pena una multa di 250mila euro, che può aumentare in caso di recidiva. L’utente stesso rischia invece fino a 50mila euro di multa.

Anche le multinazionali con sede all’estero, come Meta, Google e OpenAI, saranno soggette alle regole italiane, se operanti nel mercato nazionale.

Meme e satira liberi?

Il disegno di legge sull’intelligenza artificiale prevede una clausola per i creatori di contenuti satirici e meme – a differenza di provvedimenti precedenti come la discussa riforma del copyright Ue, che poi si sono rivelati solo un falso allarme.

Viene chiarito dal documento, infatti, che le regole non si applicano ai contenuti utilizzati per scopi artistici, satirici o di intrattenimento, a meno che non vi sia un’intenzione deliberata di ingannare il pubblico.

Se un video deepfake viene diffuso a scopo umoristico e chiaramente indicato come tale, dunque, non rientrerà nelle restrizioni della legge e non sarà considerato una truffa ai danni degli utenti.