AI Act, la Ue regolamenta l’intelligenza artificiale: cosa cambierà

Il Parlamento europeo ha approvato l'AI Act, il testo che contiene le nuove regole europee che disciplinano l’attività dei software di intelligenza artificiale

Foto di Donatella Maisto

Donatella Maisto

Esperta in digital trasformation e tecnologie emergenti

Dopo 20 anni nel legal e hr, si occupa di informazione, ricerca e sviluppo. Esperta in digital transformation, tecnologie emergenti e standard internazionali per la sostenibilità, segue l’Innovation Hub della Camera di Commercio italiana per la Svizzera. MIT Alumni.

La trasformazione digitale è una delle priorità principali dell’UE. Il Parlamento europeo contribuisce a creare le politiche per rafforzare i mezzi a disposizione dell’Europa nel campo delle nuove tecnologie digitali, offrire nuove opportunità ad aziende e consumatori, permettere la transizione verde dell’UE e la neutralità carbonica entro il 2050. Su questi presupposti è stato approvato l’AI Act.

Le nuove regole europee

La priorità per il Parlamento europeo è quella di far sì che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.

Con l’AI Act il Parlamento vuole anche stabilire una definizione tecnologicamente neutra e uniforme per l’intelligenza artificiale, da applicare ai futuri sistemi che ne vedono l’implementazione.

Con 499 voti a favore, 28 contrari e 98 astensioni, è stato approvato il testo che contiene le nuove regole europee che disciplinano l’attività dei software di AI, obbligando gli operatori al rispetto dei diritti e dei valori fondamentali dell’UE, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale.

Lo scopo del regolamento

Lo scopo del regolamento, come si legge nel testo, è promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell’ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell’Unione, sostenendo, allo stesso tempo, l’innovazione e migliorando il funzionamento del mercato interno.

Il regolamento istituisce un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso dell’intelligenza artificiale (AI) in conformità ai valori dell’Unione e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull’AI, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all’uso di sistemi di intelligenza artificiale (sistemi di AI), salvo espressa autorizzazione del regolamento. Alcuni sistemi di AI possono anche avere un impatto sulla democrazia, sullo Stato di diritto e sull’ambiente.

Sono in corso i negoziati con il Consiglio sul testo definitivo della legge.

La legge sull’intelligenza artificiale stabilirà uno standard a livello mondiale per lo sviluppo e la governance dell’intelligenza artificiale, assicurando che questa tecnologia, destinata a trasformare radicalmente le nostre società, grazie agli enormi benefici che può offrire, si evolva e venga utilizzata nel rispetto dei valori europei della democrazia, dei diritti fondamentali e dello Stato di diritto“, ha dichiarato Dragos Tudorache, uno dei correlatori al termine della seduta.

Definizione di Intelligenza Artificiale secondo il regolamento

L’intelligenza artificiale consiste in una famiglia di tecnologie in rapida evoluzione che può contribuire e già contribuisce al conseguimento di un’ampia gamma di benefici a livello economico, ambientale e sociale nell’intero spettro delle attività industriali e sociali se sviluppata in conformità di principi generali pertinenti in linea con la Carta e i valori su cui si fonda l’Unione.

L’uso dell’intelligenza artificiale, garantendo un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, gestione delle crisi, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi.

L’approccio su cui si basa l’AI Act

Le norme seguono un approccio basato sul rischio, stabilendo obblighi per fornitori e operatori dei sistemi di AI, secondo il livello di rischio che l’AI può generare.

Rischio inaccettabile

I sistemi di intelligenza artificiale sono considerati a rischio inaccettabile, e pertanto vietati, quando costituiscono una minaccia per le persone.

Questi comprendono:

  • manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici. Questa dinamica si riscontra, ad esempio, con giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini
  • classificazione sociale: classificazione delle persone in base al comportamento, al livello socioeconomico, alle caratteristiche personali
  • sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

Alcune eccezioni potrebbero tuttavia essere ammesse. Questo è il caso dei sistemi di identificazione biometrica a distanza “post”, in cui l’identificazione avviene dopo un significativo ritardo. Saranno consentiti per perseguire reati gravi e solo previa autorizzazione del tribunale.

I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’AI, come:

  • l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico
  • l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave
  • i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, e quindi genere, razza, etnia, cittadinanza, religione, orientamento politico
  • i sistemi di polizia predittiva, basati su profilazione, ubicazione o comportamenti criminali passati
  • i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione
  • l’estrazione non mirata di dati biometrici da internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale in violazione dei diritti umani e del diritto alla privacy.

Alto rischio

I sistemi di intelligenza artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

  1. I sistemi di intelligenza artificiale utilizzati in prodotti soggetti alla direttiva dell’UE sulla sicurezza generale dei prodotti. Questi includono giocattoli, aviazione, automobili, dispositivi medici e ascensori.
  2. I sistemi di intelligenza artificiale che rientrano in otto aree specifiche dovranno essere registrati in un database dell’UE:
  • identificazione e categorizzazione biometrica di persone naturali
  • gestione e funzionamento di infrastrutture critiche
  • istruzione e formazione professionale
  • occupazione, gestione dei lavoratori e accesso all’autoimpiego
  • accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi
  • forze dell’ordine
  • gestione delle migrazioni, asilo e controllo delle frontiere
  • assistenza nell’interpretazione e applicazione legale della legge.

Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima di essere messi sul mercato e durante tutto il loro ciclo di vita.

I deputati vogliono che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di AI, che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente.

Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media con oltre 45 milioni di utenti.

AI generativa

L’AI generativa, come ChatGPT, dovrà rispettare requisiti di trasparenza:

  • rivelare che il contenuto è stato generato da un’intelligenza artificiale
  • progettare il modello in modo da impedire la generazione di contenuti illegali
  • pubblicare riepiloghi dei dati con diritti d’autore utilizzati per l’addestramento

I fornitori di modelli di base, in rapida evoluzione nel settore dell’AI, dovrebbero valutare e mitigare i possibili rischi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto e registrare i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato europeo.

I sistemi di AI generativa che si basano su tali modelli, nel rispettare i requisiti di trasparenza devono dichiarare che il contenuto è stato generato dall’AI, aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali e fornire salvaguardie per evitare la generazione di contenuti illegali.

Dopo aver interagito con le applicazioni, l’utente può decidere se desidera continuare a utilizzarle. Dovrebbero, inoltre, essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.

I diritti dei cittadini

Per stimolare l’innovazione nel campo dell’AI e sostenere le PMI, i deputati hanno previsto esenzioni per le attività di ricerca e le componenti dell’AI fornite con licenze open-source.

La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’AI prima che venga implementata.

Infine, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di AI e di ricevere spiegazioni sulle decisioni basate su sistemi di AI ad alto rischio con un impatto significativo sui loro diritti fondamentali.

I deputati hanno anche riformato il ruolo dell’Ufficio dell’UE per l’AI, che avrà il compito di monitorare l’attuazione delle norme sull’IA.