L’adozione dei sistemi di Intelligenza Artificiale ha un forte potenziale con un impatto significativo per la società, la crescita economica e per migliorare l’innovazione dell’Ue e la competitività globale, ma è indubbio che le caratteristiche specifiche di alcuni sistemi di Intelligenza Artificiale sollevano preoccupazioni soprattutto per quanto riguarda la sicurezza e la protezione dei diritti fondamentali.
Verso un quadro normativo europeo
L’Ue ha avviato una riflessione su come affrontare le preoccupazioni in merito alla sicurezza e alla protezione dei diritti fondamentali a seguito dell’adozione di sistemi di Intelligenza Artificiale.
L’Intelligenza Artificiale è un punto centrale nel Green deal europeo e nel rilancio dell’economia post COVID-19.
La Commissione europea ha pubblicato nel febbraio 2020 un Libro bianco sull’intelligenza artificiale e ha proposto di istituire un quadro normativo europeo per una Intelligenza Artificiale affidabile.
Nell’ottobre 2020 il Parlamento europeo ha adottato tre risoluzioni legislative sull’Intelligenza Artificiale riguardanti l’etica, la responsabilità civile e la proprietà intellettuale (IP) e ha chiesto alla Commissione di stabilire un quadro globale di principi etici per lo sviluppo, la diffusione e l’uso dell’Intelligenza Artificiale, della robotica e delle tecnologie correlate.
AI Act, cosa prevede la proposta
Il Consiglio ha adottato la sua posizione comune sull’atto relativo all’Intelligenza Artificiale il 6 dicembre 2022. Inoltre ha concordato un mandato negoziale (“orientamento generale“) sulla proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale, la cosiddetta AI Act.
Il progetto di regolamento è un elemento chiave della trasformazione digitale e della politica dell’UE volta a promuovere lo sviluppo e la diffusione, a livello europeo, di un’Intelligenza Artificiale affidabile, sicura e lecita, che rispetti i diritti fondamentali.
La proposta stabilisce un quadro giuridico orizzontale uniforme, che mira a far sì che i sistemi di Intelligenza Artificiale, immessi sul mercato dell’UE e utilizzati nell’Unione europea, anche da fornitori di paesi terzi, rispettino i valori dell’Unione europea e la normativa vigente in materia di diritti fondamentali.
Mira, inoltre, a garantire la certezza del diritto per facilitare gli investimenti e l’innovazione nell’IA e migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di Intelligenza Artificiale.
Il testo del Consiglio, tra l’altro:
- restringe la definizione ai sistemi sviluppati attraverso approcci di apprendimento automatico e approcci basati sulla logica e sulla conoscenza;
- estende agli attori privati il divieto di utilizzare l’Intelligenza Artificiale per il punteggio sociale;
- aggiunge uno strato orizzontale alla classificazione ad alto rischio per garantire che i sistemi di Intelligenza Artificiale che non sono suscettibili di causare gravi violazioni dei diritti fondamentali o altri rischi significativi non siano catturati;
- chiarisce i requisiti per i sistemi di Intelligenza Artificiale ad alto rischio;
- aggiunge nuove disposizioni per tenere conto delle situazioni in cui i sistemi di Intelligenza Artificiale possono essere utilizzati per molti scopi diversi (Intelligenza Artificiale di uso generale);
- chiarisce il campo di applicazione della legge sull’Intelligenza Artificiale (ad es. l’esclusione esplicita di scopi nazionali di sicurezza, difesa e militari dal campo di applicazione della legge sull’Intelligenza Artificiale) e le disposizioni relative alle autorità incaricate dell’applicazione della legge;
- semplifica il quadro di conformità della legge sull’Intelligenza Artificiale;
- aggiunge nuove disposizioni per aumentare la trasparenza e consentire i reclami degli utenti;
- modifica sostanzialmente le disposizioni relative alle misure a sostegno dell’innovazione (ad es. le sandbox regolamentari dell’Intelligenza Artificiale).
Progetto di mandato negoziale sulle prime regole per l’Intelligenza Artificiale
In seno al Parlamento europeo, le discussioni sono guidate dalla Commissione per il Mercato Interno e la Protezione dei Consumatori (IMCO) e dalla Commissione per le Libertà Civili, la Giustizia e gli Affari Interni (LIBE) secondo una procedura di comitato congiunto.
La Commissione giuridica (JURI), la Commissione per l’Industria, la Ricerca e l’Energia (ITRE) e la Commissione per la Cultura e l’Istruzione (CULT) sono associate al lavoro legislativo con competenze condivise e/o esclusive.
Per garantire uno sviluppo umano-centrico ed etico dell’Intelligenza Artificiale in Europa, i deputati hanno approvato nuove regole di trasparenza e gestione del rischio per i sistemi di Intelligenza Artificiale.
Giovedì la IMCO e la LIBE hanno adottato un progetto di mandato negoziale sulle prime regole per l’Intelligenza Artificiale con 84 voti a favore, 7 contrari e 12 astensioni.
Il Parlamento ha adottato una serie di emendamenti alla proposta della Commissione volti a garantire che i sistemi di Intelligenza Artificiale siano controllati da persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.
Vogliono anche avere una definizione uniforme per l’Intelligenza Artificiale progettata per essere tecnologicamente neutrale, in modo che possa applicarsi ai sistemi di Intelligenza Artificiale di oggi e di domani.
Approccio basato sul rischio all’Intelligenza Artificiale – Pratiche vietate
Le regole seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e gli utenti a seconda del livello di rischio che l’Intelligenza Artificiale può generare.
I sistemi di Intelligenza Artificiale con un livello inaccettabile di rischio per la sicurezza delle persone sarebbero severamente vietati, compresi i sistemi che utilizzano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, status socioeconomico, caratteristiche personali).
Gli eurodeputati hanno modificato sostanzialmente l’elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi di Intelligenza Artificiale quali:
- Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
- Sistemi di identificazione biometrica remota “post”, con l’unica eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo dopo l’autorizzazione giudiziaria;
- Sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad es. genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
- Sistemi di polizia predittivi basati su profilazione, localizzazione o comportamento criminale passato;
- Sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative;
- Raschiamento indiscriminato dei dati biometrici dai social media o filmati CCTV per creare database di riconoscimento facciale (violazione dei diritti umani e del diritto alla privacy) – Intelligenza Artificiale ad alto rischio
I deputati hanno ampliato la classificazione delle aree ad alto rischio per includervi i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente.
Hanno anche aggiunto sistemi di Intelligenza Artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con più di 45 milioni di utenti ai sensi del Digital Services Act) alla lista ad alto rischio.
Intelligenza artificiale generica – Misure di trasparenza
I deputati hanno incluso obblighi per i fornitori di modelli di fondazione, sviluppo nuovo e in rapida evoluzione nel campo dell’Intelligenza Artificiale, che dovrebbero garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell’ambiente, della democrazia e dello Stato di diritto.
Essi dovrebbero valutare e mitigare i rischi, rispettare i requisiti in materia di progettazione, informazione e ambiente e registrarsi nella banca dati dell’UE.
I modelli generativi di base, come il GPT, dovrebbero rispettare ulteriori requisiti di trasparenza, come la rivelazione che il contenuto è stato generato dall’Intelligenza Artificiale, progettare il modello per impedirgli di generare contenuti illegali e pubblicare sintesi dei dati protetti da copyright utilizzati per la formazione.
Sostenere l’innovazione e proteggere i diritti dei cittadini
Per rafforzare l’innovazione dell’IA, i deputati hanno aggiunto deroghe alle regole per le attività di ricerca e i componenti dell’Intelligenza Artificiale forniti con licenze open source. La nuova legge promuove sandbox regolamentari, o ambienti controllati, stabiliti dalle autorità pubbliche per testare l’Intelligenza Artificiale prima della sua diffusione.
I deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di Intelligenza Artificiale e ricevere spiegazioni sulle decisioni basate su sistemi di Intelligenza Artificiale ad alto rischio che hanno un impatto significativo sui loro diritti.
Gli eurodeputati hanno anche riformato il ruolo dell’Ufficio dell’UE per l’Intelligenza Artificiale, che avrebbe il compito di monitorare l’attuazione del regolamento.
Prima che possano iniziare i negoziati con il Consiglio sulla forma finale della legge, questo progetto di mandato negoziale deve essere approvato da tutto il Parlamento, con il voto atteso durante la sessione plenaria in agenda dal 12-15 Giugno.