Via libera alla prima legge concepita per tutelare i cittadini europei sui potenziali pericoli nascosti nella sconfinata frontiera dell’intelligenza artificiale. Con l’approvazione del regolamento dell’AI Act, il Parlamento europeo è finora l’unico organo legislativo al mondo a intervenire per regolamentare gli imprevedibili effetti delle nuove tecnologie basate sulla AI nei suoi diversi ambiti di applicazione.
L’approvazione dell’AI Act
Il regolamento ha ricevuto il “sì” definitivo dall’emiciclo di Strasburgo con 523 voti favorevoli, 46 contrari e 49 astensioni, dopo l’accordo sull’intelligenza artificiale raggiunto a dicembre 2023 con i Paesi dell’Ue. Saranno poi gli Stati membri a dover recepire i principi europei, espressi in un complesso sistema di norme che individua obblighi e divieti sulla base dei livelli di rischio.
Come spiegato in conferenza stampa dal correlatore dell’AI Act, l’eurodeputato del Pd Brando Benifei, “grazie a questo testo saranno ora vietate pratiche inaccettabili in Europa, come il riconoscimento delle emozioni sul posto di lavoro o la deduzione dell’appartenenza etnica o religiosa di una persona sulla base di dati biometrici”.
“Tuteliamo i diritti dei lavoratori e dei cittadini – ha aggiunto il componente della commissione per il mercato interno dell’Europarlamento – Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’IA”.
“Stiamo regolamentando il meno possibile, ma quanto necessario!”, è stato il commento al via libera da parte del commissario al Mercato interno e al Digitale, Thierry Breton, spiegando che nell’iter che ha portato all’accordo tra i 27 e Strasburgo le istituzioni Ue hanno “resistito agli interessi particolari e alle lobby che chiedevano di escludere i modelli di IA di grandi dimensioni dal regolamento. Il risultato è un regolamento equilibrato, basato sul rischio e a prova di futuro”.
Il regolamento europeo sull’intelligenza artificiale
Secondo le nuove norme europee sull’intelligenza artificiale, le applicazioni che funzionano tramite AI non potranno più utilizzare la categorizzazione biometrica attraverso caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.
Il regolamento stabilisce anche il divieto dei sistemi di riconoscimento delle emozioni negli ambienti di lavoro e nelle scuole “i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone” (qui abbiamo parlato del possibile impatto dell’accordo Ue sull’intelligenza artificiale).
Fanno eccezione le forze dell’ordine soltanto in alcune circostanze che prevedano l’identificazione biometrica “in tempo reale”, in periodi e luoghi limitati e con il nullaosta delle autorità giudiziarie o amministrative.
L’AI Act prevede, inoltre, degli obblighi per l’applicazione dell’intelligenza artificiale considerata ad alto rischio, come nell’ambito di infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici.
Requisito fondamentale per tutti i livelli di rischio è la trasparenza sull’utilizzo dell’intelligenza artificiale, che si concretizzerà, ad esempio, con l’etichettatura di immagini e i contenuti audio o video artificiali o manipolati dall’AI (qui l’approfondimento di QuiFinanza sulla regolamentazione dell’intelligenza artificiale con il via libera dell’Ue all’AI Act).
La normativa comincerà ad essere applicata nelle legislazione dei Paesi membri entro due anni dall’entrata in vigore, fatti salvi questi aspetti:
- i divieti relativi a pratiche vietate, che saranno adottati a partire da sei mesi dopo l’entrata in vigore;
- i codici di buone pratiche (nove mesi dopo);
- le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).