In quanto autorità di controllo della protezione dei dati e non nel suo nuovo ruolo di autorità di controllo dell’AI, il Gepd (Garante europeo per la Protezione dei Dati), ha emesso delle linee guida che non vogliono pregiudicare la normativa in vigore sull’intelligenza artificiale.
Il Garante, Wojtek Wiewiorowski, parla di “un primo passo verso raccomandazioni più ampie man mano che il panorama degli strumenti di AI generativa si evolve“. Gli orientamenti del GEPD sono considerati strumenti di “soft law”, pur tuttavia, esercitano un’influenza significativa sul comportamento dei soggetti privati e pubblici, nazionali e internazionali.
Se la tecnologia si evolve velocemente, non con la stessa rapidità è possibile verificare un adattamento altrettanto rapido degli strumenti normativi, e così la scelta del Garante è ricaduta su orientamenti redatti per coprire il maggior numero possibile di scenari e applicazioni.
Indice
L’AI generativa
Per comprendere appieno queste linee guida è necessario premettere e comprendere l’architettura di base. L’AI generativa comprende i modelli progettati per creare contenuti. Un modello di base si pone come architettura su cui vengono costruiti modelli più specializzati, che si rivolgono a compiti o applicazioni specifiche, utilizzando le conoscenze e le capacità dell’architettura di base.
Il ciclo di vita di un modello di AI generativa comprende diverse fasi:
- Identificazione di un modello di base adeguato da cui partire o costruire un nuovo modello da zero
- Addestramento del modello con un insieme di dati rilevanti per lo scopo del futuro sistema, compresa la messa a punto del sistema con insiemi di dati specifici e personalizzati necessari per soddisfare il caso d’uso del modello
- Utilizzo di tecniche specifiche che richiedono l’intervento umano per garantire informazioni più accurate e un comportamento controllato
- Valutazione del modello e definizioni di metriche per valutare regolarmente fattori come l’esattezza e l’allineamento del modello con il caso d’uso.
I casi più rilevanti nell’ambito dell’AI generativa sono le applicazioni generali orientate al consumatore, ma esistono anche applicazioni aziendali pensate per essere utilizzate su settori specifici.
ChatGPT è una versione specializzata del modello GPT (Generative Pre-trained Transformer), che è stata addestrata specificamente per interagire e rispondere come un assistente conversazionale. L’AI generativa, come altre nuove tecnologie, offre soluzioni in diversi campi destinate a sostenere e potenziare le capacità umane. Tuttavia, crea anche sfide con un potenziale impatto sui diritti e le libertà fondamentali che rischiano di essere trascurate o non valutate.
Le istituzioni e l’AI generativa
Non vi è alcun ostacolo allo sviluppo, alla diffusione e all’utilizzo di sistemi di AI generativa nella fornitura di servizi pubblici, a condizione che le norme delle Istituzioni interessate lo consentano e che siano soddisfatti tutti i requisiti giuridici applicabili, in particolare considerando la speciale responsabilità del settore pubblico di garantire il pieno rispetto dei diritti e delle libertà fondamentali delle persone quando si fa uso di nuove tecnologie.
È importante condurre una valutazione di impatto, ai sensi dell’art. 35 del Regolamento (UE) 2016/679, e di fornire un’informativa ai soggetti interessati ai sensi dell’art. 13 del Regolamento (UE) 2016/679, per garantire il rispetto delle normative sulla protezione dei dati e assicurare che le persone coinvolte siano pienamente informate sull’utilizzo delle loro informazioni personali.
Se l’uso di sistemi di intelligenza artificiale generativa comporta il trattamento di dati personali, il Regolamento Ue 2018/1725 si applica integralmente. Se le Istituzioni intendono utilizzare sistemi di intelligenza artificiale che trattano dati personali sono tenute ad applicare le disposizioni del Regolamento Ue 2018/1725.
Il principio di accountability richiede che i ruoli e le responsabilità siano chiaramente definiti e rispettati da tutti coloro coinvolti nella fornitura dei modelli di intelligenza artificiale. Le Istituzioni possono sviluppare e implementare le proprie soluzioni di AI generativa o, in alternativa, possono utilizzare per il proprio uso soluzioni disponibili sul mercato.
Le Istituzioni possono ricorrere a fornitori per ottenere tutti o alcuni degli elementi che fanno parte del sistema di AI generativa. E’ necessario che le Istituzioni europee considerino quando e come utilizzare l’AI generativa in modo responsabile e vantaggioso per l’interesse pubblico.
Quando l’uso di un sistema di AI comporta il trattamento di dati personali
Il trattamento dei dati personali all’interno un sistema di AI generativa può avvenire a vari livelli e fasi del suo ciclo di vita, senza essere necessariamente evidente. Può riguardare la creazione dei dataset di addestramento, la fase di addestramento stesso, l’inferenza di informazioni nuove o aggiuntive una volta che il modello è stato creato e utilizzato, o attraverso gli input e gli output del sistema una volta in funzione.
Quando uno sviluppatore o il fornitore di un sistema di AI generativa afferma che il suo sistema non tratta dati personali, perché, per esempio, fa uso di set di dati anonimizzati o di dati sintetici durante la progettazione, lo sviluppo e i test, è fondamentale accertarsi quali siano i controlli specifici messi in atto per garantirlo.
È rilevante capire quali precauzioni vengano effettivamente adottate dallo sviluppatore e verificare le specifiche procedure seguite.
I rischi del web scraping
Il GEPD mette in guardia in merito all’uso di tecniche di web scraping per la raccolta di dati personali, attraverso le quali gli interessati possono perdere il controllo dei loro dati personali quando queste vengono raccolte a loro insaputa, contro le loro aspettative e per scopi diversi da quelli della raccolta originale.
Le tecniche di web scraping sono metodi utilizzati per estrarre informazioni da pagine web in automatico, recuperando dati strutturati o non strutturati da siti web per vari scopi come ricerca, monitoraggio dei prezzi, analisi di mercato e molto altro. Il problema principale legato alle tecniche di web scraping è che, talvolta, possono violare le normative sulla privacy e i diritti di proprietà intellettuale dei siti web. Se non autorizzato, il web scraping può comportare la raccolta non autorizzata di dati personali o sensibili, violare i termini di servizio dei siti web e causare sovraccarichi ai server.
Può creare una concorrenza sleale se i dati sono utilizzati per fini commerciali senza consenso.
Il GEPD ha sottolineato che il trattamento dei dati personali disponibili al pubblico è regolamentato dal GDPR.
IL DPO nel processo di sviluppo o di implementazione di un sistema di AI generativa
Nel contesto dell’implementazione da parte delle Istituzioni di sistemi di AI generativa che trattano dati personali, è importante garantire che il DPO conosca, sin dall’inizio, l’intero ciclo di vita del sistema di AI generativa che l’Istituzione sta valutando di acquistare, progettare o implementare e del suo funzionamento, acquisendo informazioni su quando e come questi sistemi elaborano i dati personali, su come funzionano i meccanismi di input e output e sui processi decisionali attuati attraverso il modello.
Le Istituzioni, quali titolari del trattamento, devono assicurarsi che tutti i processi siano adeguatamente documentati e che sia garantita la trasparenza, compreso l’aggiornamento dei registri dei trattamenti e, come migliore prassi, l’esecuzione di un inventario specifico sui sistemi e le applicazioni generativi guidati dall’intelligenza artificiale. Il DPO dovrebbe essere sempre coinvolto. L’implementazione di sistemi di AI generativa in conformità al regolamento dovrebbe essere un lavoro di squadra.
I principi di privacy by design e by default mirano a proteggere i dati personali durante l’intero ciclo di vita sin dalla progettazione. Rispettando questo principio del Regolamento le minacce e i rischi che l’AI generativa può generare possono essere considerati e, ove possibile, mitigati in anticipo. Gli sviluppatori e gli implementatori sono tenuti ad effettuare le proprie valutazioni dei rischi e documentare qualsiasi azione di mitigazione intrapresa.
Quando è lecito il trattamento dei dati personali
Le attività di trattamento relative alla raccolta e all’addestramento includono l’ottenimento di dati da fonti disponibili liberamente su Internet e accessibili direttamente, da terzi o dagli archivi delle Istituzioni. I dati personali possono anche essere ottenuti dal modello di AI generativa direttamente dagli utenti, attraverso gli input del sistema o l’inferenza di nuove informazioni.
Nel contesto dei sistemi di AI generativa, l’addestramento e l’uso dei sistemi si basano normalmente sul trattamento sistematico e su larga scala di dati personali, in molti casi senza la consapevolezza delle persone i cui dati sono trattati.
È di fondamentale importanza limitare al minimo il trattamento dei dati personali pubblicamente come nelle sezioni di amministrazione trasparente, al fine di evitare la diffusione eccessiva di informazioni, nonché la possibilità di reperire tali dati dai sistemi di intelligenza artificiale.
Il trattamento di qualsiasi dato personale da parte delle Istituzioni è lecito se è applicabile almeno uno dei motivi di liceità previsti dal Regolamento. Inoltre, affinché il trattamento di categorie particolari di dati personali sia lecito, deve applicarsi una delle eccezioni elencate nel Regolamento.
Il diritto dell’Ue a cui si fa riferimento deve essere chiaro e preciso e la sua applicazione deve essere prevedibile per le persone che vi sono soggette, in conformità con i requisiti stabiliti nella Carta dei diritti fondamentali dell’Unione Europea e nella Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali.
Inoltre, quando una base giuridica comporta una grave interferenza con i diritti fondamentali alla protezione dei dati e della vita privata, vi è una maggiore necessità di norme chiare e precise che disciplinino la portata e l’applicazione della misura, nonché le relative garanzie.
Quando ci si affida a norme interne, queste ultime devono definire con precisione la portata dell’interferenza con il diritto alla protezione dei dati personali, attraverso l’identificazione delle finalità del trattamento, delle categorie di soggetti interessati, delle categorie di dati personali che verrebbero trattati, dell’eventuale responsabile e/o incaricato del trattamento, dei periodi di conservazione, insieme a una descrizione delle garanzie e delle misure minime concrete per la protezione dei diritti delle persone.
L‘uso del consenso come base giuridica può essere applicato in alcune circostanze nel contesto dell’uso di sistemi di AI generativi. L’ottenimento del consenso, ai sensi del regolamento, e affinché tale consenso sia valido, deve soddisfare tutti i requisiti previsti dalla norma, tra cui la necessità di una chiara azione affermativa da parte dell’individuo, essere dato liberamente, specifico, informato ed inequivocabile.
Considerato il modo in cui vengono addestrati i sistemi di AI generativa e le fonti di dati per l’addestramento, comprese le informazioni disponibili al pubblico, l’uso del consenso in quanto tale deve essere attentamente riconsiderato, anche nel contesto del suo utilizzo da parte di organismi pubblici, come le Istituzioni.
Inoltre, è da considerare che, se il consenso viene revocato, tutte le operazioni di trattamento dei dati che si basavano su tale consenso e che hanno avuto luogo prima della revoca, in conformità al regolamento, comporterebbe una necessaria interruzione delle operazioni di trattamento in questione. In tal caso, senza il consenso il Titolare non è legittimato a continuare ad effettuare il già menzionato trattamento.
I fornitori di servizi di modelli di AI generativa utilizzano il legittimo interesse ai sensi del GDPR come base giuridica applicabile al trattamento dei dati personali, in particolare per quanto riguarda la raccolta dei dati utilizzati per sviluppare i propri sistemi, compresi i processi di formazione e convalida.
La Corte di giustizia dell’Unione europea (CGUE) ha stabilito che l’uso del legittimo interesse stabilisce tre condizioni cumulative affinché il trattamento dei dati personali coperto da tale base giuridica sia legittimo:
- il perseguimento di un interesse legittimo da parte del titolare del trattamento o di un terzo;
- la necessità di trattare i dati personali ai fini degli interessi legittimi perseguiti;
- che gli interessi o le libertà fondamentali e i diritti della persona interessata dalla protezione dei dati non prevalgano sull’interesse legittimo del titolare del trattamento o di un terzo.
Onere informativo nei sistemi di AI generativa
L’implementazione di politiche di trasparenza e la messa a disposizione degli interessati di informative privacy può contribuire a ridurre i rischi per gli interessati e a garantire la conformità ai requisiti del regolamento, in particolare fornendo informazioni dettagliate su come, quando e perché le Istituzioni hanno deciso di trattare i dati personali nei propri sistemi di AI generativa.
Ciò implica la disponibilità di informazioni esaustive sulle attività di trattamento svolte nelle diverse fasi di sviluppo, tra cui l’origine dei set di dati, la procedura di catalogazione/tagging, nonché qualsiasi trattamento associato. In particolare, le Istituzioni devono assicurarsi di ottenere informazioni adeguate e pertinenti sugli insiemi di dati utilizzati dai loro fornitori o prestatori e che tali informazioni siano affidabili e regolarmente aggiornate.
Alcuni sistemi, come per esempio le chatbot, possono richiedere specifici requisiti di trasparenza, tra cui informare gli interessati che stanno interagendo con un sistema di intelligenza artificiale senza intervento umano.
Profilazioni e decisioni automatizzate
Il diritto all’informazione prevede l’obbligo di fornire agli interessati, nei casi di profilazione e di decisioni automatizzate, informazioni significative sulla logica di tali decisioni, nonché sul loro significato e sulle possibili conseguenze sulle persone. E’ importante che le Istituzioni siano in grado di mantenere le informazioni aggiornate, non solo sul funzionamento degli algoritmi utilizzati, ma anche sugli insiemi di dati trattati.
Questo obbligo dovrebbe essere generalmente esteso ai casi in cui la procedura decisionale, pur non essendo interamente automatizzata, comprende atti preparatori basati su un trattamento automatizzato. L’uso di un sistema di intelligenza artificiale generativa non implica necessariamente un processo decisionale automatizzato ai sensi del Regolamento. Tuttavia, esistono sistemi di AI generativa che forniscono informazioni decisionali ottenute con mezzi automatizzati che comportano la profilazione e/o valutazioni individuali.
A seconda dell’utilizzo di tali informazioni per l’adozione della decisione finale da parte di un servizio pubblico, le Istituzioni possono rientrare nell’ambito di applicazione dell’art. 24 del regolamento, per cui è necessario fornire garanzie individuali, tra cui almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere il proprio punto di vista e di contestare la decisione. Nella gestione degli strumenti decisionali di AI, le Istituzioni devono considerare attentamente come garantire che il diritto di ottenere l’intervento umano sia attuato correttamente. Ciò è di fondamentale importanza nel caso in cui le Istituzioni impieghino agenti di AI autonomi in grado di svolgere compiti e prendere decisioni senza l’intervento o la guida dell’uomo.
Le Istituzioni devono prestare molta attenzione al peso che le informazioni fornite dal sistema hanno nelle fasi finali della procedura decisionale e se hanno un’influenza decisiva sulla decisione finale presa dal titolare del trattamento. È importante riconoscere i rischi unici e i potenziali danni dei sistemi di AI generativa nel contesto del processo decisionale automatizzato, in particolare per le popolazioni vulnerabili e i bambini.
Garantire un trattamento equo ed evitare pregiudizi
Le soluzioni di intelligenza artificiale tendono ad amplificare i pregiudizi umani esistenti ed eventualmente a incorporarne di nuovi, il che può creare nuove sfide etiche e rischi di conformità. I pregiudizi possono insorgere in qualsiasi fase dello sviluppo di un sistema di AI generativa, attraverso l’addestramento dei set di dati, gli algoritmi o le persone che sviluppano o utilizzano tale sistema.
Le distorsioni nei sistemi di AI generativa possono portare a conseguenze negative significative per i diritti e le libertà fondamentali delle persone, tra cui il trattamento poco equo o la discriminazione, in particolare in settori quali la gestione delle risorse umane, l’assistenza medica pubblica e la fornitura di servizi sociali, le pratiche scientifiche e ingegneristiche, i processi politici e culturali, il settore finanziario, l’ambiente e gli ecosistemi, nonché la pubblica amministrazione.
Uno dei rischi maggiori per la protezione dei dati personali derivante dalle distorsioni nei sistemi di intelligenza artificiale generativa è la possibilità di discriminazione o trattamenti poco equi. Se tali sistemi non vengono adeguatamente bilanciati e tengono conto di potenziali distorsioni possono perpetuare o addirittura accentuare pregiudizi o disparità già presenti nei dati di addestramento. Ciò potrebbe portare a decisioni ingiuste o discriminatorie che violerebbero i diritti fondamentali delle persone, come il diritto alla privacy e alla non discriminazione.
Assicurare la corretta gestione delle distorsioni nei sistemi di intelligenza artificiale generativa è cruciale per proteggere i dati personali e garantire decisioni equilibrate e non discriminatorie.