Intelligenza Artificiale: prospettive, limiti e opportunità. Intervista all’Avv. Iacopo Destri

L’Intelligenza artificiale stimola numerosi dibattiti sotto il profilo giuridico, in attesa dell’AI Act europeo. Ne parliamo con l'avvocato Iacopo Destri

Foto di Donatella Maisto

Donatella Maisto

Esperta in digital trasformation e tecnologie emergenti

Dopo 20 anni nel legal e hr, si occupa di informazione, ricerca e sviluppo. Esperta in digital transformation, tecnologie emergenti e standard internazionali per la sostenibilità, segue l’Innovation Hub della Camera di Commercio italiana per la Svizzera. MIT Alumni.

L’impatto dell’AI sulla società e sull’economia è e sarà, nel medio termine, fortemente penetrante grazie anche alla trasversalità delle sue implementazioni.

L’AI può essere di supporto nel risolvere problemi complessi e aumentare l’efficienza in molte attività, ma solleva anche importanti questioni etiche e giuridiche. Rischi e opportunità verranno colte, in questa intervista, dall’Avv. Iacopo Destri, Partner C-Lex Studio Legale.

La startup statunitense DoNotPay ha creato un avvocato “robot”, alimentato dall’intelligenza artificiale, che si definisce “the world’s first robot lawyer” e prevede di affrontare due casi di multe per eccesso di velocità in tribunale, nel mese di febbraio. Con la sua intelligenza artificiale istruirà gli imputati su come rispondere ai giudici. Per dovere di cronaca l’American Bar Association ricorda al riguardo il divieto di usare l’AI in un’aula di tribunale, ma, al contempo, che alcuni tribunali consentono agli imputati di indossare apparecchi acustici, di cui alcune versioni sono abilitate al sistema bluetooth. La tecnologia di DoNotPay, quindi, potrà essere legalmente utilizzata.
Qual è il suo pensiero su questa ulteriore applicazione dell’AI? Si tratta di un nuovo capitolo per il sistema giuridico?

La soluzione DoNotPay nasce certamente per rispondere ad una esigenza concreta: fornire un supporto in un ambito il cui l’accesso ad una difesa tecnica risulta frustrato dal costo dell’assistenza che, anche in caso di esito positivo, supererebbe i vantaggi ottenuti. E su questo tema dobbiamo certamente interrogarci: nel nostro sistema vi sono molte casistiche di questo tipo.

L’annuncio di un avvocato robot ha un impatto emotivo e comunicativo notevole, ma penso che sia stato impropriamente utilizzato per l’iniziativa di DoNotPay. In concreto, si è ancora lontani da un prospettiva di questo tipo, almeno nel senso di una integrale sostituzione del professionista da parte di una AI (magari dai tratti umanoidi).

Probabilmente l’evoluzione tecnica porterà in tempi rapidi ad un netto miglioramento delle prestazioni di tali sistemi: tuttavia l’ecosistema normativo e sociale non è ancora pronto rispetto ad uno scenario di questo tipo. E infatti DoNotPay ha annunciato il rinvio dell’esperimento per le problematiche ed i rischi riscontrati (a meno che non si tratti, anche in questo caso, di una tattica per sfruttare l’effetto sorpresa).

Ricordo come nel tempo la professione si sia evoluta introducendo sempre più sistematicamente strumenti informatici: se ad esempio una volta la ricerca di precedenti giurisprudenziali comportava a volte giorni di ricerca in biblioteca, nel tempo tale attività si è evoluta grazie a banche dati digitalizzate che consentono di ottenere ed estrapolare i medesimi contenuti, peraltro con maggiore puntualità, in una manciata di secondi. Nessuno oggi può sensatamente sostenere che questa evoluzione abbia sottratto spazi alla professione.

Allo stesso modo, l’utilizzo dei nuovi sistemi di linguaggio sintetico, come ChatGPT-3, porteranno valore aggiunto come tutte le soluzioni di legaltech nelle quali molti dei grandi studi stanno investendo cifre ingenti. E’ però fondamentale che si riesca a garantire la qualità delle informazioni di partenza per poter ottenere risultati affidabili.

Non ritengo che saremo sostituiti da robot avvocati, ma questi semmai diverranno uno strumento di ausilio per consentire ai professionisti di liberare il proprio potenziale umano. Nondimeno, alcune funzioni a minor valore aggiunto – ed i relativi posti di lavoro – quasi certamente saranno impattati: ma altre professionalità –  neppure del tutto prevedibili – emergeranno. Ad esempio, solo cinque anni fa non sarebbe stato ipotizzabile che si sarebbero letti annunci da parte di studi legali alla ricerca di data scientist. Per dirla con Darwin, non saranno i più forti a sopravvivere, ma coloro che sapranno adattarsi al nuovo ecosistema.

La tecnologia deep fake, utilizzando algoritmi di apprendimento automatico, consente agli utenti di manipolare immagini e video digitali per creare repliche dall’aspetto realistico di scene ed eventi del mondo reale. I rischi sono molteplici: dalla privacy al revenge porn, dalle questioni legali come, ad esempio, chi è il responsabile dei contenuti deep fake ai problemi etici, oltre, naturalmente, alla diffusione di disinformazione. Come riconoscere i deep fake e proteggersi?

Questa nuova tecnologia è stata inizialmente utilizzata in ambito cinematografico ed aveva un’applicazione limitata in virtù della complessità tecnica e dei costi. Oggi, grazie ad app e software che si basano su sistemi di intelligenza artificiale accessibili a grande pubblico, la platea dei possibili fruitori si è notevolmente ampliata.

Se molte tecnologie hanno certamente una natura neutra, quella in esame presenta un ontologico profilo di rischio e di pericolosità, anche laddove la si intenda utilizzare per scopi del tutto leciti, in quanto si tratta di una soluzione che si fonda sull’utilizzo dell’identità altrui. Se autorizzata ovvero contenuta entro limiti di liceità, si dovranno comunque adottare sistemi idonei a rendere palese la tipologia di utilizzo (si pensi ad esempio ai casi di uso per satira). Laddove, invece, difetti l’autorizzazione del soggetto riprodotto ovvero non ricorrano le scriminanti di legge, si è di fronte ad vera e propria una fattispecie di furto d’identità.

Vi sono poi tecnologie di deepnude che possono essere utilizzate per alimentare pratiche di revenge porn, sexting, pornografia illegale e pedopornografia. I deepfake possono essere, inoltre, utilizzati per scopi di cyberbullismo o per la diffusione di fakenews. Come si può ben intuire, la pericolosità di tale pratiche è veramente elevata.

La bozza di AI Act, attualmente in fase di discussione, prevede che gli utenti che utilizzino un “sistema di IA che genera o manipola immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona (“deep fake”)”, dovranno informare che i contenuti ottenuti sono stati generati o manipolati artificialmente. Non solo. La bozza in esame introduce anche specifici divieti in relazione a talune pratiche di intelligenza artificiale tra cui l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA che utilizzino “tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico”.

In ogni caso, a prescindere dai suddetti presidi, l’utente sarà sempre chiamato ad esercitare grande attenzione per cercare di distinguere contenuti genuini da quelli artefatti. Il Garante per la protezione dei dati personali, in un proprio vademecum, seppur risalente al 2020, ha proposto dei suggerimenti ancora attuali, invitando ad evitare di diffondere in modo incontrollato immagini personali o dei propri cari e ad astenersi dal condividere contenuti di cui sia dubbia la natura, segnalando, a seconda dei casi, la violazione alle autorità di polizia (ad esempio, alla Polizia postale) o al Garante stesso.

Sotto diverso profilo, è importante segnalare che nell’ambito delle attività di repressione dei fenomeni di deepfake potranno essere impiegati sistemi di IA dalle autorità preposte. Tuttavia, anche su questo fronte, si deve essere assai cauti in quanto tali soluzioni presentano delle potenziali criticità tant’è che lo stesso AI Act li classifica come strumenti ad alto rischio.

Sul tema delle possibili responsabilità e dei conseguenti rimedi, ovviamente si dovrà fare per il momento riferimento agli istituti tradizionali di diritto civile e penale. Si tratta tuttavia di un contesto in cui è certamente più complicato identificare e distribuire le responsabilità dei soggetti coinvolti nella filiera. Il legislatore europeo si sta muovendo su vari piani per cercare di introdurre una disciplina organica anche in relazione alle responsabilità connesse a questo settore: dopo il Digital Services Act, il Digital Markets Act e il Data Governance Act, nonché l’AI Act sopra richiamato, è stata rilasciata una revisione della Direttiva sulla responsabilità del prodotto (Product Liability Directive), ed una proposta legislativa sulla responsabilità dell’AI (AI Liability Directive), che rappresenta un logico completamento dell’AI Act. Tuttavia, è importante segnalare che tali normative troveranno un loro piano applicativo solamente in ambito civilistico.

AI ACT europeo. Gli ultimi emendamenti alla proposta di regolamento focalizzano, per esempio, l’attenzione sulla corretta ripartizione delle responsabilità lungo l’interezza della complessa catena di approvvigionamento dei sistemi di AI. Non manca anche una serie di incentivi a includere disposizioni specifiche legate al concetto di AI generica, ovvero a quei sistemi che possono essere costruiti per svolgere una serie di compiti diversi. Questo aspetto genera ancora parecchie perplessità. Che problematiche giuridiche si possono aprire di fronte a questo scenario?

Il responsabile dei risultati ottenuti dall’IA è difficile che abbia la possibilità di tracciare, nel momento in cui l’AI è sviluppata ed immessa sul mercato, lo scopo che gli utenti potranno dare ai sistemi finali.

L’identificazione di un quadro chiaro di responsabilità è fondamentale non solo per gli utenti di queste nuove tecnologie ma anche, e soprattutto, per gli operatori del settore.

L’AI Act tenta di introdurre un meccanismo di ripartizione delle responsabilità nell’ambito della filiera dei soggetti coinvolti nello sviluppo, distribuzione ed uso di tali sistemi di AI, con un particolare focus su quelli ad alto rischio. Comprendo l’osservazione che per il fornitore possa essere difficile controllare e verificare gli utilizzi da parte degli utenti e le relative applicazioni. Da questa prospettiva, nei limiti in cui i fornitori abbiano osservato tutte le prescrizioni a loro carico, sarà ben difficile imputare agli stessi una possibile responsabilità per le condotte degli utenti o di altri fornitori che si avvalgano di una soluzione di IA per finalità generali.

Si pone, in un certo qual modo, lo stesso tema che è stato per molti anni al centro del dibattitto e di svariate decisioni nazionali ed internazionali. Mi riferisco alla responsabilità degli ISP che da sempre hanno sostenuto la tesi secondo cui gli stessi non sarebbero responsabili per i contenuti prodotti dai loro utenti ovvero per utilizzi impropri dei loro sistemi. Ciò in considerazione del fatto che gli stessi dichiaravano di non poter svolgere un ruolo attivo di monitoraggio di un quantitativo enorme di contenuti ed attività. Tuttavia, sempre più nel tempo, anche per tali soggetti si è rafforzato un obbligo di intervento a fronte di richieste provenienti dall’autorità ovvero dai titolari dei diritti lesi.

In questo senso, l’AI Act pone a carico degli utenti di sistemi di AI ad alto rischio delle obbligazioni di utilizzo degli stessi in conformità con le istruzioni per l’uso che li accompagnano nonché di segnalazione verso il fornitore al ricorrere di rischi per la salute o la sicurezza o per la tutela dei diritti fondamentali delle persone. Allo stesso modo, la bozza dell’AI Act prevede che i titolari di sistemi di AI per finalità generali siano tenuti a condividere con i fornitori dei sistemi di AI ad alto rischio (che utilizzino le loro soluzioni per finalità generali) le informazioni necessarie per consentire a questi ultimi di osservare le prescrizioni previste dalla medesima norma (si badi bene sempre nel rispetto dei diritti di proprietà intellettuale e del know how dei titolari dei sistemi di AI per finalità generali).

Sicuramente si tratta di aspetti che saranno approfonditi ulteriormente nei prossimi passaggi, ma ritengo che sia importante identificare delle soluzioni che – nel rispetto dei diritti fondamentali degli utenti – non espongano i fornitori a rischi che siano al di fuori del loro controllo e delle loro effettive capacità di intervento, pena una restrizione delle possibilità espansive di un mercato in forte crescita dove si stanno concentrando investimenti importantissimi.

Sempre con riferimento all’AI ACT un altro aspetto che genera perplessità da parte degli Europarlamentari è il ruolo degli organismi notificati, delle società private incaricate di controllare la conformità dei sistemi ad alto rischio e delle autorità di notifica, oltre che delle autorità nazionali che esercitano l’attività di controllo sugli organismi. Questa organizzazione garantirà, a suo avviso, procedure coerenti?

Il tema dei meccanismi di verifica e controllo previsti dall’AI Act rappresenta un elemento cruciale del nuovo assetto normativo. La bozza prevede dei presidi che si propongono di evitare possibili conflitti di interesse. Si vedrà all’atto pratico se effettivamente questo approccio garantirà efficienza, da un lato, e un’oggettiva capacità di veicolare l’applicazione dei principi fissati dall’AI Act, dall’altro. Certamente è opportuno notare che l’AI Act ha puntato su un paradigma diverso rispetto a quello seguito nell’ambito del GDPR dove il principio cardine che ispira il sistema è quello dell’accountability che rimette ai titolari la valutazione circa la conformità dei trattamenti dagli stessi effettuati. Probabilmente, stante la natura specifica di questo settore, il regolatore europeo ha preferito una soluzione che può, almeno in teoria, apportare maggiori certezze applicative tali da consentire ai fornitori di apprezzare il livello di rischio connesso al lancio sul mercato del proprio sistema di AI e agli utenti di ottenere un livello di garanzie più elevato.

AI e proprietà intellettuale. Gli algoritmi su cui si basano le IA sono dei veri e propri “metodi matematici”. La Convenzione sul brevetto europeo, pertanto, ne stabilisce la non brevettabilità, con, tuttavia, un importante “deroga” a favore della brevettabilità dell’algoritmo stesso ai sensi dell’art. 52, paragrafo 3, della Convenzione. Tenendo conto della giurisprudenza nazionale ed europea a riguardo come delineare una proprietà intellettuale dell’algoritmo?

La tematica è certamente molto delicata in quanto rappresenta un modo per consentire ai soggetti che stanno sviluppando questi nuovi sistemi di AI di ottenere un’adeguata protezione del loro investimento. Anche l’art. 45 del d.lgs 30/2005 riporta la medesima previsione richiamata nella Convenzione sul brevetto europeo secondo cui i metodi matematici non possono essere considerati alla stregua di invenzioni. Un algoritmo in quanto tale, avendo una natura astrattamente matematica, non sarebbe quindi brevettabile.

L’European Patent Office riconosce, però, che possono essere brevettati degli algoritmi laddove questi siano parte di un sistema che presenti i tradizionali requisiti di proteggibilità consistenti nella novità, nell’attività inventiva nonché nell’applicazione industriale. Al riguardo l’EPO ha rilasciato delle linee guida espressamente dedicate ai sistemi di AI: infatti, l’applicazione concreta di tali criteri è tutt’altro che agevole (soprattutto in relazione all’identificazione di una effettiva applicazione tecnica degna di protezione).

In alternativa al brevetto, si potrebbe tentare di fare leva su altri strumenti per proteggere tali algoritmi: certamente la tutela del segreto industriale potrebbe rappresentare una valida soluzione alternativa. Tuttavia, si dovrà ben valutare se e in che termini tale soluzione possa essere impattata dagli obblighi di trasparenza imposti dalle normative già precedentemente richiamate. Allo stesso modo, anche il diritto d’autore – generalmente utilizzato per la protezione di software – potrebbe non essere sufficiente per garantire protezione per particolari sistemi di AI ed ai relativi algoritmi (ad esempio quelli su cui si basano le capacità predittive e computazionali di una tecnologia di AI).

Diritto d’autore. Quali sono i criteri per conferire tutela legale alle opere frutto dell’intelligenza artificiale?

Questo è uno degli aspetti che maggiormente stimola il dibattito e rispetto al quale, allo stato, è complicato fornire una risposta univoca. Molto dipende dall’interpretazione fornita dalle singole legislazioni nazionali al concetto di creatività, requisito indispensabile affinché un’opera possa essere assoggettata alla tutela autorale, ed è innegabile che i differenti approcci normativi, giurisprudenziali e dottrinali siano condizionati anche dai diversi sentimenti e teorie filosofiche che ruotano attorno al sempre complesso rapporto tra uomo e macchina; ma molto dipende, anche, dallo stato di avanzamento delle tecnologie e del loro ruolo, più o meno proattivo, nel rielaborare dei dati preesistenti e nel produrre ex novo un’opera.

Poche sono le giurisdizioni, in giro per il mondo, che allo stato attuale estendono espressamente la tutela autorale alle opere create da sistemi tecnologici e di intelligenza artificiale (“computer-generated works”); non sorprende che gli approcci più favorevoli a questo riconoscimento provengano da alcuni dei Paesi in cui si registrano i maggiori investimenti economici nel campo delle nuove tecnologie: India, Hong Kong, Irlanda, Regno Unito, Nuova Zelanda e Sud Africa. Sarà sicuramente interessante verificare se ed in quale misura, nel corso dei prossimi anni, tale “apertura” di tutele avrà contribuito ad attirare ulteriori investimenti e a promuovere lo sviluppo tecnologico di quei Paesi.

Ad ogni modo, l’eterna dicotomia tra uomo e macchina, che a tutta prima sembrerebbe acuirsi in considerazione dell’approccio evolutivo adottato dai Paesi di cui sopra, sembrerebbe invece risolversi, andando ad analizzare il dettato normativo degli stessi, nel più tradizionale dei modi e in linea con la tradizione “antropocentrica” dei sistemi legislativi più conservativi, che riconoscono il momento creativo quale appannaggio esclusivo dell’essere umano.

In tutti le legislazioni sopra menzionate, infatti, si stabilisce che l’autore di tali opere è il soggetto, quindi persona fisica, che ha fornito il contributo necessario affinché l’opera sia generata. Cosa si intenda esattamente per tale contributo, è questione da approfondire caso per caso, di fronte alla singola opera. Anche nelle legislazioni più sensibili, dunque, la macchina è solo il tramite attraverso cui si esplica la creatività e l’ingegno dell’uomo, vero motore dell’evoluzione tecnologica e artistica. Come le opere “tradizionali”, quindi, anche quelle più nuove rispondono ai requisiti previsti, in via generale, affinché le stesse siano tutelate attraverso le norme sul diritto d’autore: devono risultare nuove e frutto della creatività dell’autore, ossia, rivelare in cosa consista il suo apporto. Per tali ragioni, le opere prodotte in via autonoma da sistemi di AI non paiono invece essere sussumibili nell’alveo della protezione del diritto d’autore.

Non si può comunque escludere che l’approccio testimoniato dalle legislazioni sopra menzionate, o anche da altri Paesi che decidano di seguirne l’esempio, non muti e si evolva recependo le evoluzioni della tecnologia, svincolando il riconoscimento della tutela autorale dal contributo umano.

Un altro esempio interessante si è registrato in tema di algoritmi e brevettabilità: il caso riguardava la possibilità di riconoscere un sistema di intelligenza artificiale quale autore di un’invenzione. Si tratta della c.d. tecnologia DABUS (Device for the Autonomous Bootstrapping of Unified Sentience), di proprietà del Dott. Thaler e da questi indicata come autore dell’invenzione dalla stessa realizzata nelle relative domande di brevetto presentate davanti all’EPO e agli Uffici di Stati Uniti, Regno Unito, Germania e Australia. Laddove i primi quattro uffici hanno immediatamente rigettato le domande presentate dal Dott. Thaler sul presupposto che un sistema di intelligenza artificiale non potesse assurgere al rango di inventore, riconoscimento ammesso solo in capo agli individui, l’ufficio australiano ha, invece, sposato la tesi del richiedente, ritenendo che l’Australian Patent Act non contempli alcun impedimento affinché un sistema di intelligenza artificiale sia indicato quale inventore. Tuttavia, tale approccio è stato successivamente sconfessato dalla Corte federale di quel Paese, la quale, inserendosi nel solco della dottrina europea, ha ribadito che solo un essere umano può essere ritenuto inventore.

Avvocato Iacopo Destri
Avv. Iacopo Destri, Partner C-Lex Studio Legale