Intelligenza artificiale: sempre più urgente una legge europea

Prima del regolamento definitivo potrebbe esser buttato giù un corpus di norme temporanee condivise a livello comunitario ed internazionale

Foto di QuiFinanza

QuiFinanza

Redazione

QuiFinanza, il canale verticale di Italiaonline dedicato al mondo dell’economia e della finanza: il sito di riferimento e di approfondimento per risparmiatori, professionisti e PMI.

Tanto affascinante, quanto spaventosa: l’Intelligenza Artificiale è uno dei campi della tecnologia più controversi e pericolosi per l’umanità, ma potrebbe anche aprire frontiere sconosciute e portare grandi vantaggi e scoperte per la società. Tutto dipende da come la si userà.

L’Europa ne è consapevole, così come le altre grandi economie sviluppate, e quindi sta lavorando ad un corpus di regole che consentano di sfruttare i vantaggi dell’AI senza correre il rischio che prenda il sopravvento sull’uomo.

Qui per approfondire tutti i campi in cui l’AI potrebbe portare benefici all’umanità.

Un regolamento per l’Europa

Mentre si lavora alla stesura di un regolamento definitivo, che non potrà ragionevolmente essere pronto prima di un anno o due, si sta facendo largo l’idea di buttar giù alcune regole provvisorie, attinenti ai valori fondamentali dell’umanità, in modo da tenere il passo con l’incedere tumultuoso dello sviluppo tecnologico.

L’Artificial Intelligence Act (AiAct) approvato di recente dal Parlamento europeo è la prima legislazione al mondo sull’Intelligenza artificiale e tratta argomenti come il riconoscimento facciale nei luoghi pubblici, i sistemi di identificazione biometrici ed il divieto di software per il riconoscimento delle emozioni. La normativa assai complessa non sarà pronta prima della fine dell’anno, poi ci sarà l’iter di approvazione.

La necessità di regole “temporanee”

Di regole “temporanee” che coinvolgano gli Stati europei su base volontaria ed anche la comunità internazionale ha parlato di recente la commissaria la commercio Margrethe Vestager, in seguito ad un colloquio con il numero uno di Google, Sundar Pichai, giunto a Bruxelles per assumere l’impegno a rispettare tutte le regole europee – da quella sul trattamento del dati personali a quelle sui servizi digitali – e per combattere la disinformazione.

“C’è un senso di urgenza condiviso. Per sfruttare al meglio questa tecnologia, sono necessari dei paletti”, ha spiegato la vicepresidente Vestager, riferendosi alle trattative in corso al G7.

Il G7 di Hiroshima

L’ultimo vertice del G7 in Giappone ha infatti discusso l’ipotesi di buttar giù delle regole o standard tecnici, per fissare dei paletti provvisori per l’AI e far si che sia “affidabile”.

I Sette, riuniti ad Hiroshima, hanno convenuto che la governance non è riuscita a tenere il passo con lo sviluppo della tecnologia, ma occorre che i “sistemi di intelligenza artificiale siano accurati, affidabili, sicuri e non discriminatori, indipendentemente dalla loro origine” e soprattutto siano “in linea con la nostra condivisione dei valori democratici”.

“Riconosciamo la necessità di fare immediatamente il punto sulle opportunità e le sfide dell’AI generativa”, si legge nel comunicato finale del G7 di Hiroshima, che ha istituito un gruppo di lavoro con i Ministri competenti per approfondire il tema dei rischi connessi all’AI generativa entro la fine di quest’anno.

Dalle opportunità ai rischi

Se da un lato l’Intelligenza Artificiale può esser vista come una fonte di progresso, benessere e lavoro, dall’altra pone seri rischi per il genere umano, soprattutto se utilizzata per manipolare le persone.

L’AI potrebbe esser fonte di occupazione, richiedendo personale qualificato per lo sviluppo e la gestione di questa tecnologia, ma nello stesso tempo potrebbe anche essere causa di disoccupazione, se l’aumento di produttività associato venisse impiegato per licenziare il personale esistente.

Anche i cosiddetti esperti dell’AI hanno messo in guardia dai rischi insiti in questa tecnologia. Di recente , è stato anche l’eclettico Elon Musk a lanciare l’allarme sull’AI, sollecitando una sospensione di sei mesi allo sviluppo dei sistemi più potenti.

Ma anche Sam Altman, Ceo di OpenAI e padre della rivoluzionaria ChatGPT, ha ammesso che, nell’arco dei prossimi dieci anni, “i sistemi di AI supereranno il livello di competenza degli esperti nella maggior parte dei settori” e che “, la super intelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato”.

Ma nello stesso tempo Altman avverte che, sta prendendo in considerazione l’idea di lasciare l’Europa se le regole dovessero rivelarsi troppo stringenti.