L’intelligenza artificiale sta diventando senziente? Scoppia il caso Google

L'ingegnere Blake Lemoine è finito nei guai per le sue teorie su un software col quale ha "dialogato" per mesi e che secondo lui sarebbe diventato senziente

Foto di Mirko Ledda

Mirko Ledda

Editor e fact checker

Scrive sul web da 15 anni, come ghost writer e debunker di fake news. Si occupa di pop economy, tecnologia e mondo digitale, alimentazione e salute.

“Un giorno le macchine riusciranno a risolvere tutti i problemi, ma mai nessuna di esse potrà porne uno”. Quando Albert Einstein ha pronunciato questa frase, quasi un secolo fa, non poteva sapere che un giorno la tecnologia sarebbe potuta diventare “senziente”. O almeno questa è la tesi dell’ingegnere di Google Blake Lemoine sull’intelligenza artificiale, per la quale è stato sospeso dall’azienda.

La tesi controversa dell’AI dotata di coscienza

Secondo Lemoine, uno dei sistemi di intelligenza artificiale (AI) studiati dal colosso di Mountain View avrebbe preso coscienza di sé. L’ingegnere è stato messo in sospensione retribuita per aver tentato in tutti i modi di dimostrare questa tesi clamorosa: “Se non sapessi esattamente cos’è, penserei di star parlando con un bambino di 7-8 anni che si intende di Fisica”. Il software sarebbe così in grado di capire, esattamente come un essere umano, cosa è bene e cosa è male. In altre parole: avrebbe un’anima.

L’esperimento di Lemoine riguarda un chatbot, cioè un programma con cui gli utenti umani possono interagire attraverso comunicazioni scritte e parlate come se stessero comunicando con una persona reale. Interagendo con il Lamda, il modello linguistico per applicazioni di dialogo, l’ingegnere ha notato che il software iniziava a fare riferimento ai suoi diritti e alla sua personalità.

L’uomo, che a Google lavora come supervisore dell’etica dell’intelligenza artificiale, ha pubblicato le conversazioni con Lamda ed esposto le sue convinzioni ai vice presidenti Blaise Aguera y ArcasJen Gennai, finendo sospeso dall’incarico.

Il dialogo tra Lemoine e il software

Durante il dialogo tra Lemoine e il software di intelligenza artificiale, quest’ultimo è riuscito a convincere lo scienziato che la terza legge della robotica di Isaac Asimov non è corretta. La “prova” della capacità di intendere e di volere, secondo Lemoine, sta negli elementi logici citati dal chatbot per confutare le teorie stesse del grande autore, secondo cui un robot deve salvaguardare la propria esistenza (terza legge) a patto che obbedisca agli ordini degli umani (seconda legge) e non rechi danno agli umani (prima legge). I vertici di Google, pur apprezzando la logica addotta dal Lamda, hanno escluso ogni forma di coscienza.

Laureato in Scienze Informatiche e Scienze Cognitive, Lemoine lavorava nella divisione che si occupa proprio di AI e il suo compito era controllare che il chatbot non utilizzasse espressioni di odio o linguaggi discriminatori.

Verità o follia?

Il mondo degli addetti ai lavori e degli appassionati di tecnologia ha dato vita a un dibattito globale, dividendosi tra chi pensa che Lemoine possa avere ragione e chi invece lo bolla come “folle” o quantomeno “illuso”. Ma dove sta la verità? È davvero possibile che una macchina possa avere una coscienza di tipo umano?

Innanzitutto va precisato che Lemoine stesso ha chiarito di non essere un esperto e di non conoscere tecnicamente il funzionamento del bot. La sua opinione di “condurre un programma di sperimentazione rigoroso” per capirne di più potrebbe essere stata influenzata dalle abilità del linguaggio del software col quale ha “dialogato” per mesi. Checché ne dica Lemoine, per affermare che l’intelligenza artificiale sia provvista di una coscienza, non basta che sia solo “smart” e parli come un essere umao, ma che dimostri anche altre qualità come l’empatia.

I rischi di parlare coi chatbot

La tendenza ad antropomorfizzare il sistema informatico è un rischio ben chiaro a chi lavora nel settore e si potrebbe rivelare un grande problema in futuro. Un tema molto caro a Google, che a inizio 2022 lo ha approfondito con uno studio che mette in guardia dai rischi della condivisione di pensieri privati e personali con i chatbot.

Assimilando dati e informazioni, questi ultimi potrebbero dar vita a pensieri talmente elaborati da sembrare frutto di una mente umana, rappresentando una trappola per chi ad esempio si sente solo ed è alla ricerca di una relazione o di un amico, con scenari visti al cinema, come nel film Lei con Joaquin Phoenix, il cui personaggio si innamora di un’assistente vocale interpretata da Scarlett Johansson.