L’intelligenza artificiale sta diventando senziente? Scoppia il caso Google

L'ingegnere Blake Lemoine è finito nei guai per le sue teorie su un software col quale ha "dialogato" per mesi. Secondo lui, il chatbot sarebbe dotato di coscienza. Ma cosa c'è di vero?

Foto di QuiFinanza

QuiFinanza

Redazione

QuiFinanza, il canale verticale di Italiaonline dedicato al mondo dell’economia e della finanza: il sito di riferimento e di approfondimento per risparmiatori, professionisti e PMI.

“Un giorno le macchine riusciranno a risolvere tutti i problemi, ma mai nessuna di esse potrà porne uno”. Quando Albert Einstein ha pronunciato questa frase, quasi un secolo fa, non poteva sapere che un giorno la tecnologia sarebbe potuta diventare “senziente”. O almeno questa è la tesi dell’ingegnere di Google Blake Lemoine sull’intelligenza artificiale, per la quale è stato sospeso dall’azienda.

La tesi controversa dell’AI dotata di coscienza

Secondo Lemoine, uno dei sistemi di intelligenza artificiale (AI) studiati dal colosso di Mountain View avrebbe preso coscienza di sé. L’ingegnere è stato messo in sospensione retribuita per aver tentato in tutti i modi di dimostrare questa tesi clamorosa: “Se non sapessi esattamente cos’è, penserei di star parlando con un bambino di 7-8 anni che si intende di fisica”. Il software sarebbe così in grado di capire, esattamente come un essere umano, cosa è bene e cosa è male. In altre parole: avrebbe un’anima.

L’esperimento di Lemoine riguarda un chatbot, cioè un programma con cui gli utenti umani possono interagire – attraverso comunicazioni scritte e parlate – come se stessero comunicando con una persona reale. Interagendo con questo LaMDA (Modello Linguistico per applicazioni di Dialogo), Lemoine ha notato che il software iniziava a fare riferimento ai suoi diritti e alla sua personalità. L’ingegnere, che a Google lavora come supervisore dell’etica dell’intelligenza artificiale, ha pubblicato le conversazioni con LaMDA ed esposto le sue convinzioni ai vice presidenti Blaise Aguera y ArcasJen Gennai, finendo sospeso dall’incarico (qui abbiamo parlato del metaverso Google con gli occhiali a realtà aumentata).

Il dialogo tra Lemoine e il software

Durante il dialogo tra Lemoine e il software di intelligenza artificiale, quest’ultimo è riuscito a convincere lo scienziato che la terza legge della robotica di Isaac Asimov non è corretta. La “prova” della capacità di intendere e di volere, secondo Lemoine, sta negli elementi logici citati dal chatbot per confutare la teoria di Asimov secondo cui un robot deve salvaguardare la propria esistenza (terza legge) a patto che obbedisca agli ordini degli umani (seconda legge) e non rechi danno agli umani (prima legge).

I vertici di Google, pur apprezzando la logica addotta da LaMDA, hanno escluso ogni forma di coscienza. Laureato in Scienze Informatiche e Scienze Cognitive, Lemoine lavorava nella divisione che si occupa proprio di AI e il suo compito era controllare che il chatbot non utilizzasse espressioni di odio o linguaggi discriminatori.

Verità o follia?

Il mondo degli addetti ai lavori e degli appassionati di tecnologia ha dato vita a un dibattito globale, dividendosi tra chi pensa che Lemoine possa avere ragione e chi invece lo bolla come “folle” o quantomeno “illuso”. Ma dove sta la verità? È davvero possibile che una “macchina” possa avere una coscienza di tipo umano?

Innanzitutto va precisato che Lemoine stesso ha chiarito di non essere un esperto e di non conoscere tecnicamente il funzionamento di LaMDA. La sua opinione di “condurre un programma di sperimentazione rigoroso” per capirne di più potrebbe essere stata influenzata dalle abilità del linguaggio del software col quale ha “dialogato” per mesi. Checché ne dica Lemoine, per affermare che l’Intelligenza Artificiale sia provvista di una coscienza non basta che sia solo “smart” o intelligente, ma che dimostri anche altre qualità spiccatamente umane come l’empatia (Elon Musk vuole “impiantarci chip nel cervello”? Cosa c’è di vero).

I rischi di parlare coi chatbot

La tendenza ad antropomorfizzare il sistema informatico è un rischio ben chiaro a chi lavora nel settore e si potrebbe rivelare un grande problema in futuro. Un tema molto caro a Google, che a inizio 2022 ha approfondito con uno studio su LaMDA mettendo in guardia dai rischi della condivisione di pensieri privati e personali con i chatbot. Assimilando dati e informazioni, questi ultimi potrebbero dar vita a pensieri talmente elaborati da sembrare frutto di una mente umana. Un grande rischio per chi è più debole e solo.