Google AI Overview consiglia di mettere la colla sulla pizza: i problemi della nuova ricerca

Google AI Overview ha commesso alcuni errori che hanno minato un'altra volta la reputazione dell'intelligenza artificiale dell'azienda

Foto di Matteo Runchi

Matteo Runchi

Editor esperto di economia e attualità

Redattore esperto di tecnologia e esteri, scrive di attualità, cronaca ed economia

Pubblicato: 25 Maggio 2024 10:56

Google ha messo a disposizione degli utenti statunitensi la sua nuova funzione di ricerca basata sull’intelligenza artificiale generativa: AI Overview. L’idea è quella di sfruttare le capacità riassuntive di questa tecnologia per rispondere alle domande degli utenti senza costringerli ad aprire altri siti internet che non siano Google stesso. L’opzione è attiva solo su alcune specifiche tipologie di ricerche, ma ha già avuto seri problemi.

I primi dubbi erano sorti immediatamente alla presentazione della tecnologia, con una risposta in particolare che risultava di dubbia utilità se non errata. Nei primi giorni di disponibilità al pubblico però sono emersi diversi casi di allucinazioni da parte di AI Overview che hanno dimostrato i limiti di questa tecnologia nel riconoscere i fatti e le fonti da cui trarre le risposte. Non si tratta del primo passo falso di questo tipo per Google, che nel 2023 aveva reso disponibile troppo velocemente il proprio chatbot Bard, le cui risposte errate avevano fatto perdere milioni di dollari di capitalizzazione di mercato all’azienda.

Le allucinazioni di Google AI Overview

Google AI Overview non sta avendo un esordio semplice negli Stati Uniti. Il nuovo strumento del motore di ricerca più utilizzato al mondo aveva causato stupore e preoccupazione quando era stato presentato, per le sue potenzialità. Si tratta infatti di un riassunto che compare prima di ogni altra ricerca e che risponde ad alcune specifiche domande. Google lo ritiene utile soprattutto per le ricerche che incrociano più elementi, ma il suo tratto distintivo è quello di essere generato da un’intelligenza artificiale.

Potenzialmente, hanno osservato diversi esperti, questo è un altro passo verso la cosiddetta fine dei siti internet. Negli ultimi anni la struttura tradizionale del web è stata sostituita da piattaforme, social network e app che rendono sempre più difficile l’accesso ai siti internet tradizionali. Google è una parte fondamentale di questo cambiamento. Il suo algoritmo è arbitro assoluto del successo di un sito. Le accortezze che ogni sito prende per apparire più in alto nelle ricerche, la cosiddetta search engine optimization (SEO), sono fondamentali per la sopravvivenza di un portale.

Al momento però gli utenti stanno segnalando gravi errori nelle risposte di AI Overview. La più famosa tra quelle circolate è quella che consiglia di mettere della colla non tossica sulla pizza fatta in casa per impedire al formaggio di scivolare via dalla superficie quando la si mangia. Un’idea presa direttamente da un commento sul social network Reddit, palesemente ironico e scritto una decina di anni fa.

L’errore è stato segnalato dal sito di informazione a tema tecnologico The Verge, a cui ha risposto una portavoce di Google stessa, Meghann Farnsworth: “Questi errori compaiono generalmente in ricerche molto poco frequenti e non sono rappresentative dell’esperienza della maggior parte degli utenti. L’azienda sta comunque utilizzando questi esempi isolati per continuare a migliorare il prodotto” ha affermato.

I problemi di Google con l’AI

Quelli emersi sui social negli ultimi giorni non sono gli unici errori dall’IA di Google. Alcuni problemi erano emersi nella presentazione delle ultime novità durante il Google I/O. Un ambiente in teoria controllato, dove dovrebbero essere in mostra solo le migliori qualità di un prodotto. Durante lo show, era stata mostrata a Gemini, il chatbot di Google, una macchina fotografica a rullino inceppata. L’intelligenza artificiale aveva suggerito, tra le altre risposte, di aprire l’apparecchio e rimuovere delicatamente la pellicola. Un’operazione che avrebbe esposto gli scatti alla luce solare rovinandoli.

Non un errore magari, dato che il risultato sarebbe stato ottenuto, ma di certo un’imprecisione da parte di uno strumento che dovrebbe migliorare, nelle intenzioni di Google, l’esperienza di ricerca. Non si tratta però della prima volta che l’azienda ha problemi con l’intelligenza artificiale. Più di un anno fa, nel febbraio del 2023, il colosso delle ricerche web aveva presentato Bard, il suo chatbot, in risposta a ChatGPT. Il successo di OpenAI aveva colto di sorpresa Alphabet e aveva spinto l’azienda a rilasciare in fretta la sua risposta per non rimanere esclusa dall’eccitazione creatasi attorno all’AI generativa.

Durante la sua presentazione, Bard diede una risposta errata riguardante il JWST (James Webb Space Telescope), il più grande e importante telescopio spaziale al mondo. Diversi astronomi e appassionati avevano notato lo sbaglio e Alphabet, l’azienda proprietaria di Google, aveva perso in un giorno il 7% del proprio valore in Borsa. Da allora Bard è stato rinominato Gemini e presto potrebbe trovare spazio come intelligenza artificiale unica sugli iPhone di Apple. Le allucinazioni di AI Overview però non hanno certo rafforzato la posizione di Google all’interno del mercato dei prodotti che si basano sull’intelligenza artificiale generativa.

Perché l’AI generativa ha le allucinazioni

Gli errori commessi dall’intelligenza artificiale generativa si chiamano allucinazioni e secondo alcuni ricercatori potrebbero essere una parte integrante di questa tecnologia molto difficile da risolvere. Le allucinazioni emergono infatti dal modo in cui l’AI generativa crea le proprie risposte. Questi strumenti funzionano infatti grazie a dei Large Language Models, algoritmi molto efficienti nell’estrazione di pattern da una grande quantità di dati. Una volta estrapolato il modello, l’intelligenza artificiale lo replica con un calcolo probabilistico.

Quando un chatbot riceve una domanda da un utente quindi non ne analizza il significato ma soltanto la forma, ripetendo una risposta che ritiene molto probabile. Per questa ragione alcuni ricercatori hanno definito questi strumenti “Pappagalli probabilistici“. Esattamente come fa un pappagallo, un chatbot risponde ripetendo un modello senza però comprendere cosa sta scrivendo, né cosa l’utente volesse chiedere.

Il problema delle allucinazioni emerge per due motivi. I chatbot sono programmati per rispondere sempre, anche quando non hanno dati per soddisfare una richiesta. Di conseguenza applicano la probabilità maggiore, anche se bassa, al prompt che viene loro fornito dall’utente, spesso allucinando una realtà che non esiste. Queste risposte allucinate sono però sempre sintatticamente corrette e quindi danno l’impressione di non avere alcun problema.

Alcune aziende, come la stessa Google, stanno puntando sull’apprendimento multimodale per superare questo difetto. Gemini, l’AI di Google, apprende non solo da testi, ma anche da immagini, audio e video, e questo processo dovrebbe aiutare a diminuire le allucinazioni. I recenti errori però dimostrano che queste tecnologie sono ancora lontane dall’essere completamente affidabili.