Il padrino dell’Intelligenza Artificiale si dimette: “Ecco i rischi che corriamo”

Geoffrey Hinton ha confermato di aver lasciato il suo ruolo in Google la scorsa settimana per i “pericoli” legati della tecnologia che lui stesso ha contribuito a sviluppare.

Foto di Paolo Viganò

Paolo Viganò

Giornalista di attualità politico-economica

Classe 1974, giornalista professionista dal 2003, si occupa prevalentemente di politica, geopolitica e attualità economica, con diverse divagazioni in ambito sportivo e musicale.

L’Intelligenza Artificiale è indubbiamente il fenomeno tecnologico più dibattuto nelle ultime settimane. Una tecnologia che affascina e spaventa nello stesso tempo non solo per le proiezioni distopiche sul suo possibile utilizzo, ma già dai freddi numeri. Che secondo alcune proiezioni potrebbero alzare sensibilmente il Pil del prossimo quinquennio al prezzo di non meno di 500mila posti di lavoro che rischiano semplicemente di evaporare.

Ora ad aggiungere un carico non da poco arriva uno dei pionieri dell’AI, che ne conosce bene basi e margini di sviluppo. Geoffrey Hinton, 75 anni, considerato il “padrino dell’Intelligenza artificiale” ha lasciato il suo ruolo in Google per poter parlare liberamente dei rischi dell’Intelligenza Artificiale senza che ciò possa avere impatto sull’azienda. “Me ne sono andato per poter parlare dei suoi pericoli”, ha detto in un tweet dopo che ieri il New York Times ha dato la notizia. Vediamo su cosa ha lavorato Hinton e queli pericoli vede nello sviluppo dell’AI.

Rischio sorpasso sulle capacità umane

Lo scienziato ha lavorato per un decennio sullo sviluppo dell’IA di Google, ma da allora ha iniziato a nutrire preoccupazioni per la tecnologia e il suo ruolo nel farla progredire. “Mi consolo con la solita scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro”, ha detto Hinton al New York Times. Lo psicologo cognitivo e scienziato informatico britannico-canadese ha dichiarato alla Bbc che il chatbot potrebbe presto superare il livello di informazioni di un cervello umano. “In questo momento, non sono più intelligenti di noi, per quanto ne so. Ma penso che presto potrebbero esserlo”, ha spiegato Hinton.

“In questo momento, quello che stiamo vedendo è che cose come GPT-4 oscurano una persona nella quantità di conoscenza generale che ha e la oscura di gran lunga. In termini di ragionamento, non è così buono, ma fa già un semplice ragionamento. E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene”, ha spiegato alla Bbc.

L’allarme

Lo scorso marzo, alcune figure di spicco del mondo tecnologico avevano firmato una lettera in cui si chiedeva ai laboratori di intelligenza artificiale di interrompere l’addestramento dei sistemi di IA più potenti per almeno sei mesi, citando “profondi rischi per la società e l’umanità”, un paio di settimane dopo che OpenAI aveva annunciato GPT-4, una versione ancora più potente della tecnologia che alimenta ChatGPT.

Nell’intervista al Times, Hinton ha ribadito le sue preoccupazioni riguardo al potenziale dell’IA di eliminare posti di lavoro e di creare un mondo in cui molti “non saranno più in grado di sapere cosa è vero”. Ha anche sottolineato il ritmo sbalorditivo dei progressi, ben al di là di quanto lui e altri avevano previsto.

A proposito di “essere grado di sapere cosa è vero”, le prossime elezioni presidenziali negli Usa saranno un primo test importante. C’è chi teme, non a torto, che le ultime due settimane di campagna elettorale potranno trasformaresi in un autentico far west di fake news, discorsi mai usciti dalla bocca di uno dei contendenti, immagini create ad arte e quant’altro. E allora forsì sì, si inizierà a fare i conti coi rischi dell’AI anche al di fuori della cerchia degli addetti ai lavori.