L’intelligenza artificiale divora energia. Potrà anche essere la panacea di tutti i mali (salvo poi crearne altri…), ma per una valutazione seria e puntuale sugli effetti dell’IA non si può trascurare il fatto che inquina, pesantemente. Secondo quanto è stato calcolato in media, svilupparne una comporta l’emissione di circa 300 tonnellate di CO2, mentre il suo utilizzo può richiedere oltre 400 milioni di litri d’acqua all’anno.
Un nuovo studio dell’Università Cattolica stima che la transizione verso intelligenze artificiali più sostenibili potrebbe ridurre il consumo energetico e l’impronta di carbonio fino al 50%, e anche di più.
Quanta energia consuma l’IA e quanto inquina
L’addestramento di modelli di deep learning di grandi dimensioni, come Gpt (da cui è stato ricavato ChatGpt) e Bert (un’intelligenza artificiale sviluppata da Google per aiutare le macchine a capire il linguaggio naturale come le persone), richiede una quantità enorme di risorse, con un impatto ambientale significativo.
Nel 2019 l’Università del Massachussets ha provato a stimare il peso in termini di emissioni di CO2 della fase di addestramento di un’intelligenza artificiale generativa. Il risultato è stato di circa 280 tonnellate di anidride carbonica, circa 5 volte le emissioni di un’auto nel suo intero ciclo di vita.
Il modello Gpt-3, con i suoi 175 miliardi di parametri, ha richiesto ben 355 anni-Gpu di calcolo, con un consumo energetico stimato in 1.300 megawatt/ora (MWh), pari al fabbisogno annuale di energia di ben 130 case negli Stati Uniti. Il costo dell’energia per il solo addestramento di questo modello è di circa 4,6 milioni di dollari.
Chatgpt-3 ha prodotto 550 milioni di tonnellate di CO2 in fase di addestramento, mentre su Chatgpt-4 non si hanno ancora dati, ma molto probabilmente saranno ancora di più. L’addestramento di Bert ha prodotto 284 tonnellate di CO2, equivalenti alle emissioni di 125 voli transcontinentali.
Secondo le simulazioni del professor Kasper Groes Albin Ludvigsen, fondatore della Danish Data Science Community, tra 20 anni avremo addirittura una nuova “bomba climatica”, capace da sola di generare più di 1 miliardo di tonnellate di CO2. Basterà solo che 3 miliardi di persone utilizzino Chatgpt-4 ogni giorno, con una trentina di ricerche quotidiane.
Oltre al consumo diretto, c’è poi il problema dei data center che ospitano le IA: si stima che assorbano circa il 15% dell’energia totale di Google, contribuendo significativamente all’impatto ambientale complessivo dell’azienda, che peraltro domina sempre più indiscussa il mercato, ancor più dopo l’arrivo, anche in Italia, di AI Overview, che rivoluziona la ricerca di informazioni sul più grande motore di ricerca al mondo.
Green AI contro Red AI
Per contrastare questa emergenza ambientale (che si unisce a quella lavorativa, visti i lavori che spariranno nei prossimi 10 anni), gli esperti suggeriscono di adottare modelli di Green AI – contrapposta alla Red AI – ovvero sistemi sostenibili progettati per ridurre il consumo energetico e le emissioni di CO2, anche a costo di perdere un po’ di precisione nella restituzione dei dati.
Secondo lo studio dell’Università Cattolica di Brescia, condotto dai ricercatori Enrico Barbierato e Alice Gatti del Dipartimento di Matematica e Fisica, pubblicato sulla rivista IEEE Access, la transizione verso un’IA più sostenibile potrebbe ridurre il consumo energetico e l’impronta di carbonio fino al 50% o più.
Come arrivarci? Lo studio suggerisce diverse strategie:
- cambiare gli hardware utilizzati, usando solo TPU, che possono essere fino a 80 volte più efficienti delle CPU tradizionali, e consentono di ridurre drasticamente il consumo energetico;
- diminuire il numero di parametri su cui vengono addestrati i modelli, senza comprometterne significativamente le prestazioni, abbattendo il consumo energetico del 30%-50%;
- usare solo fonti di energia rinnovabile, con modelli di IA già testati con alimentazione 100% green.