ChatGPT e consumo energetico, anche per l’AI generativa è arrivata la prova sostenibilità

ChatGPT consuma una quantità significativa di acqua ed energia durante il processo di addestramento e utilizzo, con potenziali rischi per l’ambiente. Anche i social non sono da meno

Foto di Donatella Maisto

Donatella Maisto

Esperta in digital trasformation e tecnologie emergenti

Dopo 20 anni nel legal e hr, si occupa di informazione, ricerca e sviluppo. Esperta in digital transformation, tecnologie emergenti e standard internazionali per la sostenibilità, segue l’Innovation Hub della Camera di Commercio italiana per la Svizzera. MIT Alumni.

Secondo dati pubblicati dai ricercatori dell’Università del Colorado Riverside e dell’Università del Texas Arlington, l’addestramento di ChatGPT richiede un’enorme quantità di acqua pulita, pari a 700.000 litri per i data center negli Stati Uniti.

Le basi scientifiche su cui si basa la ricerca sono di tale rilevanza che non possono non sollevare importanti questioni, volte ad identificare i potenziali rischi per l’ambiente.

L’acqua, i dati non sono confortanti

Per rispondere a domande e generare testo, ChatGPT richiede acqua, pari a una bottiglia da 500 ml per ogni 20-50 domande. Questo risultato si amplifica e preoccupa, conseguentemente, molto se si pensa al numero di utenti e alle query che si possono condividere a livello globale.
La domanda totale di acqua dolce a supporto dei processi tecnologici potrebbe essere di 6,6 miliardi di metri cubi nel 2027.

Lo studio classifica l’utilizzo dell’acqua in tre aree: scope 1, 2 e 3, laddove:

  • Scope-1 comprende l‘acqua utilizzata nelle torri di raffreddamento e per il raffreddamento ad aria dei server. I server necessitano di molta acqua, soprattutto quando utilizzano GPU di fascia alta e possono facilmente surriscaldarsi
  • Scope-2 considera l’acqua fuori sede utilizzata per generare elettricità
  • Scope-3 è l’acqua utilizzata nei processi per la produzione di chip e server AI. Questa categoria utilizza un’enorme quantità di acqua.

Tutte e tre queste categorie richiedono acqua dolce e la wafer fabrication (ndr. la procedura per realizzare circuiti elettrici per la fabbricazione di semiconduttori) ha bisogno di acqua ultrapura. I dischi sottili di silicio hanno bisogno di acqua per mantenersi puliti durante la fabbricazione. Quest’acqua è talmente pura che ha persino ioni di sale filtrati, per non attivare processi corrosivi.
Il riciclo dell’acqua aiuterebbe questo processo, ma non sempre il risultato è efficiente.

L’alto consumo energetico

A preoccupare, tuttavia, non è solo il consumo idrico, sicuramente foriero già da solo di ricadute impattanti sul nostro ecosistema. Lo studio rileva l’alto consumo energetico associato all’implementazione di ChatGPT.
E’ stato stimato che l’addestramento di un modello GPT-3 emette il 305% in più di anidride carbonica rispetto a un volo in jet passeggeri da San Francisco a New York. Un altro studio ha scoperto che mentre l’americano medio produce 36.156 libbre di anidride carbonica all’anno, la formazione di un modello con una pipeline NLP ne produce 78.468.

L’AI, inoltre, sta consumando una quantità significativa di energia elettrica. Secondo l’Agenzia Internazionale per l’Energia, i data center utilizzano tra l’1 e l’1,5% del consumo globale di energia elettrica e l’AI incide su questa forbice in maniera significativa.

Cosa fanno le big tech

La maggior parte delle aziende non hanno avuto un buon track record utilizzando energia rinnovabile (idroelettrico, eolico, solare, ecc). Microsoft ha recentemente annunciato di investire più di $ 10 miliardi nello sviluppo di 10,5 gigawatt di energia rinnovabile con Brookfield Asset Management tra il 2026 e il 2030. Google è anche determinato a fare affidamento su energia senza carbonio entro il 2030. Mentre Amazon sostiene di essere stato il più grande acquirente aziendale di energia rinnovabile nel 2023, ma potrebbero fare molto di più.

Creare modelli di intelligenza artificiale complessi richiede una quantità considerevole di energia, che genera anidride carbonica. GPT-3, che conta 175 miliardi di parametri, ha consumato 1.287 megawattora di elettricità e ha generato 552 tonnellate di anidride carbonica, equivalente all’uso di 123 autovetture a benzina per un anno intero.

La ricerca sottolinea l’importanza di affrontare la questione dell’impatto ambientale dei modelli di intelligenza artificiale e di promuovere l’adozione responsabile di tali tecnologie. È necessario un impegno congiunto tra le aziende, le istituzioni e la comunità globale per sviluppare soluzioni che riducano l’impronta ambientale dell’intelligenza artificiale e favoriscano uno sviluppo sostenibile.

Sulla rivista scientifica Nature, Sam Altman dichiarava: “La prossima ondata di AI generativa consumerà molta più energia del previsto”. L’autrice dell’articolo, Kate Crawford, ha definito “insolita” l’ammissione di Altman. L’autrice del libro ‘Atlas of AI’ ha approfondito i costi ambientali. Secondo una valutazione “sta già consumando l’energia di 33mila case”.
Queste considerazioni sono state oggetto di una serie di condivisioni al World Economic Forum, a Davos, e a queste Kate Crawford ha aggiunto: “L’ammissione di Altman ha spinto, finalmente, ricercatori, regolatori e titani del settore a parlare dell’impatto ambientale dell’intelligenza artificiale generativa”.

Quante emissioni genera l’uso dell’AI generativa

E’ possibile quantificare le emissioni causate dall’uso dell’AI generativa grazie ad uno studio condotto dai ricercatori della startup AI Hugging Face e della Carnegie Mellon University. 

Quanta energia serve per creare un’immagine con l’AI

Generare una sola immagine, utilizzando un modello di intelligenza artificiale, richiede la stessa energia necessaria per caricare completamente uno smartphone. La generazione di 1000 immagini con un potente modello di intelligenza artificiale è responsabile della produzione di una quantità di anidride carbonica pari a quella di guidare per 6,6 chilometri un’utilitaria a benzina.

Quanta energia serve per creare un testo con l’AI

L’utilizzo di un modello di intelligenza artificiale per generare testo richiede un dispendio energetico inferiore. Creare un testo per 1000 volte consuma solo il 16% della carica completa dello smartphone. Questa metodologia è basata sulla misurazione delle emissioni associate a diverse attività di intelligenza artificiale, come la risposta alle domande, la generazione di testo, la classificazione delle immagini, i sottotitoli e la generazione di immagini, e, in più, eseguendo gli esperimenti su 88 modelli diversi. Per ciascuna attività l’energia utilizzata è stata misurata da uno strumento chiamato Code Carbon, capace di effettuare calcoli osservando l’energia consumata dal computer durante l’esecuzione del modello.

Quanta energia serve per allenare l’AI

Si stima che ChatGPT potrebbe emettere circa 3.8 tonnellate di CO2 ogni singolo giorno. Per il solo training di ChatGPT è stato stimato un livello di emissioni pari a quello di un’auto che percorre un tragitto lungo quanto un viaggio di andata e ritorno sulla Luna. Alcuni scienziati hanno calcolato che questo “allenamento” necessario al funzionamento di ChatGPT genera CO2 agli stessi livelli di un’auto che percorre 700.000 km, che è circa il doppio della distanza tra la Terra e la Luna.

Si tratta di calcoli approssimativi dato che le informazioni a disposizione sono limitate, ma sicuramente da non sottovalutare.

Come ridurre l’impatto dei grandi modelli AI

Come è possibile cercare di ridurne l’impatto ambientale? Le opzioni per limitare la loro digital footprint potrebbero essere:

  • “Comprimere” i modelli di grandi dimensioni
  • Selezionare solo i dati più pertinenti per l’addestramento o modificare efficacemente i modelli esistenti per una nuova attività
  • Stimare l’impatto ambientale
  • Affidarsi a Cloud provider che assicurino l’approvvigionamento di energia elettrica da fonti di energia rinnovabile, in modo tale da ridurre al minimo l’emissione di CO2.

Analisi del ciclo di vita per comprendere gli impatti ambientali di ChatGPT

L’analisi del ciclo di vita (LCA) è un metodo sistematico per la quantificazione dell’impatto ambientale. L’LCA copre la vita del prodotto dall’estrazione della materia prima allo smaltimento, fornisce un quadro completo dell’impatto ambientale e aiuta a ridurre gli effetti ambientali negativi.

Applicando l’LCA al ChatGPT, è necessario argomentare 4 fasi:

  • definizione degli obiettivi e dell’ambito
  • analisi dell’inventario
  • valutazione dell’impatto
  • interpretazione.

L’ambito per l’analisi degli impatti ambientali di ChatGPT è definito come ‘Cradle to Gate’, che è la valutazione di un ciclo di vita parziale del prodotto dalla progettazione al punto in cui è pronto per gli utenti.
La seconda fase si concentra sulla raccolta dei dati di input e output, sottolineando la qualità dei dati e la pertinenza, allocando per processi multifunzionali e costituendo in questo modo la base per la valutazione del carico ambientale.
Nella terza fase, i risultati della seconda fase sono classificati in categorie di impatto dell’impronta idrica e di carbonio e sono caratterizzati per valutare il contributo alle categorie di impatto.
Nella fase finale, i problemi ambientali significativi causati da ChatGPT sono identificati e i principali risultati di LCA sono segnalati ai partecipanti.

Le intelligenze artificiali generative come ChatGPT sono potenziali golfi di energia e risorse naturali in ogni fase del loro ciclo di vita.
ChatGPT utilizza 30.000 unità di consumo di energia Graphics Processing Units (GPU) e la domanda di energia operativa per i centri di dati suggeriscono che, entro il 2027, il consumo di energia ChatGPT potrebbe rivaleggiare con quella di intere nazioni come la Svezia, Argentina o Paesi Bassi.

Per procedere con l’addestramento ChatGPT deve guardare miliardi di esempi, come immagini e testi. Ad esempio, la formazione della versione precedente, GPT-3, avrebbe consumato tanta energia quanto 300 famiglie francesi in un anno, circa 1300 MWh. Ciò si traduce anche in circa 500 tonnellate di emissioni di CO2, ma la quantità esatta può cambiare a seconda della fonte di energia. OpenAI ha ora realizzato GPT-4, che è un modello ancora più complesso.

Un modo per affrontare questo problema è sostenere una maggiore trasparenza nello sviluppo e nel funzionamento dei sistemi di apprendimento automatico. Gli studiosi hanno sviluppato strutture per assistere i ricercatori nel segnalare il loro uso di energia e carbonio, con l’obiettivo di promuovere la responsabilità e pratiche responsabili nel campo.

Per aiutare i ricercatori nell’analisi comparativa del loro consumo energetico, alcuni studiosi hanno reso pubblici strumenti online che incoraggiano i team a condurre prove in aree eco-compatibili, fornire aggiornamenti coerenti sulle misure di energia e carbonio e valutare attivamente l’uso dell’energia e le prestazioni prima dell’introduzione di modelli ad alta intensità energetica.

Anche i social non sono da meno

Tra i maggior social inquinanti troviamo al primo posto Tik Tok, che consuma e inquina 2,63 emissioni di CO2 al minuto. L’utilizzo medio di 45 minuti di consumo giornaliero su Tik Tok, in un anno, inquina producendo circa 140Kg di emissioni di CO2. Se calcoliamo un terzo degli utenti mensili attivi l’utilizzo del famoso social network produce circa 80.302.000 kWh al giorno.

Meta produce circa 0,79 grammi di CO2 ogni minuto. Con una media giornaliera di utilizzo del social network di 32 minuti da parte dei suoi 1,96 milioni di utenti attivi, le emissioni di CO2 ammontano a circa 46.797 tonnellate ogni giorno, raggiungendo un totale annuale di 17.080.905 tonnellate di CO2, circa 34.161.810.000 kWh.

L’impatto derivante dal possibile uso combinato di Facebook e Tik Tok in termini di emissioni è paragonabile a quello necessario per un viaggio di andata e ritorno da Londra a New York per l’intera popolazione londinese.