Negli ultimi anni i media hanno spesso denunciato i presunti elevati costi ambientali dell’AI generativa: l’idea che centinaia di milioni di utenti di ChatGPT possano tradursi in consumi energetici giganteschi e in un enorme spreco d’acqua è diventata un luogo comune. Ad esempio un’inchiesta del Washington Post dell’autunno 2024 stimava che generare una mail di 100 parole con GPT-4 richiedeva “un po’ più di una bottiglia” d’acqua. Allo stesso tempo ricerche e analisi indipendenti hanno ipotizzato che l’AI possa presto superare settori notoriamente energivori come il mining di Bitcoin o incidere per decine di percentuali sul consumo dei data center globali entro pochi anni. Queste accuse – riassunte in titoli allarmistici e post sui social – hanno messo in ombra qualsiasi dichiarazione rassicurante da parte dell’industria.
Ma le recenti dichiarazioni del CEO di OpenAI Sam Altman provengono proprio per smentire questi timori. In un lungo post sul suo blog personale del 10 giugno 2025, Altman afferma che i consumi di una richiesta media a ChatGPT sono in realtà estremamente bassi: “la query media usa circa 0,34 watt-ora di energia” – tanto quanto “quello che un forno consumerebbe in poco più di un secondo, o una lampadina ad alta efficienza in un paio di minuti” – e “inoltre circa 0,000085 galloni d’acqua; approssimativamente un quindicesimo di cucchiaino”. Queste stime – calcolate sui dati interni di OpenAI – restano sorprendentemente minute rispetto a quanto spesso circola. Nonostante Altman non abbia fornito nel post dettagli sulla metodologia, analogie pratiche come quelle citate aiutano a rendere l’ordine di grandezza: una singola richiesta di ChatGPT, secondo lui, costa in energia meno di quanto ne serva per la breve accensione di un elettrodomestico comune.
Le parole di Altman hanno immediatamente generato scalpore e scetticismo. Alcuni osservatori hanno sottolineato che il CEO non ha “offerto alcuna prova” delle sue affermazioni. Il sito Gizmodo, ad esempio, ha messo in dubbio la trasparenza delle cifre fornite da Altman, osservando l’assenza di dati metodologici e riferimenti verificabili, ricordando che un’analisi accademica del 2023 calcolava consumi di gran lunga superiori per ChatGPT-3. Analogamente, molti commentatori citavano dati del 2024 come quelli del Washington Post, i quali suggerivano un uso idrico “di qualche bottiglia” anche per compiti apparentemente brevi. In questo contesto, le cifre di Altman potrebbero sembrare impossibilmente basse. Eppure un’analisi aggiornata conferma che non è così: gli studi più recenti, basati su hardware moderno e condizioni realistiche, tendono a indicare consumi effettivi molto contenuti. Ad esempio, un rapporto tecnico pubblicato da Epoch AI a febbraio 2025 ha stimato che una tipica query a ChatGPT-4 (il modello su cui si basano oggi i servizi più avanzati) richiede circa 0,3 watt-ora di energia – un valore in linea con il 0,34 Wh dichiarato da Altman, e dieci volte inferiore alle cifre su cui si basavano le prime previsioni.
Dal punto di vista del consenso scientifico e tecnologico attuale, dunque, le dichiarazioni del CEO di OpenAI trovano conferma. Quelle 0,34 Wh per richiesta rappresentano già una stima cautelativa (per query molto lunghe o che coinvolgono modelli più complessi, il consumo sale), ma restano numeri modesti a confronto con gran parte del parco tecnologico quotidiano. Come nota The Register, le stime di Altman sono state successivamente affiancate e sostanzialmente confermate dall’analisi di Epoch AI che ribadiva come i modelli odierni siano molto più efficienti dei predecessori: «un’istanza media di GPT-4o consuma circa 0,3 watt-ora per una domanda testuale». In pratica, persino l’utilizzatore più assiduo di ChatGPT impiegherebbe nell’arco di un anno un’energia paragonabile a quella consumata mediamente in un singolo giorno da una famiglia occidentale: il Dipartimento dell’Energia USA calcola che un nucleo familiare medio statunitense consuma all’incirca 10.500 kWh all’anno (oltre 28.000 Wh al giorno).
Allo stesso modo i consumi idrici prospettati da Altman risultano in realtà quasi irrisori. L’ordine di grandezza di 0,000085 galloni per query equivale a qualche decina di millilitri, ovvero a qualche goccia d’acqua: un valore corrispondente a circa un quindicesimo di cucchiaino. In totale, anche moltiplicando per miliardi di richieste al giorno, i numeri complessivi restano molto più bassi rispetto alle ipotesi allarmistiche dell’anno scorso. Per dare un’idea: basandosi sulle metriche di Altman e sui dati di utilizzo forniti da OpenAI (oltre 300 milioni di utenti settimanali e circa 1 miliardo di messaggi al giorno), si arriva a un consumo idrico stimato attorno a 85.000 galloni al giorno su scala globale. Sono cifre importanti ma ordini di grandezza più bassi di quelli che circolavano in precedenza, specie se paragonati agli enormi consumi idrici che già affliggono altre infrastrutture informatiche – e ancor più infondati se contrapposti alla vita quotidiana.
Per contestualizzare ulteriormente, può essere utile confrontare l’AI con settori già noti per l’elevato dispendio energetico. Ad esempio il mining del Bitcoin – spesso indicato come simbolo del consumo folle di energia – utilizza attualmente centinaia di TWh all’anno; alcune analisi suggeriscono che entro il 2025 l’AI potrebbe raggiungerlo o addirittura superarlo. Allo stato attuale, tuttavia, ChatGPT ha un’impronta energetica complessiva di gran lunga inferiore. Se si considera che Netflix – primo servizio di streaming video al mondo – dichiarava un consumo annuo di circa 451.000 MWh (451 GWh) nel 2019, sufficiente ad alimentare 40.000 case statunitensi per un anno, l’energia necessaria a far girare ChatGPT risulta decisamente più modesta. Concentrare l’attenzione su un singolo cappuccino preparato al mattino, ad esempio, evidenzia la differenza: l’energia richiesta per erogare un caffè al bar è fino a diverse volte superiore a quella di decine di interrogazioni contemporanee a ChatGPT. Allo stesso modo, comparare l’AI a settori come il trasporto aereo o la produzione industriale appare fuori scala: seppure in crescita, l’uso di energia da parte dei data center dedicati all’AI rimane per ora una frazione limitata del totale di certi comparti tradizionali.
Le nuove stime fornite da Altman e confermate da fonti indipendenti suggeriscono che le perplessità ambientali su ChatGPT erano in gran parte basate su dati superati o su confronti fuorvianti. Certo, l’espansione continua dell’intelligenza artificiale richiede attenzione alle emissioni e allo sfruttamento delle risorse, ma i numeri più recenti dimostrano che, almeno per quanto riguarda il consumo elettrico e idrico per singola interazione, ChatGPT è molto meno gravoso di quanto molti potessero temere. Come osserva lo stesso Altman, in prospettiva il costo dell’intelligenza potrebbe arrivare ad avvicinarsi quasi a quello dell’elettricità pulita, grazie ai progressi tecnologici e alle infrastrutture sempre più efficienti. Più in generale, questo episodio ricorda l’importanza di aggiornare di continuo le analisi: i dati aggiornati mostrano che alcune accuse all’AI perdono gran parte della loro forza nel passare dalle speculazioni ai fatti.