Skip to content Skip to footer

La narrazione mediatica sull’impatto ambientale dell’AI era infondata: lo confermano i dati di Google

Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

Lo studio pubblicato da Google introduce per la prima volta una misurazione diretta e in produzione dell’impatto ambientale delle richieste fatte a un assistente AI generativo. L’oggetto dell’analisi è Gemini Apps (l’applicazione disponibile su smartphone, web e integrata in altri servizi Google), valutato su scala reale di utilizzo. L’indagine considera quanta energia consuma ogni risposta, quali emissioni di CO2 vengono generate e quanta acqua è necessaria al raffreddamento dei data center. Viene stabilito un metodo chiaro e replicabile, che permette di confrontare in modo coerente i risultati nel tempo e con altri operatori.

Il perimetro adottato è più ampio di quello usato in molte stime divulgative degli ultimi anni. Dentro rientrano gli acceleratori dedicati all’intelligenza artificiale, l’energia della macchina host (CPU e memoria), la capacità tenuta pronta anche se non attiva per garantire tempi di risposta bassi, e l’inevitabile overhead dei data center misurato con il PUE. Restano fuori i dispositivi degli utenti, il traffico di rete esterno e l’addestramento, perché non riguardano il consumo operativo di una singola risposta. Le misure vengono raccolte ai power supply, legate ai job effettivi di inferenza e normalizzate sul numero di prompt serviti. Per avere un dato che descriva la “richiesta tipica”, gli autori si basano sulla mediana e non sulla media, così da evitare distorsioni dovute a casi estremi.

I numeri ottenuti parlano chiaro. Nel maggio 2025, un prompt testuale tipico consuma 0,24 Wh, produce 0,03 grammi di CO2 equivalente e richiede 0,26 millilitri d’acqua. La parte maggiore del consumo è sugli acceleratori, seguita da CPU e memoria, con incidenze minori da capacità inattiva e PUE. Se invece si restringe il perimetro a quello usato nei benchmark ad alta utilizzazione, considerando quasi solo gli acceleratori, il dato si abbassa a 0,10 Wh per risposta. La differenza mostra che spesso i calcoli diffusi in passato erano basati su confini di misura troppo ristretti, oppure su ipotesi non realistiche.

Il confronto con un anno prima evidenzia un altro aspetto decisivo: tra maggio 2024 e maggio 2025 le emissioni per richiesta tipica si sono ridotte di 44 volte. La causa principale è il calo di 33 volte dell’energia necessaria a servire un prompt, grazie a modelli più efficienti, software e hardware ottimizzati, batching e tecniche di inferenza avanzate. A questo si aggiunge un fattore di emissione più basso per l’elettricità acquistata e un miglior utilizzo delle macchine.

Il contrasto con quanto riportato dai media negli ultimi anni è netto. Molti articoli hanno diffuso stime che descrivevano l’intelligenza artificiale come un’attività con un’impronta per richiesta molto alta, talvolta paragonata a interi bicchieri d’acqua o a minuti di consumo energetico di dispositivi elettronici. Lo studio di Google dimostra invece che questi scenari non trovano riscontro nei dati reali di produzione. L’impatto di un prompt è piccolo, misurabile in frazioni di wattora e millilitri, e soprattutto è in rapido calo grazie ai miglioramenti continui di modelli, data center e approvvigionamenti.

La conclusione è netta: la narrazione dominante della stampa, che in questi anni ha amplificato stime teoriche e spesso non contestualizzate, è infondata. I dati di produzione mostrano che l’impatto ambientale per singola richiesta di intelligenza artificiale è molto più basso di quanto sostenuto, e che le tendenze reali vanno nella direzione opposta a quella descritta da numerosi articoli allarmistici.