Futuro

AI e impatto ambientale: quanta acqua consumano le Big Tech?

I data center utilizzano complessivamente circa l’1% dell’offerta globale di elettricità. E l’enorme dispendio di calore deve essere dissipato attraverso quantità sempre maggiori di acqua
Tempo di lettura 4 min lettura
28 febbraio 2024 Aggiornato alle 16:00

L’inarrestabile avanzamento dell’intelligenza artificiale sta portando a galla preoccupazioni che hanno ben poco a che fare con questioni strettamente tecnologiche. Infatti, un aspetto legato allo sviluppo di queste potenti tecnologie riguarda il loro impatto sull’ambiente: le grandi big tech come Microsoft, Google e Meta stanno utilizzando quantità sempre maggiori di acqua per raffreddare il loro mastodontici data center.

In particolare, il 2022 ha visto un significativo aumento del consumo di acqua di queste aziende, con Microsoft che ha registrato un incremento del 34%, Google del 22% e Meta del 3%. Che cosa c’entra l’acqua? Questi impianti, che alimentano i prodotti di intelligenza artificiale, richiedono una quantità massiccia di energia computazionale, il che si traduce in un enorme dispendio di calore che deve essere dissipato. Ed ecco che entra in gioco l’acqua.

Le preoccupazioni degli esperti

I ricercatori della University of California Riverside hanno sollevato la questione in un articolo pubblicato su Nature, sottolineando l’urgenza di comprendere e affrontare l’impronta idrica segreta dei modelli basati su intelligenza artificiale. Ad allarmare sono anche le prospettive future: si prevede infatti che entro il 2027 la domanda di AI potrebbe portare a un prelievo d’acqua tra 4,2 miliardi e 6,6 miliardi di metri cubi. Insomma, parliamo di cifre impressionanti.

Basti pensare che, per esempio, un mese prima che OpenAI terminasse l’addestramento del suo modello più avanzato, GPT-4, un cluster di data center a West Des Moines, in Iowa, consumava il 6% dell’acqua del distretto, secondo una causa intentata dai suoi residenti.

Ma come avviene questo consumo? I data center utilizzano acqua refrigerata per dissipare il calore generato dai server che lavorano incessantemente per alimentare modelli generativi basati sull’intelligenza artificiale; parte di quest’acqua, poi, evapora nel processo di raffreddamento, e soltanto una parte può essere riutilizzata. Tuttavia, l’effetto complessivo sulle risorse idriche già sotto pressione è evidente.

Certo, l’utilizzo dell’acqua come sistema di raffreddamento non è una novità ed è una pratica comune nella produzione di energia, da quella termica a quella nucleare, ed è utilizzata persino nell’estrazione dei combustibili fossili. Ma la rapidità con cui l’AI sta crescendo e la sua dipendenza da enormi server farm stanno sollevando interrogativi sul costo ambientale di questa corsa all’innovazione.

Kate Crawford, docente presso l’Usc Annenberg e specializzata negli impatti sociali dell’intelligenza artificiale, ha dichiarato: «Senza una maggiore trasparenza e una maggiore attenzione alla questione, è impossibile monitorare i veri impatti ambientali dei modelli di intelligenza artificiale. E questo è importante in un momento in cui molte parti del pianeta stanno vivendo siccità profonde e prolungate e l’acqua potabile fresca è una risorsa scarsa».

La risposta delle aziende

Da canto loro, le aziende stanno già cercando di mitigare questo impatto e si sono prefissate l’obiettivo di restituire più acqua ai sistemi di raffreddamento di quanta ne consumi entro il 2030, finanziando progetti per migliorare l’infrastruttura idrica.

«Attualmente, i sistemi di intelligenza artificiale rappresentano solo una frazione dell’elettricità utilizzata nei data center, che complessivamente utilizzano circa l’1% dell’offerta globale di elettricità. Quanto aumenterà e come la sua crescita influirà sulla corsa globale verso lo zero netto dipenderà da molti fattori».

«Riconosciamo che l’addestramento di modelli grandi può richiedere molta acqua, ed è una delle ragioni per cui stiamo costantemente lavorando per migliorare l’efficienza – dichiara invece OpenAI – Crediamo anche che i grandi modelli linguistici possano essere utili nell’accelerare la collaborazione scientifica e la scoperta di soluzioni climatiche».

Dunque, la necessità di un approccio sostenibile all’intelligenza artificiale diventa non solo evidente, ma necessario.

Leggi anche
Cambiamento climatico
di Giacomo Talignani 4 min lettura
Crisi idrica
di Marco Cattalini 2 min lettura