Una conversazione con ChatGPT consuma un litro d’acqua: ecco il costo ambientale dell’intelligenza artificiale

L’Università del Colorado Riverside e dell’Università del Texas di Arlington hanno calcolato anche che ad esempio l’addestramento di ChatGpt-3 ha consumato 700.000 litri di acqua dolce per il raffreddamento del data center.
Entra nel nuovo canale WhatsApp di Ohga
Maria Teresa Gasbarrone 18 Aprile 2023

Diresti mai che per ogni scambio di battute su ChatGPT viene consumato circa un litro d'acqua? Devi infatti tenere a mente che i software di intelligenza artificiale come ChatGPT di OpenAi e Bard di Google consumano molta energia, necessaria ai grandi data center di cui hanno bisogno per funzionare. L'acqua (tanta) serve proprio per il loro raffreddamento. Uno studio ha calcolato quanta ne viene usata a questo scopo.

Quanta acqua serve

Forse ti è capitato di utilizzare ChatGpt almeno una volta, ma quasi certamente non ti sei mai chiesto quanta energia c'è dietro quello scambio di battute. Un gruppo di ricercatori dell'Università del Colorado Riverside e dell'Università del Texas di Arlington ha fatto di più, provando a calcolare quanta acqua serve per il raffreddamento dei data center.

I ricercatori che hanno compiuto questo studio hanno calcolato che ad esempio l'addestramento di ChatGPT-3 ha consumato 700.000 litri di acqua dolce per il raffreddamento del data center. Un quantitativo sufficiente a realizzare 370 auto Bmw o 320 Tesla.

Anche ora che ChatGPT è stato rilasciato, il suo consumo continua a chiedere acqua. Ad esempio lo scambio di conversazioni di un utente medio con ChatGPT equivale al consumo di una bottiglia di acqua.

I problemi relativi al consumo di acqua non si limitano ai modelli di OpenAI. Gli studiosi hanno fatto dei calcoli anche sui consumi d'acqua di Google. I suoi data center negli Stati Uniti hanno bevuto complessivamente 12,7 miliardi di litri di acqua dolce nel 2021, di cui circa il 90% potabile.

I rischi nascosti

Non è difficile capire perché questi dati abbiano generato più di qualche preoccupazione tra i ricercatori. La siccità è infatti un problema ormai mondiale e il successo di questi chatbot è destinato a crescere sempre di più.

Il pericolo è dunque che si finisca per ridurre ancor di più le già scarse fonti idriche disponibili. I ricercatori si aspettano, inoltre, che questi consumi idrici aumenteranno ulteriormente con i modelli più recenti, come Gpt-4, che si basano su un insieme e una elaborazione più ampia di dati rispetto ai software predecessori.

"L'impronta idrica dei modelli di intelligenza artificiale non può più rimanere sotto i radar – spiegano gli autori dello studio – deve essere affrontata come una priorità e come parte degli sforzi collettivi per combattere le sfide idriche globali".