È SCIOCCANTE: L’AI STA MANGIANDO IL PIANETA, CONSUMANDO ENERGIA COME UN GIGANTESCO MOSTRO INSETATO – E I COLOSSI TECH NASCONDONO I DATI! Hai presente ChatGPT che risponde in un lampo? Beh, ogni messaggio brucia energia per una lampadina accesa per minuti, e i data center potrebbero divorare più elettricità delle famiglie americane. #AI #Energia #TechScandalo #AmbienteRischio
L’intelligenza artificiale, quel “miracolo” tecnologico che ci fa calcoli in un battito di ciglia e genera immagini in secondi, è ormai ovunque, ma a che prezzo per il nostro pianeta? I giganti tech, sempre più misteriosi e poco trasparenti, non ci dicono tutto, ma le stime lo gridano: entro il 2028, l’AI potrebbe inghiottire il 22% del fabbisogno energetico delle famiglie statunitensi, secondo uno studio della MIT Technology Review. Roba da far saltare la corrente in mezzo mondo!
Passiamo alle stime ufficiali dell’Agenzia Internazionale dell’Energia (IEA): senza dati precisi, ci affidiamo a calcoli che fanno tremare i polsi. Prendete ChatGPT: ogni messaggio consuma circa 0,3 wattora, l’equivalente di una lampadina LED da 10 W accesa per 2 minuti – e se generiamo un miliardo di messaggi al giorno, boom, si arriva a oltre 109 gigawattora (GWh) annui, abbastanza per alimentare 10.400 case americane. Intanto, i data center, il cuore pulsante di tutto, hanno già divorato l’1,5% dell’energia elettrica globale nel 2024, crescendo del 12% l’anno negli ultimi tempi, e raddoppiando i consumi nel 2023. In Irlanda, questi bestioni ingoiano il 20% del fabbisogno nazionale – un disastro che crea caos energetico e fa arrabbiare i locali!
Ma da cosa dipendono questi consumi esagerati? Innanzitutto, l’addestramento dei modelli AI: per un colosso come GPT-4, servono 4,9 trilioni di dati e 25.000 GPU che insieme pompano 22 MW, più di 150 stazioni di ricarica per auto elettriche. Risultato? Un consumo cumulativo di 1.700 GWh, che equivale al fabbisogno annuale di circa 630.000 famiglie italiane – roba che fa impallidire i soliti dibattiti sul risparmio energetico.
Poi, c’è l’utilizzo quotidiano: più la tua domanda è lunga o il modello è grosso, più energia si spreca. Generare un testo con un modello piccolo consuma 0,3 Wh, ma per un’immagine schizzano a 1,7 Wh, e per un video corto di 6 secondi si arriva a 115 Wh – tanto quanto caricare due volte un computer! I modelli da urlo come ChatGPT o Gemini sono precisini, sì, ma divorano tutto: nel 2025, con 78 milioni di immagini generate in un giorno, stiamo sfiorando catastrofi energetiche che potrebbero eguagliare metà del fabbisogno dell’Islanda.
E guardate al futuro: entro il 2030, i consumi dei data center triplicheranno a 945 TWh, più del triplo dell’Italia, con l’AI che dominerà la scena. Non è solo colpa sua, ma buona parte sì, e presto questi agenti AI personalizzati faranno di tutto senza controllo umano, pompando ancora più energia. I big come Meta e Google corrono ai ripari con l’energia nucleare, tipo i Small Modular Reactors, ma chissenefrega se ci vorranno anni – intanto, l’AI potrebbe salvare il mondo o distruggerlo, ottimizzando rinnovabili e previsioni meteo, ma solo se troviamo un mix energetico che non ci lascia al buio!