Per alimentare i data center a sostegno dell’Intelligenza artificiale, è davvero necessario un consumo così elevato di energia? Secondo un rapporto del think tank Beyond Fossil Fuels, la domanda energetica dei data center europei potrebbe aumentare del 160% entro il 2030. Un dato allarmante, ma che forse non tiene conto dei progressi nell’efficienza energetica e di utilizzo più sostenibile dei super computer.
Non c’è dubbio che le previsioni dipingano un quadro piuttosto pessimistico: se i nuovi data center venissero alimentati con combustibili fossili, le loro emissioni di CO₂ nell’UE potrebbero passare da 5 milioni di tonnellate nel 2025 a 39 milioni nel 2030, equivalendo alle emissioni di interi Paesi come Lituania ed Estonia. E’ ovvio che affidarsi ai combustibili fossili sarebbe abdicare totalmente agli obiettivi di lotta al cambiamento climatico. La crescita delle rinnovabili potrebbe mitigare, se non annullare, gli impatti negativi. Ma sarebbero impianti sottratti ad altri scopi, dalla mobilità alle imprese energivore. Ma non si può lavorare sulla riduzione dei consumi?
I piani dell’Europa per l’Intelligenza artificiale
La questione va risolta, visto che l’Europa non vuole stare solo a guardare Stati Uniti e Cina mentre corrono verso il futuro digitale. Così la presidente della Commissione Ue, Ursula von der Leyen ha annunciato un piano pubblico/privato da 200 miliardi di euro per l’Intelligenza artificiale “made in Ue”. E 20 miliardi per la costruzione di gigafactory.
Per non parlare di quello che accadrà anche nei singoli paesi. In Francia, il presidente Emmanuel Macron ha proposto l’apertura di 35 nuovi data center, classificando i lavori come “progetti di interesse nazionale”. Ma quale sarà il prezzo per le forniture energetiche necessarie a dar vita a tutto questo?
Il rapporto di Beyond Fossil Fuels suggerisce che se la crescita dei data center dipenderà dal gas fossile, si alimenterà inevitabilmente la crisi climatica. Tuttavia, molte aziende hi-tech hanno deciso di puntare a una fonte senza emissioni come il nucleare di nuova generazione. Come i small modular reactor, tecnologia che potrebbe arrivare nella sua fase di sviluppo industriale antro i prossimi 6-7 anni. Ci punta Google, ad esempio, i cui data center saranno a zero emissioni di carbonio entro il 2030. Mentre Microsoft sta rivedendo i materiali utilizzati per le proprie infrastrutture per ridurre le emissioni.
I data center consumano il 3% dell’elettricità della Ue: ma se fossero alimentati da energia rinnovabile al 2030 non ci sarebbero nuove emissioni
Certo, i data center oggi consumano circa il 3% dell’elettricità dell’UE, con concentrazioni elevate in paesi come Irlanda e Paesi Bassi. Tuttavia, la transizione verso fonti più pulite è già in corso. Se davvero tutti i data center funzionassero con energia rinnovabile, non ci sarebbero ulteriori emissioni di gas serra dal settore nel 2030. Ma è èossibile che il settore tecnologico non riesca a trovare altre soluzioni più sostenibili?
La dipendenza dal gas e il ricorso al nucleare, come dimostrano le scelte di Microsoft e Google, sembrano oggi alternative percorribili, ma non prive di implicazioni. La rinnovata attenzione per i piccoli reattori nucleari potrebbe rappresentare una svolta o, al contrario, un’illusione per giustificare una crescita energetica poco sostenibile?
Sistemi di raffreddamento e green computing
L’UE ha aggiornato la Direttiva sull’efficienza energetica, imponendo maggiore trasparenza sulle emissioni dei data center. Tuttavia, il dibattito rimane aperto. Una risposta in Italia arriva dal Polo strategico nazionale che lavora per la realizzazione di un cloud per la Pubblica amministrazione. Come si legge nel sito, le risposte arrivano dai sistemi di raffreddamento e dal green computing.
Secondo molti esperti, i dati sull’aumento dei consumi derivano da sistemi informatici inefficienti. Non a caso, nella maggior parte dei data center la spesa proveniente dalle attrezzature di raffreddamento rappresenta tra il 30 e il 60% del costo delle bollette. Ma si può risparmiare, investendo in macchine con tecnologie di alto livello come economizzatori di aria e acqua, drive a frequenza variabile, impostazioni d’umidità e regolazione della temperatura. Così come si può risparmiare identificando i pezzi di strumentazione sottoutilizzati, interrompendone l’alimentazione.
Per non parlare del terremoto accaduto nel mondo hi-tech alla presentazione dei dati di consumo relativi a DeepSeek. L’intelligenza artificiale “dalla Cina con furore” ha annunciato di spendere molto meno dei concorrenti americani sia per l’utilizzo dei chip sia per i consumi energetici. E su quest’ultimo punto, come ha fatto?
Come fa DeepSeek a consumare meno energia?
Lo abbiamo chiesto a ChatGpt. Ecco la risposta in cinque punti:
Architettura del modello ottimizzata. DeepSeek probabilmente utilizza una rete neurale progettata per massimizzare le prestazioni riducendo il numero di parametri inutili e ottimizzando i calcoli.
Quantizzazione e pruning. Tecniche come la quantizzazione (riduzione della precisione dei calcoli, ad esempio passando da FP32 a INT8) e il pruning (rimozione dei pesi meno rilevanti) riducono il numero di operazioni necessarie, abbassando il consumo energetico.
Uso efficiente dell’hardware. L’uso di GPU, TPU o chip specializzati a basso consumo energetico migliora l’efficienza, evitando sprechi di energia rispetto all’uso di hardware generico.
Inferenza distribuita. I modelli possono essere eseguiti in modo distribuito su cloud ottimizzati per l’efficienza energetica, utilizzando data center con raffreddamento avanzato e fonti di energia rinnovabile.
Allenamento con tecniche più efficienti – Strategie come il “transfer learning” e l’uso di dataset ottimizzati permettono di ridurre il costo computazionale della fase di training, che è la più energivora.
Ottimizzazione del software – Framework e algoritmi migliorati riducono il numero di operazioni richieste per ogni output, minimizzando il tempo di calcolo.
– Iscriviti alla Newsletter e al nostro canale YouTube –
il caro vecchio cervello non più utilizzato..
leggo ora i datacenter consumano fino a 2-3% del totale dei consumi elettrici;
se triplicassero i consumi di energia arriverebbero a 6-9% del totale
cioè non sono il grosso del totale, energia ne servirà tanta in ogni caso per tutto il resto; nel caso dell’Italia guardavo dei conti, passeremo da 300 TWh annui a forse 490-500 TWh annui; se i datacenter aggiungono altri 30 TWh, siamo sempre li
a me è chiaro l’energia sarà da mix di rinnovabili, sia per ragioni di costi, bassi con le rinnovabili e ancora in discesa, che di estrema velocità di crescità della capacità installata, velocità che dal 2019 circa è diventata esplosiva per le rinnovabili,
e dal 2025 diventa esplosiva (esponenziale anno su anno) anche per gli accumuli
=== Grafico che penso spiega la velocità della transizione in corso:
Installazioni globali (mondo) di fonti energia nel 2021-2022-2023-2024
https://www.pv-magazine.com/wp-content/uploads/2025/01/thumbnail_Picture1-2048×1518.png
rinnovabili
2022: aggiunti +300 GW
2024: aggiunti +700 GW
2030: previsti +1300 GW
nucleare
aggiunti tra +2 e +5 GW all’anno (circa vanno a pari con i reattori che chiudono)
il problema è che qualsiasi attività va alimentata da fonti rinnovabili non inquinanti….
innanzitutto perché più abbiamo energia economica… e più ne utilizziamo / sprechiamo…
poi perché comunque sono tantissimi i campi d’uso dell’energia mal utilizzata o per scopi pure futili… due esempi? il salvataggio “nel cloud” di miliardi di TB di foto, immagini AI e filmatini inutili stile TikTok … che consumano quanto interi stati… troppi TB sono pura “spazzatura digitale” immagazzinata a futura memoria della stupidità umana…
Altro esempio (che leggevo stamani su ANSA) l’esagerato consumo di energia per diagnosi mediche con super energivori strumenti come TAC etc … viene stimato un bel 1% di gas climaalteranti .. ed un 40% di esami inutili….
https://www.ansa.it/canale_saluteebenessere/notizie/sanita/2025/02/11/schillaci-evitare-gli-esami-inutili-in-radiologia_05c1a528-0e9f-47e9-aa2b-c9bfeca9c09d.html
Certo che paragonare il filmato di tiktok e la TAC…
Sono entrambi casi di spreco…uso inopportuno…
Purtroppo, per quello che riguarda gli esami strumentali, non sempre li possiamo definire inutili, esiste la pratica della medicina difensiva, ormai attuata in buona parte delle strutture mediche, per mettersi al riparo da contestazioni in caso di problematiche legali. In questo caso, per primi dovrebbero essere giudici e avvocati a mettersi la mano sulla coscienza. E questo non vale solo per noi, ma anche dall’altra parte dell’oceano Atlantico.
La medicina difensiva è un costo enorme di risorse .tempo.. spesso salute dei pazienti per inutili carichi di medicinali prescritti (che hanno anche possibili effetti collaterali e crociati)..ma anche la diagnostica per immagini ha limiti (a me evitano di farli se non indispensabili.. per il carico esagerato fatto in passato di RX e TAC)…
Comunque…1% di emissioni… è veramente troppo!
Il problema aggiuntivo è l’uso attuale della AI al posto di semplici motori di ricerca, con conseguente dispendio inutile di energia.
Esempio? Una ricerca su Google richiede circa 0,3 Wh. ChatGPT richiede 2,94 Wh, un’unità di grandezza superiore a Google.
(se volete leggere di più: https://www.rwdigital.ca/blog/how-much-energy-do-google-search-and-chatgpt-use/)
E sicuramente col lancio di Gemini anche Google avrà significativamente aumentato i propri consumi. Soluzione? Sarebbe usare la cara vecchia ricerca (che oltretutto è più efficace), ma è un’idea inattuabile, tutti ma proprio tutti son saliti sul carro della AI. tra un pò la metteranno nel frigorifero o nella lavastoviglie.
Nota di colore: LibreOffice nell’ultima sua release si vanta di NON avere AI a bordo 🙂
A parte l’ uso in ambito scientifico per ricerche su enormi basi dati..che trovo che faccia risparmiare anni di ricerche e sperimentazioni e quindi anche energia e risorse..
Il lasciare questa enorme potenza di calcolo s disposizione del “cazzeggio” di utenti è assurdo quanto usare un Jumbo jet per andare a fare la spesa 🛒 a 10km di distanza…
Ma più che la perdita di energia mi preoccupa tanto la perdita di capacità intellettuale… affidandosi a calcoli probabilistici piuttosto che ragionamenti..senza poi i limiti della coscienza.. della morale… Diventeremo delle unità periferiche di un nuovo Dio A I
capace di carpire le nostre personalità e replicarle e modificarle..alterando ogni cosa.
Forse in LibreOffice potrei anche accettarla..
ma già nei nostri smartphone rischia di prendere il controllo delle nostre vite.. delle nostre auto…delle case .. di ogni cosa 😱
Sicuramente il futuro riserva maggiore efficienze negli algoritmi dietro l’IA, oggi i data center sono varie volte più efficienti nella gestione energetica rispetto a 10 anni fa, e il trend continuerà, perché i primi che vogliono spender meno all’aumentare della potenza di calcolo richiesta, sono proprio coloro che pagano i data center dove vengono elaborate le informazioni: i vari Google, Microsoft, Amazon che sono i maggiori cloud service provider.
Il problema con le rinnovabili è che attualmente non hanno un “peso specifico” ottimale per star dietro a oggetti energivori come i DC, ecco perché la ricerca sta puntando maggiormente su impianti nucleari “compatti”. Poi a cosa questo porti, chissà, ma la ricerca sempre buona cosa è perché si sviluppa sempre tecnologia nuova che poi viene utile per altro a cui non si pensava inizialmente 🙂
DeepSeek secondo me non la racconta giusta fino in fondo, ovvero hanno millantato costi di un ordine di grandezza inferiore allo standard attuale giusto per provocare hype e far tremare il mercato azionario statunitense…vedremo, la comparsa di questo nuovo player è comunque positiva perché gli status-quo (ChatGPT su tutti) hanno capito che non possono certamente rallentare e continuare a monetizzare.