• News & Media
  • >
  • Quanto consumano ChatGPT e l'intelligenza artificiale?

Quanto consumano ChatGPT e l'intelligenza artificiale?

30/06/2025

L’intelligenza artificiale consuma energia? Ecco quanta

Negli ultimi anni l’intelligenza artificiale è diventata parte integrante della nostra quotidianità: assistenti virtuali, chatbot come ChatGPT, sistemi di raccomandazione e generatori di immagini sono ovunque. Ma pochi si chiedono quale sia l’impatto ambientale dell’IA e, in particolare, quanto consuma ChatGPT o tecnologie simili. Dietro la semplicità di una chat si nasconde un’enorme infrastruttura tecnologica ad alto consumo energetico.

In questo articolo esploriamo i consumi dell’intelligenza artificiale, da cosa dipendono e quali soluzioni sono possibili per rendere queste tecnologie più sostenibili.

Come l’IA utilizza energia per funzionare

Per comprendere i consumi dell’intelligenza artificiale, bisogna guardare al suo ciclo di vita: addestramento, deployment e utilizzo. Tutte queste fasi richiedono un notevole dispendio energetico.

Modelli come ChatGPT e data center

Un modello come ChatGPT si basa su reti neurali di grandi dimensioni, che vengono addestrate su milioni di testi attraverso l’uso intensivo di schede grafiche e server specializzati. Secondo uno studio di Epoch AI, l’addestramento del modello GPT-3 ha consumato oltre 1.300 megawattora (MWh), equivalente al consumo medio annuo di circa 130 abitazioni europee.

Ma anche l’utilizzo quotidiano dell’IA ha un impatto, seppure in misura minore. Le prime stime, riportate da Euronews nel 2023, indicavano che ogni richiesta a ChatGPT potesse consumare circa 2,9 wattora (Wh), a seconda della complessità della domanda. Tuttavia, i dati più recenti di Epoch AI aggiornati al 2024 mostrano che il consumo per singola query si è drasticamente ridotto, assestandosi intorno a 0,3 Wh – un valore simile a quello di una semplice ricerca su Google.

Questa riduzione è dovuta a diversi fattori, tra cui l’ottimizzazione dei modelli, l’efficienza dei server e l’adozione di pratiche di calcolo più sostenibili. Nonostante ciò, è importante sottolineare che i consumi più elevati restano legati all’addestramento iniziale dei modelli e al loro mantenimento quotidiano su scala globale, con milioni di richieste al giorno e server in funzione continua.

I data center che alimentano i modelli linguistici si trovano principalmente negli Stati Uniti, in Europa e in Asia, e spesso necessitano di grandi quantità di energia anche per il raffreddamento. Circa il 30-40% del consumo energetico di un data center è legato proprio ai sistemi HVAC (Heating, Ventilation and Air Conditioning), che garantiscono la stabilità termica delle infrastrutture.

Quanta energia consuma l’IA in media

Non è facile stimare un valore unico, ma si possono citare alcuni numeri indicativi:

  • Ogni 100 milioni di richieste a ChatGPT possono comportare un consumo di oltre 1 GWh;
  • Secondo OpenAI, il consumo globale associato a ChatGPT superava i 500 MWh al giorno a fine 2023;
  • L’infrastruttura cloud su cui si basano i modelli AI è responsabile di circa l’1% del consumo elettrico mondiale, secondo Wired Italia.

Un’altra metrica utile è l’energia necessaria per addestrare un singolo modello. Ad esempio, GPT-4, che è ancora più grande del suo predecessore, potrebbe aver richiesto tra i 2.000 e i 3.000 MWh solo nella fase iniziale di training. A questi si aggiungono i consumi continui del deployment su larga scala.

A questi numeri si aggiunge un altro aspetto poco conosciuto: l’acqua. L’IA consuma risorse idriche perché i server devono essere raffreddati. Secondo uno studio, per supportare 20-50 domande a ChatGPT vengono consumati circa 500 ml d’acqua. In media, l’addestramento di GPT-3 ha richiesto oltre 700.000 litri d’acqua, considerando i cicli di raffreddamento necessari.

Nel complesso, il bilancio ambientale dell’IA dipende da:

  • quantità di dati elaborati;
  • durata e complessità dell’addestramento;
  • numero di interazioni giornaliere;
  • tipo di energia utilizzata nei data center (rinnovabile o fossile);
  • efficienza energetica delle infrastrutture;
  • posizione geografica dei server (climi più freddi riducono il fabbisogno di raffreddamento).

Possibili soluzioni per un’IA più sostenibile

Rendere l’intelligenza artificiale più sostenibile è possibile, ma richiede l’impegno di sviluppatori, aziende tech, governi e utenti finali. Alcune delle soluzioni già in atto includono:

  • Uso di data center alimentati da energie rinnovabili, come quelli impiegati da Microsoft, Google e Amazon in Europa;
  • Ottimizzazione dei modelli linguistici, rendendoli più leggeri e meno energivori, come dimostrano i modelli “distillati” più piccoli di GPT;
  • Addestramento localizzato: spostare i calcoli dove l’energia è più pulita o meno costosa;
  • Raffreddamento naturale o geotermico per ridurre il consumo idrico;
  • Incentivi per il calcolo “verde” attraverso politiche ambientali e carbon credits.

Un approccio promettente è quello dell’IA federata, dove l’elaborazione avviene in parte sui dispositivi locali (come smartphone o PC) anziché completamente nel cloud. Questo approccio riduce il carico sui data center e può migliorare l’efficienza generale.

Anche a livello individuale possiamo fare la nostra parte: utilizzare l’IA in modo consapevole, limitando le richieste superflue o scegliendo piattaforme impegnate nella sostenibilità. È importante, inoltre, che gli sviluppatori inizino a includere metriche ambientali nei report di prestazione dei modelli.

ChatGPT e l’IA sono strumenti rivoluzionari, ma il loro impatto energetico non può essere ignorato. Saperlo significa poter scegliere, ogni giorno, come usare la tecnologia in modo più responsabile.

Con Pulsee, puoi alimentare la tua vita digitale con energia 100% certificata come proveniente da fonti rinnovabili attraverso il meccanismo delle Garanzie d’Origine, contribuendo a una tecnologia più pulita, anche quando scrivi una semplice domanda a un chatbot.