L'intelligenza artificiale sta già consumando l'1-2% dell'energia mondiale. Nel 2022, i data center hanno consumato 460 terawattora, pari alla domanda energetica della Francia. Entro il 2026, il consumo è destinato almeno a raddoppiare, secondo stime prudenti.
I data center che rendono possibile l'IA stanno accelerando il loro consumo di energia a livelli rapidi che non faranno altro che contribuire ulteriormente a problemi ambientali già disastrosi.
I sostenitori dell'IA sostengono che il suo utilizzo aiuterà ad affrontare altre questioni associate alla crisi climatica, tra cui il consumo efficiente delle risorse, oltre ad altre complesse questioni sociali.
Tuttavia, l'IA emette una quantità significativa di CO2, una forza trainante del cambiamento climatico. I critici notano che questa qualità segna l'opposto di ciò che si propone di ottenere.
Secondo stime prudenti sul consumo energetico dell'IA, la tecnologia sta consumando quanto le nazioni più economicamente sviluppate. Senza una soluzione chiara su come mitigare questi problemi, il problema è destinato a continuare.
L'intelligenza artificiale funziona in gran parte su centri dati, ma anche su hardware che presenta problemi di sostenibilità in termini di produzione e utilizzo.
Sebbene la fase di “interferenza” dell'uso dell'IA di per sé non consumi una grande quantità di energia, il suo uso costante si accumula. Ad esempio, nel 2022 i centri dati di Facebook hanno eseguito trilioni di interferenze al giorno.
Queste interferenze derivano da funzioni algoritmiche come l'emissione di raccomandazioni, tra le altre. Ciò significa che ogni volta che un utente di Facebook, che sono più di tre miliardi, si connette e visualizza il proprio newsfeed, si attivano delle interferenze.
Non si tratta solo di Facebook. Anche le piattaforme online che, ad esempio, richiedono la conferma della “umanità”, spesso attraverso l'identificazione di oggetti nelle immagini, si impegnano nello stesso processo.
Sebbene gli sviluppatori di app analizzino il consumo energetico nella fase di sviluppo, gli studi hanno dimostrato che il consumo è in realtà molto più elevato nell'uso quotidiano.
L'organizzazione Algorithm Watch utilizza l'esempio del modello BLOOM. Durante la fase di sviluppo, l'applicazione ha utilizzato 24,7 tonnellate di CO2, senza considerare le emissioni derivanti dalla produzione e dalle operazioni dell'hardware, che rendono le emissioni più vicine al doppio di quelle dichiarate.
Un altro esempio evidenziato dall'organizzazione è PaLM, il modello linguistico AI di Google. Sebbene PaLM riceva quasi il 90% dell'energia da fonti prive di carbonio, una singola esecuzione nella fase di sviluppo ha comportato 271,43 tonnellate di emissioni di CO2.
Questa quantità di emissioni di CO2 equivale a 1,5 voli di jet commerciali negli Stati Uniti. Anche se può sembrare poco, viste le migliaia di voli che avvengono ogni giorno negli Stati Uniti, si tratta comunque di una quantità significativa di C02.
Questo è particolarmente importante da ricordare quando si considera un programma come PaLM, che si suppone sia un modello più sostenibile rispetto ad altri concorrenti dell'IA.
Oltre alle emissioni, l'IA si basa sulla potenza di calcolo. Questa, ovviamente, richiede energia. I server si surriscaldano e devono essere costantemente raffreddati per evitare il surriscaldamento.
È qui che entra in gioco l'acqua. L'acqua dolce viene utilizzata per raffreddare le centrali elettriche e i server AI. Per modelli linguistici come GPT-3 e LaMDA, Algorithm Watch sostiene che vengono utilizzati milioni di litri solo nella fase di addestramento.
La crescita e l'aumento della domanda di sistemi di AI significa che sempre più infrastrutture idriche dovranno essere accessibili. I fatti e le cifre parlano da soli. Il consumo di acqua di Google è aumentato del 20% in un solo anno, mentre quello di Microsoft del 34%.
Strumenti di intelligenza artificiale sempre più diffusi, come ChatGPT, consumano 500 ml di acqua in poche domande e risposte. Con almeno 100 milioni di utenti attivi, la quantità di acqua consumata da ChatGPT è allarmante.
È chiaro che il consumo energetico effettivo dell'IA deve essere accuratamente documentato, ma anche valutato e regolamentato. L'uso dell'IA comporta dei rischi solo in termini di sostenibilità.
Alcuni critici temono che le misure e le valutazioni legali possano ostacolare l'evoluzione e l'innovazione dell'IA, ma ridurre il consumo di energia è essenziale.
Secondo la Hebrew University, “ridurre il consumo energetico è fondamentale”, altrimenti il rischio è che l'IA diventi “uno strumento per ricchi”.
Poiché l'IA opera sulla base dell'apprendimento automatico, consumerà sempre una grande quantità di energia per addestrare e far funzionare i modelli.
È chiaro che il proseguimento dell'IA richiede alcuni parametri per garantire che possiamo raccogliere i suoi benefici nel lungo periodo. I meccanismi di monitoraggio per comprendere il consumo di risorse, le emissioni di CO2 e la produzione di hardware sono elementi critici.
Il timore è che qualsiasi regolamentazione crei condizioni così inaccessibili da produrre limitazioni in termini di chi può creare e utilizzare modelli di IA.
Alcuni esperti sostengono che l'industria dell'IA debba impegnarsi in cambiamenti architettonici su larga scala che si adattino alle preoccupazioni ambientali, abbracciando al contempo approcci più efficienti alle esigenze del settore.
Questi adeguamenti si applicano anche allo sviluppo dell'hardware. Le aziende potrebbero dover investire per rendere più efficienti strumenti tecnici come i chip dei computer.
Il rapporto ambientale 2024 di Google ha rilevato che le sue emissioni di carbonio sono aumentate della metà solo negli ultimi cinque anni, mentre quelle di Microsoft del 30%. Un'importante fonte di consumo energetico deriva dalla costante necessità dell'intelligenza artificiale di accedere alla memoria.
Gli esperti sostengono che la chiave per diminuire l'uso di energia è trovare un modo per rendere l'accesso alla memoria meno pesante dal punto di vista energetico e sviluppare circuiti più efficienti.
Si tratta di un processo lungo e costoso che richiederebbe molti investimenti nella ricerca. Per questo motivo, gli esperti non credono che le aziende si affretteranno a trovare soluzioni energetiche in questo momento, scegliendo invece di espandere i loro servizi di IA mentre le normative rimangono poco chiare.
Fonti: (Nature.com) (Algorithm Watch) (Fierce Network) (Wired)
Guarda anche: Come superare i sistemi di intelligenza artificiale che filtrano i CV
L'intelligenza artificiale è il futuro, ma sta accelerando un consumo energetico insostenibile? Lo dicono i numeri. Secondo l'Agenzia Internazionale dell'Energia (AIE), nel 2022 l'intelligenza artificiale consumerà il 2% dell'energia mondiale. Entro il 2026, questa cifra è destinata ad aumentare fino a quasi il 130%. Per contestualizzare questa cifra, è equivalente al consumo energetico annuale della Svezia. Gli esperti si preoccupano dell'enorme consumo di risorse che l'IA richiede, avvertendo che i problemi ambientali già dannosi continueranno ad accelerare.
Volete saperne di più sul preoccupante consumo energetico dell'IA? Cliccate qui.
Entro il 2026, i data center consumeranno tanta energia quanto la Svezia
Il consumo energetico dell'IA farà accelerare il cambiamento climatico?
LIFESTYLE Cambiamento climatico
L'intelligenza artificiale è il futuro, ma sta accelerando un consumo energetico insostenibile? Lo dicono i numeri. Secondo l'Agenzia Internazionale dell'Energia (AIE), nel 2022 l'intelligenza artificiale consumerà il 2% dell'energia mondiale. Entro il 2026, questa cifra è destinata ad aumentare fino a quasi il 130%. Per contestualizzare questa cifra, è equivalente al consumo energetico annuale della Svezia. Gli esperti si preoccupano dell'enorme consumo di risorse che l'IA richiede, avvertendo che i problemi ambientali già dannosi continueranno ad accelerare.
Volete saperne di più sul preoccupante consumo energetico dell'IA? Cliccate qui.