Non esiste l’immateriale. Non esiste soprattutto qui, nello spazio digitale. I bit hanno sempre un qualche peso. Altro che leggerezza. I bit hanno bisogno di energia per essere prodotti, trasmessi, ricevuti e archiviati. Anche il post più convinto e autentico (secondo me esiste l’autenticità qui dentro, rispetto a un tema che alcuni amici stanno affrontando…), insomma anche il post più sentito sulla crisi climatica ha un costo energetico seppure minimo. Qualsiasi nostra azione nello spazio digitale ha bisogno di energia. Secondo l’Agenzia internazionale per l’energia, il consumo dei data center – che sono alla base di ogni piattaforma e quindi di ogni bit – è rimasto pressoché invariato dal 2010 a oggi. Parliamo dell’1% della produzione globale di elettricità. In teoria potremmo affermare che si tratta di cifre importanti ma tutto sommato contenute.
Se volessimo essere precisi e calcolare l’intero fabbisogno energetico dell’utilizzo di una qualsiasi piattaforma dovremmo aggiungere altri consumi, quelli relativi alle infrastrutture di rete, dei server intermedi, dei router e di tutte le componenti di telecomunicazione, come i ripetitori, ai quali dovremmo ulteriormente sommare i consumi che servono ad alimentare i server di backup, per chiudere poi con i costi che sostengono gli utenti, i quali consumano energia per ricaricare smartphone e tablet.
Questa lunga premessa serve a parlare di un’altra tecnologia, l’intelligenza artificiale generativa, che ha cominciato a trasformare la nostra esistenza, il nostro modo di lavorare e produrre, e potrebbe anche mutare alla base le condizioni dell’approvvigionamento energetico dell’intero ecosistema digitale.
Il consumo globale di elettricità per i sistemi di AI potrebbe presto aver bisogno dell’equivalente della produzione di energia di un piccolo paese.
Tanta e tale è la sete di energia in questo settore, che Microsoft ha ipotizzato di utilizzare la propria intelligenza artificiale per accelerare il processo di approvazione di nuove centrali nucleari, in modo che queste possano alimentare la stessa intelligenza artificiale. Non solo, l’azienda fondata da Bill Gates ha anche investito su start up che stanno cercando la soluzione per sfruttare la fusione nucleare nella produzione di energia. L’AI ha bisogno di tanta energia e quindi ogni soluzione sembra buona.
Ma perché?
Ogni risposta di ChatGPT – e di ogni altro modello di linguaggio di grandi dimensioni (LLM), così come ogni risposta del motore di ricerca di Google, anche se tendiamo a dimenticarlo – ha bisogno di energia per essere generata. Ogni token – cioè ogni sillaba o porzione di sillaba – che esce da GPT richiede e consuma energia.
La questione si complica se cominciano a immaginare che l’AI generativa potrebbe presto essere integrata in molte applicazioni, dai social network ai motori di ricerca, dagli applicativi per lavorare ai giochi nelle console. Chi sviluppa LLM non vuole farsi trovare impreparato di fronte a una ipotetica e pressante richiesta di sistemi di AI generativa. Ecco perché molti attori, in questa fase di crescita, non badano a spese. E costruiscono modelli estremamente potenti, basati su infrastrutture e componenti, hardware e software, sempre più energivori, a discapito di soluzioni che potrebbero favorire l’efficienza degli stessi sistemi.
Scrive Christopher Mims sul Wall Street Journal: «finché la competizione tra i produttori di intelligenza artificiale spinge le aziende a utilizzare questi modelli sempre più capaci e assetati di energia, non si vede la fine della quantità di elettricità che l’industria globale dell’intelligenza artificiale richiederà. L’unica domanda è a che ritmo aumenterà il consumo di energia».
Quelli che più volte ho definito modelli generalisti consumano tanto perché hanno bisogno di numeri sempre maggiori di parametri, di dati di training, di GPU, cioè microprocessori, e quindi di data center, in una specie di corsa senza fine. Serve potenza di calcolo, serve memoria, serve raffreddare ciascuno di questi processi e sistemi, e tutto ciò costa. Costa molto.
Una ricerca (ancora in fase di preprint) della Carnegie Mellon University ha stimato che realizzare una sola immagine con l’AI generativa può consumare la stessa energia necessaria a caricare uno smartphone.
Nel febbraio di quest’anno, il presidente di Alphabet, John Hennessy, ha dichiarato a Reuters che interagire con un LLM potrebbe «probabilmente costare 10 volte di più di fare una ricerca con parole chiave standard».
Lo scenario peggiore suggerisce che la sola AI di Google applicata alle ricerche, scrive Alex de Vries, ricercatore presso la Facoltà di Economia e Commercio della Vrije Universiteit Amsterdam, «potrebbe consumare la stessa quantità di elettricità di un paese come l’Irlanda (29,3 TWh all’anno)».
Più in generale, de Vries ipotizza che la quantità di elettricità necessaria ad alimentare i data center del mondo potrebbe aumentare del 50% entro il 2027, proprio a causa dell’intelligenza artificiale. Questi dati indicano insomma una tendenza.
Non è semplice stimare il costo energetico dell’adozione dell’AI in tutto il mondo. Come abbiamo visto in apertura, se è arduo capire di quanta energia ci sia bisogno per pubblicare questo post su Telegram o condividerlo su Instagram, figuriamoci quando questo processo sarà costantemente assistito dall’AI. Mancherà sempre un pezzo.
E mancano pure ipotesi fondate circa la curva di adozione e utilizzo dell’intelligenza artificiale generativa. Non sappiamo in quanti la useranno e in che modo. Magari verrà inserita in ogni oggetto connesso, compresi frigoriferi, caldaie e forni a microonde, forse costituirà una parte essenziale delle catene di montaggio e delle linee produttive in tutti i settori industriali; oppure la troveremo soltanto nei computer e negli smartphone (il che non è comunque poco). Sono proprio queste variabili a determinare gli investimenti attuali e dunque i costi di funzionamento futuri, e ancora di più la sostenibilità – più o meno ipotetica – di uno scenario che preveda l’AI in ogni computer e in ogni smartphone, oppure l’AI in ogni cosa connessa.
Aggiungo un’altra considerazione. Qualsiasi ragionamento sul passaggio alle fonti rinnovabili che non tenga conto di questi elementi, e duqneu della presenza stessa dell’AI nell’economia globale, potrebbe essere sbagliato in partenza. Come calcolare un’equazione cui manca una variabile fondamentale.
Se troveremo una soluzione per dare l’energia all’AI, resterà intatto il problema dei soldi. Chi pagherà il conto? Quale modello di business sarà sostenibile, non solo dal punto di vista ambientale ma anche da quello economico, il giorno in cui ogni ricerca di Google sarà assistita dell’AI? Dove finirà la pubblicità? Di che genere di profilazione avrà bisogno Google per continuare a essere profittevole?
Esistono già alcune soluzioni, che ruotano attorno a modelli di linguaggio meno ingombranti e più efficienti, magari con un numero di parametri inferiore a quelli attuali. E a microprocessori il cui costo di produzione sia più economico, e che soprattuto abbiano bisogno di meno energia (alcune ricerche suggeriscono che i diamanti sintetici potrebbero sostituire il silicio come base dei chip).
Speriamo che queste soluzioni arrivino in fretta.