Parmi tous les enjeux que posent les intelligences artificielles, comme ChatGPT, le coût écologique est souvent ignoré. Mais la consommation de ces systèmes en énergie, eau et métal explose littéralement
Une seule question posée à ChatGPT consomme autant d’énergie qu’une heure d’éclairage avec une ampoule LED. Toutes les 50 requêtes, un litre d’eau est nécessaire pour refroidir les centres de données nécessaires à cette intelligence artificielle (IA). Imaginez donc les ressources naturelles déjà englouties par les 180 millions d’utilisateurs de ChatGPT, un nombre en augmentation constante.
Ces calculs du chercheur néerlandais Alex de Vries, qui avait consacré sa thèse à la consommation énergétique du bitcoin, sont alarmants. Les systèmes d’IA consomment ainsi autour de 100 térawattheures, soit 0,5 % de la consommation annuelle mondiale d’énergie, l’équivalent de celle d’un pays comme le Danemark ou le Maroc. Et ce n’est pas près de s’arrêter.
« Schneider Electric, dans une étude sur les conséquences de l’intelligence artificielle, prévoit que la hausse annuelle de la consommation d’énergie mondiale devrait passer de 5 ou 6 % à 11 % », alerte Hugues Ferreboeuf, chef de projet numérique chez The Shift Project. L’industriel, lui, s’en réjouit, car les besoins en alimentation électrique des centres de données, dont il fournit des éléments, sont toujours plus importants. RTE (gestionnaire des réseaux français) constate aussi que, rien qu’en France, les data centers comptent parmi les principaux facteurs d’inflation énergétique.
« Il faut désormais des data centers dédiés »
À chaque nouvelle version d’un ChatGPT, la puissance de calcul nécessaire double. La version 3 disposait de 175 milliards de paramètres. La quatrième en contient plus de 1 000 milliards. « Pour faire fonctionner ces modèles, il faut désormais des data centers dédiés, dont la densité de puissance électrique est dix fois supérieure à celle des centres de données classiques, explique Hugues Ferreboeuf. Cela implique un dégagement de chaleur énorme ! » Et une consommation d’eau toujours plus importante pour la dissiper, ce qui commence à générer de vrais conflits d’usage. En Espagne, Meta (Facebook) veut implanter un nouveau centre, qui nécessiterait quelque 600 millions de litres d’eau par an, dont 200 millions prélevés dans le réseau d’eau potable de la ville voisine, ce que refusent les habitants, régulièrement victimes de la sécheresse…
Les progrès technologiques ne suivent pas du tout les besoins croissants en puissance de calcul de l’IA. Il faut donc toujours plus de puces, de super-calculateurs entassés dans toujours plus de data centers. Nvidia détient 90 % de ce marché de composants et ne peut pas suivre le rythme des commandes. Par exemple, pour déployer ChatGPT dans son moteur de recherche Bing afin d’améliorer chaque requête, Microsoft aurait besoin de lui commander plus de 20 000 serveurs à 8 processeurs chacun, soit au bas mot 4 milliards de dollars en dépenses d’infrastructures.
Et si Google voulait faire la même chose avec Bard, son IA générative, il lui en coûterait plusieurs dizaines de milliards de dollars en investissements en puissance de calcul, mais aussi environ 6 milliards par an de facture énergétique. On comprend mieux pourquoi le géant des moteurs de recherche n’est pas pressé de déployer Bard auprès du grand public.
150 000 tonnes d’eau par jour pour laver le silicium
Pour répondre à ces besoins en puces, la production des semi-conducteurs doit suivre. Le géant du secteur, le taïwanais TSMC, prépare une nouvelle usine spécialement dédiée à l’intelligence artificielle. Mais ses sites existants consomment déjà 150 000 tonnes d’eau par jour pour laver le silicium. C’est plus de 10 % de toute la consommation en eau de l’île. « Sans parler que, dans les puces, il y a environ 80 métaux différents, rappelle Hugues Ferreboeuf. La demande est telle qu’on en arrive à une concurrence des usages entre le numérique et l’énergie, par exemple, puisqu’on a aussi besoin d’une partie de ces métaux pour construire les éoliennes. »
Il y a un an, ChatGPT ne comptait qu’un million d’utilisateurs. Google et Meta sont désormais sur le créneau et, rien qu’en France, deux acteurs, Mistral et le couple de milliardaires Xavier Niel et Rodolphe Saadé, se sont lancés dans l’IA générative. Si, aujourd’hui, cette dernière produit surtout du texte et de l’image, demain, elle est attendue dans les vidéos et les animations 3D.
Mais ce n’est pas tout. Il existe environ 25 milliards d’objets connectés dans le monde. À court terme, 100 milliards prendront place dans notre quotidien. « Si un tiers de ces objets connectés se voient équipés d’une routine d’intelligence artificielle – par exemple, un frigo communique avec l’IA d’Amazon ou de Carrefour pour préparer une prochaine commande de produits frais –, la consommation énergétique augmentera sur toute la chaîne », met en garde Hugues Ferreboeuf.
The Shift Project appelle ainsi à un grand débat démocratique sur la planification numérique. « Cela a-t-il un intérêt de mettre de l’IA partout ? Cela en vaut-il vraiment le coup ? interroge l’expert. Ces questions, nous avons tout intérêt à nous les poser collectivement dès maintenant. »
Aucun commentaire:
Enregistrer un commentaire