Si l'intelligence artificielle peut nous aider à progresser au quotidien, il convient de se demander à quel prix cela se fait-il. Car tout comme les services en ligne auxquels nous nous sommes attachés au fil des années consomment quantité d'énergie pour fonctionner, l'IA se veut encore plus gourmande.

On sait que les centres de stockage de données ont un impact significatif sur l'écologie : le maintien du fonctionnement du Cloud impose des systèmes de refroidissement énergivores.

Alors que les IA se multiplient depuis l'année dernière, il convient de se poser la question de savoir à quel point elles peuvent consommer également, et la réponse n'est pas franchement facile à assumer.

La consommation journalière d'une ville de 17 000 foyers

Selon une étude récente, l'IA la plus connue et utilisée à ce jour, ChatGPT demanderait chaque jour ainsi l'électricité normalement consommée par l'équivalent de 17 000 foyers américains, soit l'équivalent d'une petite ville française.

Cela représenterait l'équivalent de 493 000 kilowattheures par jour, un foyer américain utilisant en moyenne 29 kilowattheures par jour.

chatgpt

La situation est pour le moins inquiétante, d'autant que l'utilisation de ChatGPT va croissante, et que les IA se multiplient. Selon la Banque National néerlandaise, la consommation annuelle du secteur de l'iA pourrrait atteindre 85 à 134 térawattheures d'ici 2027, soit 0.5% de la consommation électrique mondiale. De fait, il semble que l'industrie envisage déjà un rassemblement pour l'installation de réacteurs nucléaires dédiés à l'alimentation des services d'IA.

Rien que l'intégration de l'IA dans chaque recherche de Google pourrait amener à une consommation annuelle de 29 milliards de kilowattheures.

Outre le désastre écologique que cela engendre, il convient de se poser la question de la capacité de nos infrastructures à alimenter l'IA et la mise en évidence d'un ratio bénéfice/ cout à l'heure où l'IA est trop souvent exploitée à des fins futiles et récréatives.

Des couts qui devront se justifier à l'avenir

ChatGPT coute actuellement plus de 700 000 dollars par jour en frais de fonctionnement pour OpenAI, des prix qui devraient s'envoler un peu plus, proportionnellement à la hausse des tarifs de l'électricité à travers le monde.

Toutes les IA sont actuellement concernées par ces problématiques qui nécessitent une prise de conscience rapide et qui pourraient amener à la limitation de ce genre de services ou une bascule vers un modèle payant aux prix très élevés dans un avenir très proche.