L’empreinte énergétique de l’IA augmente fortement

empreinte enrgetique ia
empreinte enrgetique ia

L’irruption de ChatGPT dans le champ médiatique ne remonte qu’à novembre 2022 mais l’engouement pour l’intelligence artificielle générative est telle qu’il faut déjà s’interroger sur son impact environnemental. Alexandre de Vries, expert dans ce domaine, tire le sonnette d’alarme, solides arguments à l’appui.

Dans sa note d’analyse sur l’impact énergétique des IA génératives, « The growing energy footprint of artificial intelligence », Alex de Vries, fondateur de Digiconomist, dresse un constat plutôt sévère sur les conséquences énergétiques de leur montée en puissance, même s’il pondère son propos en soulignant les avancées possibles pour limiter leur impact. Après le lancement réussi de ChatGPT d’OpenAI, qui a atteint le volume fulgurant de 100 millions d’utilisateurs en deux mois et dans un délai record de 2 mois, Microsoft et Alphabet ont lancé leurs propres chatbots, Bing Chat et Bard, respectivement. Un développement accéléré qui soulève des questions sur la consommation d’électricité et l’impact environnemental potentiel de l’IA et des centres de données.

ChatGPT et DALL-E d’OpenAI utilisent un traitement du langage naturel et un processus de traitement commun : une phase de formation initiale suivie d’une phase d’inférence. La première phase est la plus énergivore mais la phase d’inférence contribue aussi significativement aux coûts énergétiques.

La société de recherche SemiAnalysis a suggéré qu’OpenAI nécessitait 3 617 serveurs HGX A100 de NVIDIA, avec un total de 28 936 unités de traitement graphique (GPU), pour prendre en charge ChatGPT, ce qui implique une demande d’énergie de 564 MWh par jour. Autre sujet de préoccupation, si l’IA générative est intégrée dans chaque recherche Google, la consommation quotidienne pourrait être de 80 GWh et la consommation annuelle de 29,2 TWh. C’est considérable. Le président d’Alphabet (Google) a indiqué en février 2023 que l’interaction de son moteur de recherche avec un modèle de langage d’IA pourrait probablement consommer 10 fois plus qu’une recherche standard par mot-clé.

Source