Les comptes ne sont plus bons. Le déploiement massif de l’Intelligence artificielle générative dans les entreprises a incontestablement alourdi à la fois leur facture énergétique et leur bilan carbone. Pour preuve, Microsoft et Google ont annoncé cet été être contraints de réévaluer leurs ambitions en raison de l’usage exponentiel de l’IA dans leurs produits. Mais attention, cette situation ne concerne pas seulement les Big Tech, comme le révèle la nouvelle étude réalisée par le cabinet de conseil Capgemini auprès de 2 000 cadres de grandes entreprises à travers 15 pays, dont le chiffre d’affaires dépasse un milliard de dollars.
“L’IA est de plus en plus utilisée par nos clients, et ce dans un périmètre d’activité extrêmement large, allant du parcours client à l’optimisation de logiciels, en passant par la facilitation de leur reporting comptable“, détaille Caroline Vateau, directrice numérique responsable chez Capgemini, auprès de Novethic. “L’adoption de l’IA générative parmi nos clients s’est rapidement accélérée”, ajoute-t-elle. Dans une précédente étude de Capgemini, seulement 6% des organisations avaient intégré l’IA générative dans l’ensemble de leurs fonctions et sites à la fin de 2023, contre 24% en octobre 2024.
“Face à cette accélération, nous avons donc voulu évaluer la perception de nos clients concernant l’empreinte environnementale générée par cette nouvelle technologie dans leur entreprise”, explique l’experte. Résultat : près de la moitié des cadres dirigeants interrogés estiment que leur utilisation de l’IA générative a entraîné une augmentation de leurs émissions de gaz à effet de serre, qu’ils évaluent entre 2,6% et 4,8% au cours des deux prochaines années. Ainsi, 42% d’entre eux ont dû réévaluer leurs objectifs climatiques. Néanmoins, seuls 12% déclarent que leur entreprise mesure l’empreinte environnementale des usages de l’IA.
Un manque cruel de transparence
“L’impact environnemental de l’IA était historiquement peu mesuré dans les entreprises, car il n’existait pas spécialement d’outils pour le faire”, explique Théo Alves da Costa, coprésident de l’association Data for Good auprès de Novethic. “Cela n’était d’ailleurs pas un sujet pour elles, car cela restait relativement modeste comparé, par exemple, au bilan carbone du secteur des transports de cette même société”
Pour Théo Alves da Costa, “avant l’arrivée de l’IA générative, ce n’était déjà pas spécialement transparent, mais c’est devenu aujourd’hui totalement opaque”. Il explique ce manque de transparence de la part des géants de la tech par des raisons de sécurité. Selon ce spécialiste de l’IA, “donner des informations sur sa consommation énergétique, c’est donner des précisions sur la localisation de ces infrastructures critiques”. Il reste néanmoins dubitatif sur cette explication, avançant plutôt l’argument de la compétitivité. Il note également que, même si les entreprises souhaitent calculer l’empreinte de leur usage de l’IA, cela reste compliqué faute de données transmises par les entreprises mères, telles qu’OpenAI.
Un point de vue partagé par Thomas Brilland, ingénieur sobriété numérique à l’Ademe. “Avec l’arrivée de l’IA générative, nous sommes entrés dans un autre monde”, réagit-il. Pour expliquer ce retard quant à la mesure de l’empreinte de l’IA générative, ce spécialiste avance aussi que le “manque de transparence des acteurs principaux empêche l’accès aux données essentielles (par exemple, la consommation d’énergie par requête)”. Même si cette technologie est “récente et complexe”, les “méthodologies de mesure existent”, à l’image du référentiel IA Frugale de l’Afnor qui donne des premières pistes.
Une IA durable est-elle possible ?
Mais est-ce que les gains apportés par l’IA valent vraiment le coup ? Selon les spécialistes de l’IA, la prochaine réflexion que les entreprises devront mener sera de mettre en balance l’usage de l’IA et les bénéfices qu’elles peuvent en tirer, face aux coûts économiques, environnementaux et sociétaux. Mais ce cheminement intellectuel est encore loin d’être réalisé par toutes les sociétés, au risque d’accentuer la crise climatique. C’est notamment le cas pour ExxonMobil, qui a annoncé pouvoir produire 50 000 barils de pétrole de schiste supplémentaires par jour grâce à une amélioration des techniques d’extraction par l’IA.
Or, de plus en plus de voix s’élèvent pour un meilleur encadrement des usages de l’IA. Hasard du calendrier, l’Artificial Intelligence Act (IA Act), adopté cet été par la Commission européenne, entre en vigueur ce lundi 3 février, “pour garantir aux Européens qu’ils peuvent faire confiance à ce que l’IA a à offrir”, note ainsi la Commission européenne sur son site. Plus clairement, il s’agit d’encadrer les dérives potentielles de l’IA et “son développement complètement déraisonné”, souligne le coprésident de Data for Good. “L’IA Act est un premier pas dans le bon sens, que nous pouvons saluer, même si cette première étape reste encore assez imparfaite, notamment sur le volet environnemental”, précise-t-il.
Un volet qui pourrait être très bientôt abordé lors du prochain sommet de Paris sur l’IA qui doit se tenir au Grand Paris, les 10 et 11 février. La déclaration signée à l’issue de cette rencontre “inclura un certain nombre de sujets qui n’ont jamais été abordés à cette échelle, et en particulier la soutenabilité environnementale des technologies relatives à l’intelligence artificielle”, a confié le ministre des Affaires étrangères Jean-Noël Barrot au micro de France Inter.