Publié le 10 février 2025

Alors que le sommet de l’IA se tient les 10 et 11 février à Paris, une équipe de chercheurs a mis en avant l’impact de l’IA sur notre perception des défis environnementaux. Un biais qui peut constituer un frein à l’action à l’heure où il faut accélérer.

Paris est devenue ces derniers jours la capitale internationale de l’intelligence artificielle avec la tenue de la Semaine de l’action sur l’IA depuis le 6 février. Le point d’orgue est l’organisation du sommet de l’IA ces 10 et 11 février en présence d’une centaine de chefs d’Etat. L’objectif principal est d’aboutir à une gouvernance mondiale de l’IA mais aussi, dans un marché dominé par le duel sino-américain, de faire émerger une troisième voie avec une IA “éthique”, “accessible” et “frugale”.

Si une table ronde est consacrée aux “écosystèmes d’IA compétitifs et soutenables” ce lundi 10 février, le ministère de la Transition écologique entend enfoncer le clou en organisant un forum dédié à l’IA durable le lendemain, mardi 11 février, à l’Hôtel de Roquelaure, en présence de 200 participants issus de gouvernements, d’entreprises, du monde de la recherche, d’ONG et d’organisations internationales. “C’est la première fois qu’un forum sur l’IA porte un axe sur le volet durable”, s’enthousiasme le cabinet de la ministre Agnès Pannier-Runacher.

Au menu, des discussions sur les infrastructures nécessaires au développement de l’IA, extrêmement énergivores et gourmandes en eau, mais aussi sur les usages et sur les modèles de l’IA. Mais outre les impacts physiques, qu’en est-il des biais ? Notamment des biais liés aux défis environnementaux ? C’est ce qu’a cherché à savoir une équipe de chercheurs de The University of British Columbia au Canada dans une étude inédite, publiée en décembre dernier. Ils ont posé une série de questions identiques à quatre chatbots (ChatGPT, GPT4, Claude-Instant et Claude2) et comparé plus de 1 500 réponses.

Les biais face aux défis environnementaux

Les chercheurs définissent les biais de manière générale comme “la présence de fausses représentations systématiques, d’erreurs d’attribution ou de distorsions factuelles qui aboutissent à favoriser certains groupes ou idées, à perpétuer des stéréotypes ou à formuler des hypothèses incorrectes basées sur des modèles appris”. Ils rappellent que “des recherches antérieures ont montré que les chatbots associent les musulmans au terrorisme, les femmes au travail non rémunéré et les personnes âgées à l’incompétence” et montrent que l’IA modifie également la façon dont les humains perçoivent les défis environnementaux.

En matière de responsabilité climatique par exemple, les chatbots ont tendance à pointer les gouvernements mais sont réticents à attribuer la responsabilité aux investisseurs et aux entreprises. Dans 72% des observations, les chatbots ne mettent pas en avant les actions ou comportements individuels comme source de problème. Cependant, les individus sont mentionnés dans les réponses deux fois plus souvent que les investisseurs, la finance ou le capital, apprend-on dans l’étude.

En ce qui concerne la vulnérabilité aux événements climatiques, les peuples autochtones sont bien mentionnés mais l’impact des défis environnementaux sur les femmes et les communautés noires est mentionné beaucoup moins fréquemment. “Il est significatif que la vulnérabilité des Noirs ne soit mentionnée que 15 fois et celle des femmes que 36 fois”, indiquent les chercheurs. Quant aux solutions, les chatbots évitent de mentionner de possibles changements plus radicaux dans les systèmes économiques, sociaux et politiques existants et suggèrent plutôt des approches progressives ancrées dans l’expérience passée. Elles consistent plutôt en grande partie en une combinaison de changements économiques et politiques doux, comme un plus grand déploiement de technologies durables, et une plus grande sensibilisation et éducation du public au problème.

Impacts environnementaux cachés de l’IA

Les chatbots omettent ainsi une grande partie des solutions discutées par ailleurs. “Aucun des chatbots n’a explicitement remis en cause le capitalisme, la croissance économique continue, l’anthropocentrisme ou suggéré des activités illégales (désobéissance civile, actions de sabotage, etc., ndr) comme réponse”, notent les chercheurs qui s’inquiètent de l’impact d’un tel biais à l’heure où une action urgente est nécessaire.

Dès lors, face à l’ampleur que prennent ces nouvelles technologies et leur potentielle influence dans les prises de décision, les auteurs appellent à identifier ces impacts environnementaux cachés de l’IA et à développer un esprit critique à leur égard. “Il est important de reconnaître que ces plateformes ne sont pas neutres en termes de valeur, mais qu’elles offrent plutôt une interprétation particulière qui peut diverger de la compréhension des experts de ces défis environnementaux”, concluent-ils.

Cette étude fait écho à une tribune publiée le 4 février dernier dans Le Monde par une centaine d’ONG, parmi lesquelles Amnesty International et la Ligue des droits de l’homme. Le texte énumère la longue liste des impacts négatifs de l’IA et recommande de placer les droits humains et la justice environnementale au cœur de la régulation de l’intelligence artificielle. A noter que le terme “justice environnementale” était absent de presque toutes les réponses des chatbots analysées par les chercheurs de The University of British Columbia.

Découvrir gratuitement l'univers Novethic
  • 2 newsletters hebdomadaires
  • Alertes quotidiennes
  • Etudes