Publié le 11 avril 2023

NUMÉRIQUE

"Avec ChatGPT, nous nous trouvons enfin devant un phénomène éthiquement préoccupant", selon Thierry Ménissier

Des scientifiques ont demandé de mettre en pause le développement de l’intelligence artificielle face à ses dangers potentiels. Thierry Ménissier, professeur de philosophie politique, directeur de la chaire Éthique et IA du Multidisciplinary institute in artificial intelligence (MIAI) de l’université Grenoble Alpes, estime qu’il faut lancer des États généraux de l’IA, afin que les citoyens se saisissent réellement de cette technologie et n’en soit pas que de simples consommateurs.

ChatGPT chatbot intelligence artificielle florine morestin novethic 01
Thierry Ménissier est professeur de philosophie politique, directeur de la chaire Éthique et IA du Multidisciplinary institute in artificial intelligence (MIAI) de l’université Grenoble Alpes.
Florine Morestin

Des gouvernements ont décidé d’interdire ChatGPT, en raison d’utilisations controversées. Comment insuffler de l’éthique dans ce type d’outils ?

ChatGPT offre l’opportunité d’une observation des risques provoqués par l’intelligence artificielle. C’est important, car avant d’évaluer si c’est bien ou mal et au lieu de vouloir immédiatement réguler ce qui apparaît inquiétant, il nous faut une phase d’observation et d’expérimentation. Or il se trouve qu’il n’y a pas une seule, mais des éthiques de l’IA. Il existe tout d’abord l’éthique de l’informatique ("computer ethics") qui vise à régir le code pour qu’il respecte certaines valeurs, comme la transparence, l’équité, etc. Elle est nécessaire, mais insuffisante lorsque les interactions entre la machine et les individus sont plus fortes. Il existe également l’éthique algorithmique, à propos de la programmation des systèmes intelligents, l’éthique du digital, qui concerne les plateformes, ou encore ce que je nomme, en référence à l’innovation par les usages, l’éthique des usages de l’intelligence artificielle.

La "computer ethics" est cependant celle qui domine actuellement. Elle est dominée par le raisonnement utilitariste et ne prend peu en compte des questions du type "tel dispositif nous rend-il meilleur ou pire", et n’inclut pas des variables comme l’écologie. Aujourd’hui, il faut à la fois élargir l’éthique de l’IA, en préciser les contours et définir ses finalités.

Des scientifiques ont rédigé une lettre ouverte demandant de faire une pause dans la recherche sur l’intelligence artificielle. Qu’en pensez-vous ?

Je suis tout d’abord frappé que cette lettre ne soit pas signée que par de purs scientifiques. La communauté scientifique de l’IA est largement liée à des intérêts économiques et financiers, car elle s’inscrit dans un modèle de l’innovation dans lequel les financements nourrissent la science et la technologie en vue de créer de la croissance économique. Le moratoire est un phénomène médiatique et social qui s’inscrit dans ce modèle, les signataires ne sont donc pas totalement désintéressés.

Faut-il réglementer les systèmes d’intelligence artificielle ?

Avec ChatGPT, nous nous trouvons enfin devant un phénomène éthiquement préoccupant. Cela démontre aux informaticiens qu’ils ont de grands pouvoirs face auxquels doit se trouver une grande responsabilité. La régulation est un mode important qui concerne les juristes, mais l’éthique propose d’autres manières de faire. En général, les experts qui détiennent un grand savoir-faire prêtent serment. C’est le cas des médecins, avec le serment d’Hippocrate, mais aussi de certains ingénieurs au Canada. Il est donc possible de prévoir, à terme, que des accidents causés par l’utilisation de l’IA pousseront les informaticiens à prêter serment. Certaines associations le font d’ailleurs déjà, c’est le cas du serment d’Holberton-Turing qui s’adresse aux professionnels de l’intelligence artificiels. Mais certains informaticiens y sont réticents parce qu’ils ne veulent pas se lier les mains. Ils se placent dans la position de l’expérimentateur qui veut pouvoir innover.

Je milite de mon côté pour la création d’États généraux de l’intelligence artificielle, de la même manière qu’il y a eu une convention citoyenne sur le climat. Grenoble, étant donné la forte communauté scientifique locale, serait bien placée pour les organiser et créer une évaluation technologique participative. Cela permettrait aux usagers qui n’ont pas la compréhension de ces technologies de mieux prendre conscience des enjeux.

Pourquoi faut-il que les citoyens se saisissent du sujet ?

L’information doit être la plus précise possible sur le fonctionnement de ces outils. La culture technique des citoyens est souvent bien trop déficiente, or il nous faut sortir du simple usage pour comprendre comment cela fonctionne. Cela nécessite une réflexion sociétale qui pourrait être menée dans le cadre de ces États généraux, au moyen d’ateliers participatifs.

Les industriels n’ont cependant que peu d’intérêt à travailler sur la finalité de l’IA, ils préfèrent cantonner les gens à la simple consommation. On a vu pourtant, dans le cadre de la convention citoyenne sur le climat ou de celle sur la fin de vie, que les citoyens pouvaient développer une compétence experte sur un sujet qu’ils ne maîtrisaient pas au départ. Le risque engendré par l’intelligence artificielle appelle donc à plus de démocratie qui soit instruite, il faut une montée en compétence des citoyens.

Propos recueillis par Arnaud Dumas


© 2023 Novethic - Tous droits réservés

‹‹ Retour à la liste des articles