Publié le 11 avril 2023

NUMÉRIQUE

"Avec ChatGPT, nous nous trouvons enfin devant un phénomène éthiquement préoccupant", selon Thierry Ménissier

Des scientifiques ont demandé de mettre en pause le développement de l’intelligence artificielle face à ses dangers potentiels. Thierry Ménissier, professeur de philosophie politique, directeur de la chaire Éthique et IA du Multidisciplinary institute in artificial intelligence (MIAI) de l’université Grenoble Alpes, estime qu’il faut lancer des États généraux de l’IA, afin que les citoyens se saisissent réellement de cette technologie et n’en soit pas que de simples consommateurs.

ChatGPT chatbot intelligence artificielle florine morestin novethic 01
Thierry Ménissier est professeur de philosophie politique, directeur de la chaire Éthique et IA du Multidisciplinary institute in artificial intelligence (MIAI) de l’université Grenoble Alpes.
Florine Morestin

Des gouvernements ont décidé d’interdire ChatGPT, en raison d’utilisations controversées. Comment insuffler de l’éthique dans ce type d’outils ?

ChatGPT offre l’opportunité d’une observation des risques provoqués par l’intelligence artificielle. C’est important, car avant d’évaluer si c’est bien ou mal et au lieu de vouloir immédiatement réguler ce qui apparaît inquiétant, il nous faut une phase d’observation et d’expérimentation. Or il se trouve qu’il n’y a pas une seule, mais des éthiques de l’IA. Il existe tout d’abord l’éthique de l’informatique ("computer ethics") qui vise à régir le code pour qu’il respecte certaines valeurs, comme la transparence, l’équité, etc. Elle est nécessaire, mais insuffisante lorsque les interactions entre la machine et les individus sont plus fortes. Il existe également l’éthique algorithmique, à propos de la programmation des systèmes intelligents, l’éthique du digital, qui concerne les plateformes, ou encore ce que je nomme, en référence à l’innovation par les usages, l’éthique des usages de l’intelligence artificielle.

La "computer ethics" est cependant celle qui domine actuellement. Elle est dominée par le raisonnement utilitariste et ne prend peu en compte des questions du type "tel dispositif nous rend-il meilleur ou pire", et n’inclut pas des variables comme l’écologie. Aujourd’hui, il faut à la fois élargir l’éthique de l’IA, en préciser les contours et définir ses finalités.

Des scientifiques ont rédigé une lettre ouverte demandant de faire une pause dans la recherche sur l’intelligence artificielle. Qu’en pensez-vous ?

Je suis tout d’abord frappé que cette lettre ne soit pas signée que par de purs scientifiques. La communauté scientifique de l’IA est largement liée à des intérêts économiques et financiers, car elle s’inscrit dans un modèle de l’innovation dans lequel les financements nourrissent la science et la technologie en vue de créer de la croissance économique. Le moratoire est un phénomène médiatique et social qui s’inscrit dans ce modèle, les signataires ne sont donc pas totalement désintéressés.

Faut-il réglementer les systèmes d’intelligence artificielle ?

Avec ChatGPT, nous nous trouvons enfin devant un phénomène éthiquement préoccupant. Cela démontre aux informaticiens qu’ils ont de grands pouvoirs face auxquels doit se trouver une grande responsabilité. La régulation est un mode important qui concerne les juristes, mais l’éthique propose d’autres manières de faire. En général, les experts qui détiennent un grand savoir-faire prêtent serment. C’est le cas des médecins, avec le serment d’Hippocrate, mais aussi de certains ingénieurs au Canada. Il est donc possible de prévoir, à terme, que des accidents causés par l’utilisation de l’IA pousseront les informaticiens à prêter serment. Certaines associations le font d’ailleurs déjà, c’est le cas du serment d’Holberton-Turing qui s’adresse aux professionnels de l’intelligence artificiels. Mais certains informaticiens y sont réticents parce qu’ils ne veulent pas se lier les mains. Ils se placent dans la position de l’expérimentateur qui veut pouvoir innover.

Je milite de mon côté pour la création d’États généraux de l’intelligence artificielle, de la même manière qu’il y a eu une convention citoyenne sur le climat. Grenoble, étant donné la forte communauté scientifique locale, serait bien placée pour les organiser et créer une évaluation technologique participative. Cela permettrait aux usagers qui n’ont pas la compréhension de ces technologies de mieux prendre conscience des enjeux.

Pourquoi faut-il que les citoyens se saisissent du sujet ?

L’information doit être la plus précise possible sur le fonctionnement de ces outils. La culture technique des citoyens est souvent bien trop déficiente, or il nous faut sortir du simple usage pour comprendre comment cela fonctionne. Cela nécessite une réflexion sociétale qui pourrait être menée dans le cadre de ces États généraux, au moyen d’ateliers participatifs.

Les industriels n’ont cependant que peu d’intérêt à travailler sur la finalité de l’IA, ils préfèrent cantonner les gens à la simple consommation. On a vu pourtant, dans le cadre de la convention citoyenne sur le climat ou de celle sur la fin de vie, que les citoyens pouvaient développer une compétence experte sur un sujet qu’ils ne maîtrisaient pas au départ. Le risque engendré par l’intelligence artificielle appelle donc à plus de démocratie qui soit instruite, il faut une montée en compétence des citoyens.

Propos recueillis par Arnaud Dumas


© 2023 Novethic - Tous droits réservés

‹‹ Retour à la liste des articles

NUMÉRIQUE

Données personnelles

Avec Internet et les réseaux sociaux, tous les utilisateurs sèment des gigantesques quantités de données. Données qui sont utilisées à des fins publicitaires et parfois dans un but malveillant. Le RGPD, entré en vigueur le 25 mai 2018, est censé protéger les Européens.

[Le chiffre] Les GAFA détiennent 70 000 données sur votre enfant

À l'âge de 13 ans, les parents auront posté en moyenne 1 300 photos et vidéos de leur enfant sur les médias sociaux. Et d'ici ses 18 ans, il y aura, sur la toile, 70 000 publications le concernant, estime un rapport de la commission britannique de protection de l'enfance. Des données personnelles...

[Décryptage] La blockchain peut-elle survivre au RGPD ?

Au-delà des cryptomonnaies, la blockchain est aujourd’hui au cœur de nombreux projets d’entreprises pour mieux tracer les flux ou assurer des transactions décentralisées. Parmi les secteurs en pointe sur cet outil : le secteur énergétique, celui de la finance ou encore de la grande distribution....

Cyberattaque, Transparence, Compétitivité... Le RGPD est un atout pour la politique RSE des entreprises

Le 25 mai, les entreprises, qui gèrent ou stockent des données sur de citoyens de l’Union européenne, devront appliquer le nouveau règlement général sur la protection des données personnelles, plus connu sous son acronyme RGPD. Une petite révolution, souvent vécue comme une contrainte par les...

Objectif, Sanction, Protection : cinq questions pour comprendre le RGPD, le nouveau règlement de protection des données personnelles

Le nouveau règlement européen sur la protection des données personnelles entre en application ce 25 mai. Toutes les entreprises gérants les données de citoyens européens doivent s'y conformer sous peine de régler une amende allant jusqu'à 4 % de leur chiffre d'affaires annuel. Si les GAFA ont déjà...