Publié le 19 septembre 2023
GOUVERNANCE D'ENTREPRISE
TikTok : plainte contre le réseau social pour provocation au suicide
Le réseau social TikTok est accusé d'avoir amplifié la détresse d'une adolescente qui s'est suicidée en 2021. L'algorithme aurait conduit l'adolescente à visionner une masse importante de vidéos néfastes pour sa santé mentale. Cette plainte ravive le débat sur la responsabilité des entreprises dans le mal-être des jeunes, entre culte de la minceur et promotion de comportements destructeurs.

@Alex Green / Pexels
Les réseaux sociaux, responsables du mal-être des jeunes ? Les parents de Marie, adolescente de 15 ans qui s'est suicidée le 16 septembre 2021 à Cassis (Bouches-du-Rhône) en sont convaincus. Ils viennent de porter plainte contre le réseau social TikTok. Les chefs d'accusation sont la "provocation au suicide", la "non-assistance à personne en péril" et la "propagande ou publicité des moyens de se donner la mort" selon des informations révélées lundi 18 septembre par France Info.
Quelques semaines avant de mettre fin à ses jours, la jeune fille a expliqué dans une vidéo publiée sur TikTok les raisons de son accablement. Celui-ci était lié à son poids et au harcèlement scolaire qu'elle subissait à ce sujet. Juste après, le réseau social lui aurait présenté automatiquement de nombreuses vidéos parlant de minceur, ce qui aurait amplifié sa détresse. L'avocate de la famille Laure Boutron-Marmion dénonce un "algorithme extrêmement puissant" et une masse de vidéos présentées "qui ne peuvent que conduire à être encore plus mal". Une analyse approfondie est nécessaire en plus de l'enquête pour harcèlement scolaire déjà en cours, selon le parquet de Toulon.
Une bulle informationnelle
Si cette accusation directe de "provocation au suicide" est une première en France, la responsabilité de TikTok avait déjà été pointée à plusieurs reprises sur la question du mal-être. En décembre 2022, le Centre de lutte contre la haine en ligne (CCDH) a publié un rapport montrant comment des contenus relatifs à l'automutilation et à la perte de poids sont suggérés à des internautes, quelques minutes après les premières utilisations. Des accusations sont aussi en cours sur le sujet du manque de régulation du harcèlement sur le réseau social.
Un précédent judiciaire existe au Royaume-Uni. Le 30 septembre 2022, la justice britannique a tranché sur la responsabilité partielle des réseaux sociaux Instagram et Pinterest dans la mort de Molly, jeune fille de 14 ans, qui s'est suicidée en 2017. L'enquête a révélé des contenus faisant la promotion d'actes d'auto-mutilation et d'autres l'enfermant dans une bulle informationnelle sur le sujet de la dépression. La jeune fille aurait visionné au total 138 vidéos relatives à ces sujets. Selon l'avocat, "Instagram a littéralement donné des idées à Molly".
Le risque de dépression est documenté par l'entreprise elle-même. "32% des adolescentes disaient se sentir mal dans leur corps, et Instagram a aggravé cette situation", indique une étude interne réalisée par Facebook (aujourd'hui Meta), la maison mère d'Instagram, et révélée en 2019 par le Wall Street Journal. "Nous aggravons les complexes d'apparence d'une jeune fille sur trois", conclut l'étude. Par exemple, Instagram propose des filtres pour paraître plus mince, avoir une bouche plus pulpeuse, des yeux plus en amande... Instagram a aussi évalué que 13% des jeunes Britanniques et 6% des Américaines auraient déjà émis le souhait de se donner la mort sur le réseau social.
"Il ne faut pas stigmatiser les problèmes de santé mentale"
Instagram a réagi en 2019 à la suite du combat du père de Molly. Un "écran de sensibilité", un filtre qui demande d'abord à l'utilisateur s'il veut afficher le contenu, a été ajouté sur les posts liés aux sujets du suicide ou de l'automutilation. Le signalement automatisé, détecté par l'entreprise à l'aide d'algorithmes, a été jugé peu efficace par Pinterest. Ce réseau social a donc adopté le signalement par la communauté, déjà existant sur Instagram.
Instagram ne souhaite pas supprimer du contenu automatiquement. "Les conseils [de psychologues et d'associations] que nous avons reçus nous conduisent à penser qu'il ne faut pas stigmatiser les problèmes de santé mentale en supprimant les images qui reflètent les sujets sensibles et très difficiles avec lesquels des personnes sont aux prises", justifie Adam Mosseri, le patron d'Instagram. Cependant, les détections arrivent souvent tard, de l'aveu du patron.
Face à cela, la pression judiciaire et législative est de plus en plus forte. Le Digital Service Act, une règlementation européenne qui vise à assurer les droits fondamentaux dans les espaces numériques entrée en vigueur en août 2023 en Europe, impose aux plateformes de proposer des fils d'actualité purement chronologiques et sans suggestions et pousse aussi vers plus de transparence dans la modération. Une manière de reprendre le contrôle.