La France enquête sur TikTok sur des dangers présumés pour la santé mentale des enfants

22

Les autorités françaises ont ouvert une enquête pénale sur TikTok, axée sur des allégations selon lesquelles la populaire plateforme vidéo promeut des contenus suicidaires et utilise des algorithmes qui pourraient pousser les jeunes utilisateurs vulnérables à l’automutilation. Cette action fait suite à la pression croissante des familles françaises, des parlementaires et des groupes de surveillance internationaux qui affirment que TikTok ne parvient pas à protéger adéquatement les enfants contre les contenus nuisibles.

Le parquet de Paris a annoncé que l’enquête examinerait spécifiquement les contenus « consistant notamment en une incitation au suicide », ainsi que si TikTok a correctement informé les autorités des potentielles violations commises par les utilisateurs de sa plateforme. La loi française oblige les intermédiaires tels que les sociétés de médias sociaux à signaler les infractions graves à la police. Les crimes potentiels faisant l’objet d’une enquête comprennent « la propagande pour des produits ou des méthodes… utilisés pour se suicider ».

Cette enquête a un poids considérable, avec d’éventuelles condamnations entraînant des peines de prison et des amendes substantielles pour les coupables. Il convient de noter que l’enquête n’en est qu’à ses débuts ; à ce stade, aucun individu n’a été désigné comme suspect potentiel.

TikTok sous le feu des familles et du Parlement

L’enquête découle d’une confluence d’événements. L’année dernière, sept familles ont porté plainte contre TikTok France, alléguant que la plateforme n’avait pas modéré les contenus préjudiciables et exposé les enfants à des contenus mettant leur vie en danger. Deux de ces familles ont tragiquement perdu leurs enfants. Un de ces cas concernait Marie Le Tiec, 15 ans. Après sa mort, Stéphanie Mistre, la mère de Marie, a découvert des vidéos inquiétantes sur le téléphone de sa fille. Ceux-ci comprenaient des guides sur les méthodes de suicide, des représentations graphiques d’automutilation et des commentaires encourageant les utilisateurs à passer de simples tentatives à des suicides complets.

Mistre affirme que l’algorithme de TikTok a fait apparaître à plusieurs reprises ce contenu dangereux pour sa fille. “Ils ont normalisé la dépression et l’automutilation”, a-t-elle déclaré, “en les transformant en un sentiment d’appartenance tordu.”

Ce cas n’est pas isolé. Les parlementaires français ont mené leur propre enquête sur l’impact de TikTok sur la santé mentale des enfants, contribuant ainsi à l’enquête pénale. Des organisations internationales comme Amnesty International ont également publié des rapports détaillant des préoccupations similaires concernant les pratiques de modération du contenu de TikTok et les dommages potentiels causés aux jeunes utilisateurs.

TikTok défend ses mesures de sécurité

En réponse au rapport parlementaire, TikTok a publié mardi une déclaration soulignant ses caractéristiques de sécurité. Ils ont mis en avant plus de 50 paramètres prédéfinis conçus pour protéger les adolescents et affirmé que neuf vidéos violantes sur dix sont supprimées avant d’être visionnées. Cependant, les critiques affirment que ces mesures ne suffisent pas, notamment en ce qui concerne les algorithmes qui peuvent, par inadvertance, pousser les utilisateurs vulnérables vers des contenus préjudiciables.

L’enquête pénale en France examinera de plus près les opérations de TikTok, créant potentiellement un précédent pour un examen similaire de la part d’autres gouvernements préoccupés par la sécurité et le bien-être des enfants sur les plateformes de médias sociaux. Le résultat pourrait avoir un impact significatif sur la manière dont les entreprises technologiques sont tenues responsables du contenu partagé sur leurs sites et sur les conséquences potentielles en cas de non-protection des utilisateurs, en particulier des mineurs.