TikTok fait l’objet d’une enquête du gouvernement américain sur du matériel d’abus sexuels sur des enfants

TikTok fait l’objet d’une enquête de la part des agences gouvernementales américaines sur sa gestion du matériel d’abus sexuels sur des enfants, alors que l’application vidéo courte en plein essor a du mal à modérer un flot de nouveaux contenus.

Faire face aux prédateurs sexuels a été un défi persistant pour les plateformes de médias sociaux, mais la jeune base d’utilisateurs de TikTok l’a rendu vulnérable à être une cible.

Le département américain de la Sécurité intérieure enquête sur la manière dont TikTok traite le matériel d’abus sexuels sur des enfants, selon deux sources proches du dossier.

Le ministère de la Justice examine également comment une fonctionnalité de confidentialité spécifique sur TikTok est exploitée par des prédateurs, a déclaré une personne au courant de l’affaire. Le DOJ a pour politique de longue date de ne pas confirmer ou nier l’existence d’enquêtes en cours.

« C’est un endroit parfait pour les prédateurs pour rencontrer, soigner et engager des enfants », a déclaré Erin Burke, chef d’unité de l’unité des enquêtes sur l’exploitation des enfants à la division de la cybercriminalité de la sécurité intérieure, l’appelant la « plate-forme de choix » pour le comportement.

Les enquêtes mettent en évidence à quel point TikTok a du mal à faire face au torrent de contenu généré par plus d’un milliard d’utilisateurs. La société, détenue par le chinois ByteDance, compte plus de 10 000 modérateurs humains dans le monde et a rapidement embauché du personnel dans ce domaine.

L’entreprise est en plein essor. Une prévision d’Insider Intelligence évalue les revenus publicitaires de TikTok à 11,6 milliards de dollars cette année, soit trois fois plus que les 3,9 milliards de dollars de l’année dernière.

Mark Zuckerberg, directeur général de Meta, a blâmé la popularité de TikTok parmi les jeunes comme principale raison du ralentissement de l’intérêt pour ses plateformes de médias sociaux établies de plus longue date telles que Facebook et Instagram.

Mais Meta a une plus grande expérience dans le traitement du matériel problématique, avec environ 15 000 modérateurs dans le monde et utilisant d’autres systèmes automatisés conçus pour signaler les publications.

Entre 2019 et 2021, le nombre d’enquêtes sur l’exploitation d’enfants liées à TikTok par la sécurité intérieure a été multiplié par sept.

Les réseaux de médias sociaux utilisent une technologie formée sur une base de données d’images collectées par le National Center for Missing and Exploited Children (NCMEC), une organisation centralisée où les entreprises sont légalement tenues de signaler le matériel pédopornographique.

TikTok a rapporté près de 155 000 vidéos l’année dernière alors qu’Instagram, qui compte également plus d’un milliard d’utilisateurs, a enregistré près de 3,4 millions de rapports. TikTok n’a reçu aucune demande de retrait du NCMEC l’année dernière, contrairement à ses rivaux Facebook, Instagram et YouTube.

« TikTok a une tolérance zéro pour le matériel d’abus sexuels sur des enfants », a déclaré la société. « Lorsque nous constatons une tentative de publication, d’obtention ou de distribution [child sexual abuse material]nous supprimons le contenu, interdisons les comptes et les appareils, signalons immédiatement au NCMEC et engageons les forces de l’ordre si nécessaire. ”

Cependant, Burke de Homeland Security a affirmé que les entreprises internationales telles que TikTok étaient moins motivées lorsqu’elles travaillaient avec les forces de l’ordre américaines. « Nous voulons [social media companies] pour s’assurer de manière proactive que les enfants ne sont pas exploités et maltraités sur vos sites – et je ne peux pas dire qu’ils le font, et je peux dire que beaucoup d’entreprises américaines le sont », a-t-elle ajouté.

TikTok a déclaré avoir supprimé 96% du contenu qui enfreignait ses politiques de sécurité des mineurs avant que quiconque ne les ait consultés. Les vidéos de mineurs buvant de l’alcool et fumant représentaient la majorité des suppressions en vertu de ces lignes directrices.

Un modèle que le Financial Times a vérifié auprès des forces de l’ordre et des groupes de sécurité des enfants était que le contenu était acheté et échangé via des comptes privés, en partageant le mot de passe avec les victimes et d’autres prédateurs. Des mots de code clés sont utilisés dans les vidéos publiques, les noms d’utilisateur et les biographies, mais le contenu illégal est téléchargé à l’aide de la fonction « Only Me » de l’application où les vidéos ne sont visibles que pour ceux qui sont connectés au profil.

Seara Adair, une militante pour la sécurité des enfants, a signalé cette tendance aux forces de l’ordre américaines après avoir d’abord signalé le contenu sur TikTok et avoir appris qu’une vidéo ne violait pas les politiques. « TikTok parle constamment du succès de leur intelligence artificielle mais un enfant clairement nu s’y glisse », a déclaré Adair. Tous les comptes et vidéos référencés par TikTok par le FT ont désormais été supprimés.

« Nous sommes profondément attachés à la sécurité et au bien-être des mineurs, c’est pourquoi nous intégrons la sécurité des jeunes dans nos politiques, activons les paramètres de confidentialité et de sécurité par défaut sur les comptes adolescents et limitons les fonctionnalités par âge », a ajouté TikTok.

Olivier Quirion

Je m’intéresse particulièrement à l’interaction avec mes lecteurs. C’est pourquoi je suis ouverte à toutes les conversations faisant référence aux actualités mondiales. Vous pouvez retrouver une section interactive de groupe où il sera possible de nous joindre dans un débat dénoué de mauvaises critiques. Je fais en sorte que les internautes puissent lire mes articles de la manière la plus simple possible, tout en étant divertis. Je mise ainsi sur des articles peu encombrants et qui sont faciles à digérer. C’est d’ailleurs pourquoi je priorise une rédaction courte mais intéressante à lire.
Bouton retour en haut de la page