Les algorithmes d'Instagram facilitent la vente de pédopornographie
Une enquête de Stanford et du « Wall Street Journal » affirme que les algorithmes d'Instagram facilitent la vente de contenus pédophiles. Le réseau social aurait reconnu le problème et lancé un groupe de travail.
Par Les Echos
Il n'existe pas pire publicité pour Instagram. Un rapport de l'université de Stanford et du « Wall Street Journal » (WSJ) affirme que la filiale de Meta est la principale plateforme utilisée par des réseaux de pédophiles pour promouvoir et vendre des contenus montrant des abus sexuels sur des mineurs. « De larges réseaux de comptes, qui donnent l'apparence d'être opérés par des mineurs, promeuvent ouvertement la vente de contenus » pédopornographiques, indiquent des chercheurs du Cyber Policy Center, de la prestigieuse université de la Silicon Valley.
« Instagram est actuellement la plus importante plateforme pour ces réseaux grâce à des fonctionnalités telles que les algorithmes de recommandation de contenus et la messagerie qui aide les vendeurs à entrer en contact avec les acheteurs », précisent-ils. Et ni les pédophiles ni ces réseaux n'ont besoin de faire preuve de beaucoup d'ingénuité.
Les algorithmes au coeur du problème
D'après le « WSJ », une simple recherche avec des mots-clés tels que #pedowhore (« pedo putain ») ou #preteensex (« sexe pré-ado ») débouche sur des comptes utilisant ces termes pour faire la publicité de contenus montrant des abus sexuels sur des mineurs. Souvent, ces profils « assurent être pilotés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels », détaille l'article.
Les comptes ne disent pas directement qu'ils vendent ces images, mais ils comportent des menus avec des options, y compris celle de demander des actes sexuels spécifiques, dans certains cas. Les chercheurs de Stanford ont aussi repéré des offres pour des vidéos avec de la bestialité et de l'automutilation.
Le rapport souligne le rôle joué par les algorithmes du populaire réseau social : un compte test créé par le quotidien économique s'est vu « inondé de contenus qui sexualisent les enfants » après avoir cliqué sur quelques recommandations de ce genre. Meta n'a pas immédiatement répondu à une sollicitation de l'AFP.
Trafic d'être humains et pédocriminalité
D'après le « WSJ », le géant des réseaux sociaux a reconnu qu'il y avait des problèmes au niveau de ses services de sécurité et a dit avoir créé un « groupe de travail » pour régler le problème. En mars, des fonds de pension et d'investissement ont porté plainte contre Meta pour avoir « fermé les yeux » sur le trafic d'être humains et la pédocriminalité sur ses plateformes.
Instagram est aussi régulièrement accusé par des associations et autorités de ne pas suffisamment protéger les enfants face aux risques de harcèlement, d'addiction et de problèmes d'images de soi. Des révélations fin 2021 avaient conduit la plateforme à stopper son projet Instagram Kids , une version du réseau social pour les enfants.
Source AFP
Les Echos