Tech&Co
Tech

Modération, vente en ligne, données personnelles: comment le DSA va bouleverser le web européen

Un téléphone portable dont l'écran affiche plusieurs applications dédiées aux réseaux sociaux

Un téléphone portable dont l'écran affiche plusieurs applications dédiées aux réseaux sociaux - Odd ANDERSEN © 2019 AFP

Le Digital Service Act, voté par le Parlement européen, va imposer de lourdes obligations aux géants du web. Il devra être appliqué en 2024.

C'est un texte inédit dans l'histoire de l'Union européenne. La Législation sur les services numériques (Digital Services Act, DSA) européenne, qui doit réguler les grandes entreprises de tech sur le territoire, a été adoptée ce samedi 23 avril. Après deux ans de délibérations, le Parlement, la Commission et le Conseil européens se sont finalement entendus sur cette législation fondatrice pour le numérique.

Portée, entre autres, par le commissaire européen Thierry Breton, cette dernière appelle à une meilleure coopération des entreprises avec les autorités, mais aussi à repenser fondamentalement la sécurité des utilisateurs.

Les géants du web visés

Le texte, dont la version finale n'a pas encore été publiée, concerne au moins une vingtaine d'entreprises. Parmi elles, des réseaux sociaux, moteurs de recherche, ou encore des sites de commerce en ligne.

Plus spécifiquement, le texte vise les Gafam (Google, Amazon, Facebook, Apple et Microsoft), mais également Twitter, AliExpress ou TikTok. Les obligations sont proportionnelles à la taille des entreprises, avec une exigence maximale pour celles drainant plus de 45 millions d'utilisateurs européens.

Les entreprises concernées ont jusqu'au 1er janvier 2024 pour se conformer à ces nouvelles règlementations. Passée cette date, les sanctions seront effectives. Elles pourront aller d'une amende équivalente à 6% du chiffre d'affaires, jusqu'à l'interdiction totale d'opérer sur le territoire, en cas de manquements répétés.

Modération et transparence

Le fonctionnement des réseaux sociaux est l'un des principaux volets du texte. Une meilleure modération, plus de transparence, et des droits mieux protégés: ce sont les trois points fondamentaux sur lesquels il s'appuie.

Du point de vue des utilisateurs, ces évolutions de la modération seront les plus perceptibles. Cette pratique spécifique aux réseaux sociaux, qui consiste à gérer les contenus publiés en ligne, est souvent l'objet de critiques.

Les plateformes sont ainsi appelées à se doter de moyens humains proportionnels à leur nombre d'utilisateurs, afin de mieux lutter contre les contenus indésirables et illégaux. Elles doivent également proposer une modération adaptée à la langue de chaque pays, permettant par ailleurs à chaque utilisateur de pouvoir signaler un problème dans sa langue natale.

Deux exemples illustrent cette décision: en décembre dernier, BFMTV révélait que Twitter emploie moins de 2000 modérateurs dans le monde, pour environ 400 millions d'utilisateurs mensuels. De son côté, Facebook a été critiqué pour ne pas proposer une modération efficace dans un grand nombre de langues, laissant ainsi la porte ouverte aux dérives et aux contenus indésirables.

En cas de bannissement d'un compte ou de suppression de contenu, le réseau social devra aussi systématiquement fournir le détail de sa décision à l'utilisateur concerné.

Les algorithmes exposés

Le DSA inscrit la transparence des algorithmes dans la loi. Ces lignes de code, qui sont à la base du fonctionnement de tous les réseaux sociaux, sont régulièrement l'objet de critiques. Les utilisateurs devront être en mesure de choisir la façon dont ils reçoivent les contenus. Le réseau social devra ainsi préciser si son fil d'actualité est chronologique ou trié par son algorithme, et proposer le choix entre les deux.

Récemment, le Wall Street Journal révélait que l'algorithme de TikTok enfermait ses utilisateurs, souvent très jeunes, dans ce qui a été qualifié de "terriers de lapin": le concept des bulles de filtres, poussé à son extrême. Avec pour risque principal la prépondérance des contenus délètères, entretenue par ces algorithmes, pouvant nuire à la santé mentale des utilisateurs.

Réguler les places de marché

Le texte a vocation à mieux protéger les acheteurs sur les places de marché en ligne, en obligeant par exemple les vendeurs à fournir un numéro de téléphone et une adresse email pour s'enregistrer. Le signalement des contenus illégaux et dangereux doit également être facilité.

En novembre 2021, les autorités françaises avaient notamment imposé le déréférencement de la plateforme d'e-commerce Wish. Ce site de vente en ligne avait fait l'objet d'un rapport de la DGCCRF, pointant du doigt le nombre anormalement élevé de produits dangereux disponibles à la vente.

Clarté et respect des données

Plusieurs aspects du texte, plus généraux, concernent la totalité des entreprises soumises au DSA. Parmi ceux-ci, on trouve l'obligation pour chaque plateforme de proposer des conditions d'utilisation claires et concises.

La chasse aux "dark patterns" est également engagée. Ce concept désigne des interfaces mises au point spécifiquement pour tromper les internautes. Pour une plateforme, il peut s'agir de l'affichage de cases à cocher pour ne pas partager certaines données, plutôt que ces mêmes cases à cocher pour accepter ce partage. Un fonctionnement contre-intuitif régulièrement dénoncé par les défenseurs de la vie privée.

La publicité en ligne est également concernée par le texte. Les plateformes ne pourront plus utiliser les données personnelles sensibles, telles que la religion ou les opinions politiques, pour proposer de la publicité ciblée aux internautes. Les enfants et adolescents ne devront, eux, plus du tout y être exposés.

Enfin, les plateformes devront se soumettre à des contrôles indépendants, et fournir des rapports annuels sur les risques qu'y rencontrent les utilisateurs.

Victoria Beurnez