Règlement européen : Va-t-on vers une « censure » des réseaux sociaux le 25 août ?


Règlement européen : Va-t-on vers une « censure » des réseaux sociaux le 25 août ?

Publié le mardi 1 août 2023 à 10:34

1200x768_54e-edition-du-salon-international-de-l-aeronautique-et-de-l-espace-au-bourget-paris-france-19-06-2023-retmen-sipa-press-thierry-breton-comissaire-europeen-au-marche-interieur-de-passage-au-s

Thierry Breton, commissaire européen au marche intérieur et au numérique, de passage au Salon du Bourget. — RETMEN/SIPA

Auteur(s)

Emilie Jehanno (20 Minutes)

Les mots de Thierry Breton, commissaire européen au numérique, ont suscité une vague de réaction sur les réseaux sociaux

Les mots de Thierry Breton ont fait le tour des réseaux sociaux. Dans une interview sur FranceInfo le 10 juillet, le commissaire européen au marché intérieur et au numérique a adressé un message aux plateformes comme TikTok ou Twitter, accusées de ne pas en avoir fait assez pendant les émeutes urbaines. « A partir du 25 août, la loi européenne va s’appliquer à ces plateformes, a-t-il martelé, lorsqu’il y aura des contenus haineux, des appels à la révolte, à tuer des individus, à brûler des voitures, elles seront dans l’obligation à l’instant de les effacer. »

Ici, Thierry Breton fait référence au règlement européen sur les services numériques (en anglais Digital Services Act, DSA), qui vise à responsabiliser les plateformes. « On a des équipes qui pourront intervenir immédiatement, a-t-il poursuivi, et si [les plateformes] n’agissent pas immédiatement, alors oui, on pourra à ce moment-là donner une amende et interdire son exploitation sur le territoire. »

« Urgence absolue »

Ces propos ont réveillé des inquiétudes de tous côtés : pour l’économiste Maxime Combes, membre de l’association Attac, l’UE et l’exécutif « veulent instaurer une obligation d’effacer instantanément "les appels à la révolte" sous peine de sanction », après avoir salué il y a dix ans le rôle des réseaux sociaux dans les révolutions des pays arabes. Dans la nébuleuse antivaccin (France Soir, Courrier des Stratèges), on s’alarme plutôt d’une Europe qui « censure », tandis que le présentateur André Bercoff, dont les émissions ont relayé sans contradiction des thèses complotistes, y voit « une urgence absolue » : Twitter et consorts seront « en liberté ultra-provisoire et totalement surveillée ».

Les réseaux sociaux sont-ils menacés de censure à partir du 25 août ? Et ce nouveau règlement permet-il de mettre en œuvre si facilement la menace de Thierry Breton ? Pour y répondre, nous avons demandé à deux spécialistes de décrypter ce qui va changer.

« On n’avait pas les moyens d’assurer la responsabilité des plateformes »

La formule a été répétée à l’envi : le nouveau règlement va permettre de « rendre illégal en ligne ce qui l’est déjà hors ligne ». Mais elle fait tiquer Jean Cattan, juriste et secrétaire général du Conseil national du numérique, une instance consultative indépendante. « Ce n’est pas vraiment celle que j’utiliserai, plaide-t-il. C’est-à-dire que ce qui est illégal hors ligne a toujours été illégal en ligne. Il n’y a pas de sujet là-dessus. »

Mais pendant vingt-cinq ans, les plateformes se sont surtout autorégulées. « Ce qui va changer, c’est qu’on n’avait pas les moyens de contrôle nécessaires pour assurer la responsabilité des plateformes face à leur non-agissement et d’assurer la légalité des contenus véhiculés en ligne. » Le DSA offre « les moyens d’action nécessaire ».

En résumé, le règlement ne permet pas à la commission européenne de décider que tel contenu est haineux et de le supprimer illico. « Il doit permettre aux pouvoirs publics d’avoir davantage de moyens pour exiger que les plateformes numériques respectent la loi », souligne Sophie Jehel, professeure en sciences de l’information et de la communication à l’université Paris 8.

Pas de définition précise d’un contenu haineux

Et c’est bien pour cela qu’on ne trouvera pas dans ce règlement une définition précise d’un contenu haineux ou d’un appel à la révolte qui serait interdit. Est explicité, par contre, le terme volontairement large de “contenu illicite”. Cette notion couvre « les informations relatives aux contenus, produits, services et activités illégaux », indique l’article 12. Cela peut faire référence à des informations qui, « en vertu du droit applicable », sont soit elles-mêmes illicites, comme les discours haineux illégaux, les contenus discriminatoires illégaux ou le partage d’images représentant des abus sexuels commis sur des enfants, du harcèlement en ligne, de la vente de produits non conformes, etc.

Les plateformes en ligne devront proposer aux internautes un outil leur permettant de signaler facilement ces contenus et devront rapidement retirer ou bloquer l’accès au contenu illégal, détaille le site vie-publique. Elles devront coopérer avec des « signaleurs de confiance », un statut qui sera attribué dans chaque pays à des organisations en raison de leur expertise et dont les notifications seront traitées en priorité. En France, les pouvoirs publics ont déjà mis en place des systèmes qui leur permettent de demander la suppression de contenus, terroristes par exemple, comme la plateforme du ministère de l’Intérieur, Pharos.

« Un approfondissement des pratiques »

Dix-sept très grandes plateformes doivent se soumettre prioritairement à ces conditions dès le 25 août, les plus petites ont un délai jusqu’au 17 février 2024. Point important : les plateformes devront rendre plus transparentes ces décisions et toute personne qui aura vu son compte suspendu ou résilié pourra les contester.

Le DSA change-t-il quelque chose par rapport à la modération actuelle ?  « On est plutôt dans un approfondissement des pratiques, soutient Sophie Jehel, dans une explicitation entre les demandes formulées par les pouvoirs publics, celles des usagers et du fonctionnement de la modération. » La grande inconnue reste de savoir jusqu’où les plateformes vont accepter d’expliciter leurs critères et de donner des informations sur leurs algorithmes auprès de la Commission et des chercheurs.

Un avancement pour les droits des usagers

Car ce sera toujours la plateforme qui va apprécier la légalité ou non du contenu. « Le DSA vient renforcer une législation déjà existante en France, il donne simplement des contraintes plus grandes sur l’explicitation de son application », poursuit-elle. Sophie Jehel y voit surtout un avancement pour les droits des usagers. « Les grandes plateformes suppriment déjà des millions de contenus, indique-t-elle. Ce qu’apporte le DSA, c’est la possibilité de leur demander des comptes sur la manière dont elles le font. »

Au final, est-ce une nouvelle forme de censure qui se met en place ? « Non, répond Jean Cattan. Il faut bien distinguer les choses et c’est justement le problème d’une formulation comme celle de Thierry Breton. Il ne s’agit pas qu’un État se prononce sur le contenu d’une publication. Ce que va faire la Commission européenne, associée aux autorités nationales compétentes des États membres, c’est de contrôler que les plateformes ont bien mis en œuvre les moyens nécessaires pour éviter l’apparition de ce qu’on a appelé dans le texte les risques systémiques. »

Une évaluation des risques systémiques

Cette évaluation des risques systémiques, et leur atténuation, est le deuxième axe du règlement concernant les réseaux sociaux. Il s’agit de l’article 76 et suivants du DSA. Quatre catégories de risques systémiques sont identifiées : les contenus illicites, les atteintes aux personnes, les atteintes au déroulé des élections et à l’ordre public et l’atteinte aux droits fondamentaux. Chaque année, les plateformes devront évaluer ces risques et prendre les mesures nécessaires pour les atténuer (respect de codes de conduite, suppression des faux comptes, visibilité accrue des sources d’information faisant autorité…).

« Ce sont des catégories objectives et les plateformes ont pour obligation de réduire la portée des risques qu’elles pourraient véhiculer, explique le secrétaire général du Conseil national du numérique. Si elles n’ont pas mis en œuvre les moyens nécessaires, tout un train de sanctions peut être mis en place [des amendes jusqu’à l’interdiction d’activités sur le marché européen en cas de violations graves et répétées]. Les autorités publiques européennes et au premier chef la Commission européenne vont apprécier les moyens mis en place pour juguler les risques systémiques, mais elles ne vont pas juger des contenus. Il ne s’agit absolument pas de ça. »

Un risque pour la liberté d’expression ?

Ni Jean Cattan ni Sophie Jehel ne voient dans ce nouveau règlement une atteinte grave à la liberté d’expression. Au contraire même pour la professeure en sciences de l’information, la liberté d’expression est déjà menacée par la viralité des discours de haine. « La liberté d’expression ne peut être limitée que de façon proportionnée en s’appuyant sur des lois, c’est un principe inscrit dans la convention européenne des droits humains », fait-elle remarquer.

Les catégories de risques systémiques correspondent à des « catégories traditionnelles du droit », souligne également Jean Cattan, qui rappelle les apports de l’Union européenne en matière de libertés fondamentales à travers la Charte de droits fondamentaux et son invocabilité directe devant le juge ou le contrôle devant la Cour de justice de l’Union européenne. « Pour ce qui est des atteintes éventuelles aux libertés, ce sont des choses que le juge ou les autorités publiques ont toujours dû juger, détaille-t-il. Quand il est question de contenu illicite, cela renvoie aux qualifications d’illégalité que vous avez en droit. De même, lorsque le DSA évoque les atteintes potentielles à la sécurité publique, on est renvoyé sur un exercice juridique classique d’appréciation de cette notion. »

Pour le juriste, il faut tout de même rester vigilant à l’égard des administrations nationales « qui, pour ne pas citer la France, dans des États comme la Hongrie, la Pologne ou autres pourraient se saisir de ces textes pour exercer un contrôle disproportionné de leur population ». A charge pour le droit européen d’agir alors en contre-pouvoir. « La qualification qui va être retenue sur ces risques systémiques doit pouvoir bénéficier des garanties du jeu institutionnel européen. C’est la meilleure manière d’éviter de faire des erreurs et d’atteindre à la démocratie », estime-t-il.

 

Statistiques relatives à une ou plusieurs déclaration(s) fact-checkée(s) par cet article

  • URL de la déclaration : https://twitter.com/benoitm_mtl/statu...
  • Texte de la déclaration :

    À partir du 25 août, l'Union européenne 🇪🇺 exigera que les plateformes censurent des contenus. 

    ▶️ la Commission pourra infliger des amendes pouvant aller jusqu'à 6⃣% de leurs chiffres d'affaires mondiaux. Cela pourra aller jusqu’à leur bannissement de l’UE 💥

    #censure #1984

  • Nombre de retweets : 3