La régulation des plateformes à l'heure du DSA - 4e séminaire de recherche


23 septembre 2022 - de 14h à 17h30


Quelle transformation de la régulation des plateformes faut-il attendre de la mise en œuvre prochaine du Digital Services Act (DSA) ? Cette séance du séminaire de recherche DE FACTO propose un ensemble d’interventions pluridisciplinaires portant sur les enjeux juridiques, communicationnels et sociologiques de la régulation du web et un dialogue directement avec les représentants de l’ARCOM, en charge de l’accompagnement national de la mise en place de ce nouveau Règlement.

 

Les interventions

Florence G'sell (Université de Lorraine et Sciences chaire Digital, gouvernance et souveraineté) : La politique des contenus à l’heure de l’entrée en vigueur du DSA: risques et incertitudes

Alors que l’Union européenne a récemment décidé, avec l’adoption de plusieurs Règlements importants dont le Digital Services Act, d’encadrer davantage l’activité des plateformes afin, notamment, de les obliger à lutter effectivement contre les contenus illégaux, à modérer les contenus dans le respect des droits des utilisateurs et à faire preuve d’une réelle transparence dans leurs pratiques, le modèle prévalant aux Etats-Unis reste encore largement celui de l'autorégulation: les plateformes sont sans réel contrepouvoir, n’engagent pas leur responsabilité et ne se voient généralement appliquer que des réglementations limitées. Il est possible de s’interroger, dans ce contexte, sur les suites de l’entrée en vigueur du DSA. La mise en œuvre du Règlement ne risque-t-elle pas de se révéler délicate compte-tenu de sa rédaction parfois vague et de la nécessité de l’articuler avec les textes européens et nationaux déjà existants ? L’entrée en vigueur du DSA pourrait-elle, par ailleurs, influencer les pratiques des plateformes à l’échelle globale, bien au-delà de l’Union Européenne ? Si tel était le cas, ce texte n’arrive-t-il pas, de toutes les façons, trop tard compte-tenu de l’évolution actuelle des plateformes, qui privilégient aujourd'hui les contenus audiovisuels et le développement des univers virtuels ?  

Benoît Loutrel (membre de l’ARCOM) : DSA, acte II : la mise en oeuvre

Après un processus d'adoption "expresse", le DSA va devenir une réalité début 2023. Les plateformes sont globales, le cadre de régulation est européen mais les "désordres informationnels" sont localisés. Comment réussir la mise en œuvre initiale de ce nouveau cadre de "régulation en réseaux", mobilisant la Commission européenne et les régulateurs nationaux, mais aussi pleinement ouvert aux sociétés civiles et au monde académique ? Quelles sont les opportunités pour accéder à de nouvelles données des plateformes pour les chercheurs à cette occasion?  Comment l'ARCOM envisage-t-elle son rôle dans cette nouvelle phase ?

Romain Badouard (Université Paris 2/CARISM) : Désinformation et haine en ligne : la modération des plateformes en débat

Les pratiques de modération des grandes plateformes de réseaux sociaux ont été l’objet de diverses controverses ces dernières années. Celles-ci ont notamment porté sur les conditions de travail des modérateurs, les politiques jugées trop laxistes des plateformes en matière de lutte contre la désinformation, ou à l’inverse liberticides dans le cadre de la lutte contre les discours de haine. Ces controverses poussent les plateformes à faire évoluer leurs « standards de publication » et les dispositifs qui en permettent l’application, afin de répondre aux nouvelles exigences perçues de leurs usagers ainsi qu’aux tentatives de régulation des États. En particulier, les plateformes parient sur l’automatisation de la modération, à travers le recours à des outils d’intelligence artificielle, et sur de nouvelles logiques de gestion des contenus, reposant sur la mise en (in)visibilité des publications (shadow banning). Ces pratiques, qui demeurent peu encadrées, dessinent de nouveaux enjeux pour la régulation des plateformes, sur lesquels reviendra cette communication. 

Valentine Crosset (médialab Sciences Po, Chaire Good In Tech) : Offenses et discours de haine en ligne : Quand les utilisateurs délimitent les normes du dicible

“Supprime”, “Signalé”, les utilisateurs des réseaux sociaux opposent fréquemment des demandes de suppression aux énoncés qu’ils jugent indésirables sur les réseaux sociaux.  Dans des formes et pour des motifs extrêmement divers, ils contribuent à définir ainsi l’espace du dicible en signalant les propos haineux et offensants qu’ils souhaitent invisibiliser. Cette présentation propose une exploration de la pratique de signalement des propos offensants sur Twitter en cherchant à examiner la variété des formes prises par les expressions normatives des utilisateurs. Elle vise à la fois à prendre la mesure du développement de cette nouvelle pratique en définissant le périmètre des propos considérés comme offensants par les utilisateurs et à évaluer les conflits normatifs entre les utilisateurs, mais aussi avec la plateforme, à propos des frontières de l’offense. Il s’agira donc dans cette présentation de faire l’inventaire des jugements ordinaires en matière des normes discursives, pour observer l’évolution et la diversité des normes du dicible.