Deepfakes : des manipulations (si) dangereuses pour la démocratie ?


Deepfakes : des manipulations (si) dangereuses pour la démocratie ?

Publié le vendredi 23 décembre 2022 à 15:38

000_1O00GY.jpg

A view of the 'Deepfake' stand inside the Congress center ahead of the annual meeting of the World Economic Forum (WEF) on January 20, 2020 in Davos.

(Fabrice COFFRINI / AFP)

Auteur(s)

Nathan Gallo

Les deepfakes, principale menace pour la démocratie ? Avec l'émergence en 2017 de cette nouvelle technique de manipulation de vidéos via l'intelligence artificielle, de nombreuses voix ont alerté ces dernières années face à une future faite de vidéos truquées de personnalités politiques. Cinq ans plus tard, état des lieux sur les usages d'une technologie qui n'a pas (encore ?) affecté le débat public.

"Nous entrons dans une ère où nos ennemis peuvent faire croire que n'importe qui dit n'importe quoi à n'importe quel moment". En 2018, dans une vidéo face caméra, Barack Obama dénonce la future arrivée des manipulations vidéo, et alerte : pourraient être diffusés dans le futur des détournements dans lesquels on pourrait lui faire dire tout ce que l'on veut - comme par exemple que "Donald Trump est une vraie merde".

En réalité, cette vidéo est l'un des premiers deepfakes politique d'ampleur. L'ancien président des Etats-Unis est lui-même incarné par le réalisateur américain Jordan Peele.

L'artiste avait reproduit le visage, les expressions et la voix d'Obama via des techniques de reconstitution faciale, de synchronisation labiale et de transformation de la voix grâce à l'intelligence artificielle (IA).

Visionné plusieurs dizaines de millions de fois dans le monde, ce deepfake (terme qui mélange "deep learning", technologie associée à l'IA, et fake - "faux" en français) n'avait pour sa part pas vocation à tromper.

Aux yeux de Jordan Peele, cette vidéo sonne surtout comme une alerte face à une "époque dangereuse" et une future "dystopie" informationnelle, dans laquelle "nous devons être plus vigilants face à ce que nous croyons d'Internet".

"Le deepfake a vite été considéré comme l'arme nucléaire de la désinformation"

Jordan Peele n'est pas le seul à avoir alerté sur ces nouvelles technologies, dans un contexte de peur grandissante face aux campagnes de désinformation.

Pour beaucoup, le deepfake symbolise une nouvelle étape dans l'"ère de la politique post-vérité", notamment formulée par la rédactrice en chef du Guardian Katharine Viner après le vote des Britanniques pour le Brexit en 2016. Une ère dans laquelle "chacun pourra avoir du mal à faire la différence entre les faits vrais et les 'faits' qui ne le sont pas".

D'où une certaine panique face à ces nouvelles techniques. "Le deepfake a vite été considéré comme l'arme nucléaire de la désinformation, qui allait provoquer catastrophe et changement démocratique majeur", pointe Gérald Holubowicz, spécialiste des médias synthétiques et auteur d'une newsletter sur le sujet, Synth.

"Pas de grosses conséquences" directes observées sur les internautes

Ces inquiétudes sont-elles toutefois fondées ? "Nous avons beaucoup parlé des deepfakes, mais pour le moment, cela n'a pas encore eu de grosses conséquences", décrit Tom Dobber, professeur assistant à l'Université de communication politique à Amsterdam.

Depuis 2017 et l'émergence des deepfakes, cette forme de désinformation n'a en effet pas - encore - eu d'effet notable sur la scène politique à l'échelle internationale.

De nombreux deepfakes - souvent de moyenne qualité - ont pourtant visé des personnalités politiques et économiques, comme Donald Trump, Vladimir Poutine ou encore la première ministre néo-zélandaise Jacinda Ardern, "vue" en train de fumer du crack, sans effet majeur.

Dernier exemple emblématique : en mars dernier, en pleine invasion de l'Ukraine par la Russie, la chaîne nationale Ukraine 24, piratée pendant quelques minutes, a diffusé une vidéo manipulée du président ukrainien Volodymyr Zelensky demandant aux Ukrainiens de "rend[re] les armes". Le truquage, de mauvaise qualité, n'avait pas démobilisé.

Parmi les détournements les plus connus, beaucoup n'étaient par ailleurs pas forcément malveillants : un deepfake du PDG de Meta (ex-Facebook) Mark Zuckerberg avait été réalisé par deux artistes en 2019 pour mettre en avant "le rôle et le pouvoir de l’industrie de l’influence numérique dans son ensemble".

Celui sur Donald Trump avait lui été réalisé par Solidarité Sida, pour une campagne de prévention en 2019. L'ancien président des Etats-Unis déclarait alors avoir "éradiqué le sida", une "fake news" dévoilée dès la fin de la vidéo.

Les deepfakes "aussi crédibles" que d'autres types de désinformation

Comment expliquer le faible impact de telles manipulations ? Peu de recherches sur la réception des deepfakes existent à ce jour, mais de premières études ont pour le moment observé un effet relatif sur les croyances des internautes.

"Oui, ces vidéos peuvent avoir un effet sur les internautes, mais pas aussi large que ce qui a pu être dénoncé", décrit Tom Dobber.

Encore très difficiles à produire il y a encore quelques années, comme illustré par cette expérience réalisée par une journaliste du Monde en 2019, ces méthodes de manipulation ont pour le moment montré certaines limites technologiques.

Mais au-delà de la qualité technique, Tom Dobber souligne aussi la difficulté à manipuler efficacement les paroles d'une personnalité politique. "Les gens deviennent suspicieux lorsqu'une personne politique dit quelque chose qui dévie trop fortement de son discours habituel", précise-t-il. D'où un impact plus limité si les détournements sont trop caricaturaux.

D'autres études ont par ailleurs pointé que, face à la palette d'outils de désinformation, les deepfakes ne semblent pour le moment pas plus efficaces que d'autres formes plus classiques d'infox.

Dans un article de 2021, des chercheurs de l'Université de Penn State ont notamment observé que les deepfakes étaient "aussi crédibles" que d'autres formes de désinformation, que ce soit des articles en ligne ou des enregistrements audio.

Un point partagé par Tom Dobber et d'autres chercheurs de l'Université d'Amsterdam. Dans un article de 2022, ces derniers ont observé que les deepfakes "ne sont pas plus persuasifs que la désinformation écrite". "Pourquoi vouloir dès lors faire un deepfake quand un article est bien plus facile à faire et a un impact similaire ?", s'interroge-t-il.

C'est ce que Claire Wardle, co-fondatrice du projet First Draft News, nomme "shallow fakes" (ou infox "superficielles"). Des manipulations déjà possibles depuis plusieurs années grâce à des logiciels d'édition plus classiques comme Photoshop et bien plus rapides à réaliser.

"Vous pouvez avoir un contenu trompeur vraiment simpliste qui peut faire d'énormes dégâts", expliquait-elle dans une vidéo de 2019 au New York Times, dans laquelle elle remettait en cause la "panique exagérée" autour des deepfakes.

"Ce qui marche encore le mieux, c’est la réalité”, souligne aussi Gérald Holubowicz. "Quand Trump fait ses déclarations le 6 janvier réussit-il à envoyer une horde de gens devant le Capitole ? L’arrivée des deepfakes ne présage pas de la fin des méthodes classiques. Mais cela ne fait que les renforcer, et trouble la lecture du paysage informationnel."

Une méfiance plus grande vis-à-vis des vidéos en ligne ?

Car la popularisation de ce type de techniques a surtout mis sur le devant de la scène tout le potentiel manipulatoire de l'IA, et a par-là même affecté notre confiance dans l'information.

"Du fait des nombreuses mises en garde sur les deepfakes, les gens ont tendance à aussi douter des vraies informations", précise Tom Dobber.

Une confusion déjà observée dans certaines études, entre de vraies prises de parole et des deepfakes. Lors d'expériences menées avec des participants avertis du risque de détournement, les chercheurs John Ternovski, Joshua Kalla, et P.M. Aronow ont observé qu'"informer les participants à propos des deepfakes n'a pas amélioré leur capacité à détecter des vidéos manipulées, mais les a constamment induit à penser que les vidéos qu'ils regardaient étaient fausses, même quand elles étaient réelles", indique leur article de recherche publié en 2022.

Cet effet a aussi été observé par  les chercheurs Cristian Vaccari et Andrew Chadwick, qui ont constaté que le deepfake "réduit la confiance dans l'actualité sur les réseaux sociaux" et "contribue à une incertitude généralisée".

"La peur du deepfake est extrêmement forte", indique Gérald Holubowicz. Ce dernier rappelle que certaines vraies vidéos ont déjà pu être dénoncées comme des deepfakes, par exemple "pour diminuer la portée de documents considérés comme des manipulations, comme lors de la mort de Georges Floyd. Le deepfake est devenu le synonyme de la vidéo truquée. C'est un problème car cela instille le doute".

000_8YB2YC (1).jpg

Crédit : ALEX EDELMAN / AFP

A person waves a Trump 2020 flag as supporters of US President Donald Trump protest outside the US Capitol on January 6, 2021, in Washington, DC. Demonstrators breeched security and entered the Capitol as Congress debated the a 2020 presidential election Electoral Vote Certification.

Le deepfake, à ce jour très majoritairement lié aux contenus pornographiques

Mais au-delà du risque démocratique, l'émergence de ces technologies a surtout eu d'autres répercussions importantes ces dernières, avec la prolifération de contenus pornographiques détournés.

De nombreuses stars, d'Ariana Grande à Emma Watson, ont notamment vu leur visage utilisé dans des films pornographiques. Beaucoup de cas de revenge porn - ces divulgations de contenus pornographiques pour se venger d'une personne - ont aussi été recensés.

"Cela fait un certain temps que le cadrage médiatique [sur les deepfakes] est focalisé sur autre chose", rappelle Gerald Holubowicz. "Alors qu'en réalité les chiffres montrent un  volume considérable de deep fakes dans le porno par rapport aux autres contenus".

En 2019, l'entreprise Deeptrace, entreprise spécialisée dans le deeplearning, avait ainsi calculé que 96% des deepfakes étaient liés à de la "pornographie non consensuelle".

Ce fact-check a été également publié par Grand angle DE FACTO.

Ce fact-check a été publié par DE FACTO.