Deepfake : pourquoi ces fausses vidéos sont-elles un défi majeur pour le fact-checking ?


Deepfake.jpg

 

Rédactrice : Ingrid de Chevigny

D’après une étude récente de l’Ifop, seuls 33 % des Français s’estiment capables de faire la différence entre un contenu photo ou vidéo généré par une intelligence artificielle (IA) et un contenu réel. 

Les deepfakes, ces vidéos hyperréalistes manipulées grâce à l'IA, imposent en effet un défi croissant à notre société : non seulement ils brouillent la frontière entre la réalité et la fiction, mais ils amplifient les risques de manipulation de l’opinion publique, que ce soit en politique, en économie ou même dans la sphère personnelle. 

Alors comment les professionnels de l’information peuvent-ils contrer ce phénomène inquiétant ? Comment fonctionne le fact-checking de ces contenus et existe-t-il des techniques efficaces pour repérer les deepfakes et lutter contre cette nouvelle forme de désinformation numérique ? C’est ce que nous allons voir dans cet article.

Qu'est-ce qu'un deepfake ?

Origine des deepfakes

Le terme « deepfake » est une contraction de « deep learning » et de « fake », et désigne des contenus visuels ou audio falsifiés grâce à des techniques d’intelligence artificielle avancées. 

D’après l’INA, ce terme est apparu vers 2017 sur la plateforme Reddit : il a été inventé par un utilisateur qui fabriquait des séquences pornographiques détournées en greffant numériquement le visage de célébrités sur le corps d’actrices de films pour adultes.

Les deepfakes ont d’abord émergé dans des cercles restreints de passionnés de code et de sciences informatiques, puis ils se sont rapidement démocratisés avec l’essor de logiciels et d’algorithmes accessibles au grand public. Leur potentiel de nuisance s’est alors rapidement manifesté : propagation de fausses informations, arnaques en tout genre, ou encore harcèlement en ligne.

Comment les deepfakes fonctionnent-ils ?

Comme leur nom l'indique, les deepfakes s’appuient sur le « deep learning », une branche de l’intelligence artificielle qui permet de pousser les capacités d’apprentissage automatique des outils d’IA en entraînant des réseaux de neurones à partir de vastes ensembles de données visuelles ou sonores. 

Leur fonctionnement est relativement technique, mais en voici un aperçu :

  • Collecte de données : le programme analyse des images, des vidéos ou des sons en grande quantité, qu’il s’agisse de visages, de voix ou même d’objets. 
  • Création d’une version truquée : grâce à ces données, l’IA fabrique un contenu qui imite le sujet d’origine.
  • Assemblage du faux contenu : ce contenu généré est intégré dans une vidéo, une image ou un audio pour donner l’impression qu’il est authentique.

Ces techniques d’hypertrucage permettent de manipuler l’apparence d’une personne dans des vidéos, de modifier des discours audio, ou encore de créer des scènes totalement fictives mais d’apparence authentique.

Comment les deepfakes sont-ils utilisés ?

Les usages malveillants des deepfakes

Lorsque les technologies qui génèrent des deepfakes tombent entre de mauvaises mains, ils peuvent devenir des outils puissants pour manipuler, nuire ou tromper. 

Parmi les utilisations malveillantes des deepfakes, on peut notamment citer :

  • La désinformation et la propagande : les deepfakes sont utilisés pour diffuser à grande échelle de fausses informations, comme des déclarations truquées attribuées à des personnalités publiques. En combinant images et contenus audio, ces manipulations parviennent à un degré de crédibilité suffisant pour pouvoir influencer des élections ou alimenter des crises politiques.
  • Le cyberharcèlement et l’atteinte à la vie privée : ils permettent de créer des contenus embarrassants ou offensants, comme des vidéos à caractère pornographique mettant en scène des personnes sans leur consentement.
  • Les fraudes et les escroqueries : des deepfakes peuvent être utilisés pour orchestrer des arnaques financières sophistiquées, comme des transferts de fonds frauduleux.

 

Les usages légitimes des deepfakes

Bien que souvent associés à leurs usages néfastes, les deepfakes ont toutefois des applications positives lorsqu’ils sont utilisés de manière responsable. 

Par exemple : 

  • Dans le cinéma et les séries télévisées, cette technologie permet de recréer des acteurs décédés en images de synthèse hyperréalistes, de rajeunir un personnage, ou de synchroniser des dialogues dans plusieurs langues pour le doublage. 
  • Dans le domaine de l’éducation ou de la recherche, les deepfakes peuvent illustrer des concepts complexes à l’aide de simulations visuelles réalistes. 
  • Dans le marketing, certaines entreprises s’appuient également sur ces techniques d’hypertrucage pour personnaliser les expériences clients, et créer des contenus plus impactants.

 

Quels sont les risques des deepfakes pour la société ?

Impact sur la confiance dans les médias et les informations

Les deepfakes érodent progressivement la confiance du public dans les médias et les sources d’information officielles. Si une vidéo ou un discours peuvent être falsifiés avec un réalisme saisissant, alors tout devient suspect. Les contenus manipulés peuvent ainsi altérer le rapport à l’information d’une population et modifier en profondeur sa culture médiatique. 

Cette incertitude générale peut menacer les fondements du débat public. La multiplication et la diffusion de deepfakes peut notamment avoir une influence sur le comportement des électeurs. Une information fiable est essentielle pour éclairer les décisions individuelles et collectives. 

En amplifiant les dangers des fake news et la désinformation, les deepfakes renforcent par ailleurs les théories du complot et la polarisation dans la société. C’est notamment ce que montre Olivier Lascar dans son livre Deepfake : l'IA au service du faux. 

Les dangers pour la vie privée et la réputation

Les deepfakes permettent de manipuler des images ou des vidéos de manière réaliste, souvent sans le consentement des personnes concernées. 

Ils peuvent ainsi permettre la création de contenus nuisibles, comme des vidéos à caractère pornographique impliquant des individus ciblés, en particulier des femmes ou des figures publiques. 

Ces manipulations peuvent entraîner des dommages irréversibles : diffamation, cyberharcèlement, ou mise en péril de la carrière et des relations personnelles. Même lorsqu’ils sont démentis, ces contenus continuent de circuler en ligne, laissant des traces durables qui alimentent le climat de méfiance et de vulnérabilité numérique.

Les risques de fraude et d'escroquerie

Les deepfakes sont parfois utilisés comme des outils de fraude ou d'extorsion, notamment dans le domaine financier. Par exemple, des deepfakes audio peuvent imiter la voix d’un dirigeant pour ordonner un transfert de fonds, et piéger ainsi des entreprises ou des particuliers. Des deepfakes vidéo peuvent quant eux être utilisés pour simuler une interaction par visio avec une personne haut placée dans la hiérarchie d’une société, là encore dans le but de pousser l’interlocuteur piégé à effectuer un virement bancaire. 

Ce type d’arnaque, appelé « fraude au président », devient encore plus crédible avec les progrès de l’IA, et menace les systèmes de cybersécurité des entreprises. 

Dans le monde du droit, les deepfakes peuvent aussi être exploités pour créer de faux témoignages ou des documents vidéo falsifiés, ce qui peut compliquer les enquêtes judiciaires et semer la confusion dans les procédures légales.

Comment détecter un deepfake ?

Méthodes visuelles pour repérer un deepfake

Repérer un deepfake nécessite avant tout une analyse attentive de l’image. Divers indices visuels, tels que des anomalies ou des incohérences, peuvent révéler la manipulation et fournir des pistes précieuses pour en faciliter la détection :

  • Mouvements faciaux anormaux : les expressions du visage peuvent manquer de fluidité ou sembler mécaniques, surtout lors des transitions entre les émotions.
  • Clignements des yeux : un clignement trop rare, trop rapide ou absent peut être un autre indice.
  • Incohérences de lumière : la lumière projetée sur le visage peut ne pas correspondre à celle du décor ou des ombres environnantes.
  • Détails flous ou imprécis : les cheveux, les dents ou les contours du visage peuvent apparaître étrangement flous ou mal définis.

En combinant ces observations, un œil averti peut souvent détecter les contenus falsifiés, bien que les algorithmes les plus sophistiqués rendent les deepfakes de plus en plus convaincants.

Outils de détection basés sur l'IA

Face à l’évolution des deepfakes, des outils spécialisés, eux-mêmes basés sur l’IA, ont été développés pour aider à les identifier. Ces technologies sont conçues pour analyser des anomalies invisibles à l’œil humain, comme des incohérences dans les pixels ou des distorsions impossibles à percevoir à vitesse normale.

Parmi les outils les plus notables, on peut noter Deepware, Sensity AI ou InVID-WeVerify, qui permettent notamment d’analyser les vidéos suspectes en découpant les séquences, ou en identifiant d’éventuelles métadonnées incohérentes.

Les géants du numérique comme Google et Facebook ont également lancé des initiatives pour développer des détecteurs capables de repérer les contenus truqués avant qu’ils deviennent viraux. Le réseau social avait notamment pris les devant dès 2019 avec la création de son Deepfake Detection Challenge, lancé en collaboration avec le MIT et Microsoft. 

Ces technologies sont essentielles pour les professionnels, car elles permettent une vérification rapide et précise, même sur des contenus très sophistiqués. Toutefois, elles doivent toujours être utilisées conjointement avec des méthodes humaines, car aucun système n’est encore infaillible face à l’ingéniosité des créateurs de deepfakes.

Exemples célèbres de deepfakes et leurs impacts

Les deepfakes célèbres dans le monde politique

En France

Voici quelques exemples de deepfakes marquants, qui ont touché des figures politiques françaises :

À l’international

Les exemples suivants font partie des plus médiatisés :

 

Deepfakes et célébrités : entre divertissement et atteinte à la vie privée

Les deepfakes ont aussi envahi le monde du show-business. Par exemple, des vidéos humoristiques ont mis en scène des célébrités dans des situations fictives, comme Tom Cruise exécutant des tours de magie

Mais bien souvent, cette technologie est utilisée pour produire des contenus pornographiques impliquant des personnalités publiques, qui circulent ensuite de manière virale sur Internet. 

Selon une étude de Deeptrace, 96  % des vidéos deepfake en ligne sont à caractère pornographique, ciblant principalement des femmes célèbres telles qu'Emma Watson ou Scarlett Johansson.

Comment se protéger des deepfakes ?

Sensibilisation et éducation

La protection contre les deepfakes commence par une meilleure sensibilisation et éducation du public. Aujourd’hui, de nombreuses organisations développent des programmes visant à informer sur les risques des contenus manipulés. 

Par exemple, la société allemande Deutsche Telekom a diffusé une campagne de prévention sur les risques liés au partage de photos d’enfants en ligne. Elle montre notamment comment ces images peuvent être détournées et utilisées pour créer des deepfakes, soulignant l’importance de protéger la vie privée de sa famille sur Internet.

Les entreprises, notamment dans le secteur des médias, sont par ailleurs de plus en plus nombreuses à investir dans la formation de leurs employés pour renforcer leurs capacités de détection à l’aide d’outils spécialisés.

Les normes et législations contre les deepfakes

Sur le plan juridique, plusieurs pays ont commencé à formuler des projets de loi et à adopter des réglementations pour encadrer l’usage des deepfakes. En France, l’article 226-8 du Code pénal prévoit des sanctions à la diffusion de tout « contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention ».

Mais face à la prolifération des cas de deepfakes malveillants et à l’augmentation du nombre de victimes, les législateurs envisagent de renforcer ces dispositions pour mieux encadrer leur utilisation. Cela inclut des mesures visant à obliger les plateformes numériques à détecter et signaler les deepfakes avant leur diffusion massive, ainsi qu’à améliorer la coopération internationale pour poursuivre les auteurs de contenus nuisibles. 

En parallèle, des débats émergent sur l’équilibre à trouver entre la régulation de cette technologie et la préservation de ses usages légitimes. Il s’agit de garantir que les nouvelles interdictions ne portent pas atteinte à la liberté d’expression ni à la créativité, tout en protégeant les individus des abus que cette technologie d’hypertrucage peut engendrer.

Pour conclure, les deepfakes représentent un défi de taille pour le fact-checking, car ils repoussent sans cesse les limites de la manipulation numérique. Si cette technologie peut sembler innovante, son application soulève autant de possibilités créatives que de préoccupations éthiques et sociétales.

Finalement, face à cette nouvelle menace, seule la combinaison d'innovations technologiques, d’une régulation adaptée par la justice et d'une sensibilisation accrue du public permettra de préserver la confiance dans l'information et les médias.

FAQ

Les deepfakes sont-ils légaux ?

Les deepfakes ne sont pas illégaux en soi, mais leur usage peut l’être s’ils portent atteinte à la vie privée, participent à diffuser des fake news, ou servent à des fins frauduleuses ou criminelles.

Les deepfakes peuvent-ils être protégés par le droit d'auteur ?

Un deepfake peut être protégé par le droit d’auteur s’il constitue une création originale. Mais s’il utilise sans autorisation des éléments protégés, comme l’image ou la voix d’une personne, il peut enfreindre les droits de tiers au regard de la loi.

Comment signaler un deepfake ?

Un deepfake peut être signalé sur les plateformes en ligne comme les réseaux sociaux via leurs outils de signalement pour contenus inappropriés, ou il peut être porté à l’attention des autorités compétentes si son utilisation enfreint la loi.