Les deepfakes rendent la guerre de l’information plus high-tech et inquiétante que jamais
Au cours de la troisième semaine de la guerre de la Russie en Ukraine, Volodymyr Zelensky est apparu dans une vidéo, vêtu d’une chemise vert foncé, parlant lentement et délibérément tout en se tenant derrière un podium présidentiel blanc arborant les armoiries de son pays. À l’exception de sa tête, le corps du président ukrainien bougeait à peine pendant qu’il parlait. Sa voix semblait déformée et presque graveleuse alors qu’il semblait dire aux Ukrainiens de se rendre à la Russie.
« Je vous demande de déposer vos armes et de retourner dans vos familles », a-t-il semblé dire en ukrainien dans le clip, qui a été rapidement identifié comme un deepfake. « Cette guerre ne vaut pas la peine de mourir. Je vous suggère de continuer à vivre, et je vais faire de même. »
Il y a cinq ans, personne n’avait même entendu parler des deepfakes, ces fichiers vidéo et audio d’apparence convaincante mais faux réalisés à l’aide de l’intelligence artificielle. À présent, ils sont utilisés pour influer sur le cours d’une guerre. En plus de la fausse vidéo Zelesnky, qui est devenue virale la semaine dernière, il y avait une autre vidéo deepfake largement diffusée montrant le président russe Vladimir Poutine déclarant soi-disant la paix dans la guerre en Ukraine.
Experts en désinformation et l’authentification de contenu s’inquiètent depuis des années du potentiel de propagation de mensonges et de chaos via les deepfakes, d’autant plus qu’ils deviennent de plus en plus réalistes. En général, les deepfakes se sont énormément améliorés en relativement peu de temps. Des vidéos virales d’un faux Tom Cruise faisant des lancers de pièces et reprenant des chansons du Dave Matthews Band l’année dernière, par exemple, ont montré à quel point les deepfakes peuvent sembler réels de manière convaincante.
Aucune des vidéos récentes de Zelensky ou de Poutine ne s’est approchée des valeurs de production élevées de TikTok Tom Cruise (elles étaient sensiblement en basse résolution, d’une part, ce qui est une tactique courante pour masquer les défauts.) Mais les experts les considèrent toujours comme dangereux. C’est parce qu’ils montrent la vitesse de l’éclair avec laquelle la désinformation high-tech peut désormais se propager dans le monde entier. À mesure qu’elles deviennent de plus en plus courantes, les vidéos deepfake rendent plus difficile de distinguer les faits de la fiction en ligne, et d’autant plus pendant une guerre qui se déroule en ligne et en proie à la désinformation. Même un mauvais deepfake risque de brouiller davantage les pistes.
« Une fois cette ligne érodée, la vérité elle-même n’existera pas », a déclaré Wael Abd-Almageed, professeur agrégé de recherche à l’Université de Californie du Sud et directeur fondateur du laboratoire d’intelligence visuelle et d’analyse multimédia de l’école. « Si vous voyez quelque chose et que vous ne pouvez plus y croire, alors tout devient faux. Ce n’est pas comme si tout devenait vrai. C’est juste que nous perdrons confiance en tout et n’importe quoi. »
DEEPFAKES PENDANT LA GUERRE
En 2019, on craignait que les deepfakes influencent l’élection présidentielle américaine de 2020, y compris un avertissement à l’époque de Dan Coats, alors directeur américain du renseignement national. Mais cela ne s’est pas produit.
Siwei Lyu, directeur du laboratoire de vision par ordinateur et d’apprentissage automatique à l’Université d’Albany, pense que c’était parce que la technologie « n’était pas encore là ». Ce n’était tout simplement pas facile de faire un bon deepfake, ce qui nécessite de lisser les signes évidents qu’une vidéo a été falsifiée (comme des tremblements visuels étranges autour du cadre du visage d’une personne) et de la faire sonner comme la personne dans le la vidéo disait ce qu’ils semblaient dire (soit via une version IA de leur voix réelle, soit par un doubleur convaincant).
Maintenant, il est plus facile de faire de meilleurs deepfakes, mais peut-être plus important encore, les circonstances de leur utilisation sont différentes. Le fait qu’ils soient maintenant utilisés pour tenter d’influencer les gens pendant une guerre est particulièrement pernicieux, ont déclaré des experts à CNN Business, simplement parce que la confusion qu’ils sèment peut être dangereuse.
Dans des circonstances normales, a déclaré Lyu, les deepfakes peuvent ne pas avoir beaucoup d’impact au-delà de susciter l’intérêt et d’obtenir une traction en ligne. « Mais dans des situations critiques, pendant une guerre ou une catastrophe nationale, quand les gens ne peuvent vraiment pas penser très rationnellement et qu’ils n’ont qu’une très courte durée d’attention, et qu’ils voient quelque chose comme ça, c’est là que ça devient un problème », il ajouta.
Étouffer la désinformation en général est devenu plus complexe pendant la guerre en Ukraine. L’invasion du pays par la Russie s’est accompagnée d’un déluge d’informations en temps réel sur les plateformes sociales comme Twitter, Facebook, Instagram et TikTok. Une grande partie est réelle, mais certaines sont fausses ou trompeuses. La nature visuelle de ce qui est partagé – ainsi que son caractère souvent émotionnel et viscéral – peut rendre difficile de distinguer rapidement ce qui est vrai de ce qui est faux.
Nina Schick, L’auteur de « Deepfakes : The Coming Infocalypse », considère les deepfakes comme ceux de Zelensky et de Poutine comme des signes du problème de désinformation beaucoup plus vaste en ligne, qu’elle pense que les entreprises de médias sociaux ne font pas assez pour résoudre. Elle a fait valoir que les réponses d’entreprises telles que Facebook, qui vite dit il avait supprimé la vidéo de Zelensky, sont souvent une « feuille de vigne ».
« Vous parlez d’une seule vidéo », a-t-elle dit. Le plus gros problème demeure.
« RIEN NE BAT VRAIMENT LES YEUX HUMAINS »
Alors que les deepfakes s’améliorent, les chercheurs et les entreprises essaient de suivre le rythme des outils pour les repérer.
Abd-Almageed et Lyu utilisent des algorithmes pour détecter les deepfakes. La solution de Lyu, baptisée DeepFake-o-meter, permet à quiconque de télécharger une vidéo pour vérifier son authenticité, bien qu’il note que cela peut prendre quelques heures pour obtenir des résultats. Et certaines entreprises, telles que le fournisseur de logiciels de cybersécurité Zemana, travaillent également sur leur propre logiciel.
Il y a cependant des problèmes avec la détection automatisée, comme le fait que cela devient plus délicat à mesure que les deepfakes s’améliorent. En 2018, par exemple, Lyu a développé un moyen de repérer les vidéos deepfake en suivant les incohérences dans la façon dont la personne dans la vidéo clignait des yeux ; moins d’un mois plus tard, quelqu’un a généré un deepfake avec un clignotement réaliste.
Lyu pense que les gens seront finalement meilleurs pour arrêter ces vidéos que les logiciels. Il aimerait éventuellement voir (et est intéressé à aider) une sorte de programme de chasseur de primes deepfake émerger, où les gens sont payés pour les extirper en ligne. (Aux États-Unis, il existe également une législation pour résoudre le problème, comme une loi californienne adoptée en 2019 interdisant la distribution de vidéos ou d’audio trompeurs de candidats politiques dans les 60 jours suivant une élection.)
« Nous allons voir cela beaucoup plus, et s’appuyer sur des plateformes comme Google, Facebook, Twitter n’est probablement pas suffisant », a-t-il déclaré. « Rien ne vaut réellement les yeux humains. »