Logiciel

14 août 2018 12:28; Act: 14.08.2018 12:36 Print

Premiers outils contre les vidéos manipulées à l'IA

Un programme du Département de la défense des États-Unis s'attaque aux «deepfakes», ces vidéos trompeuses qui font dire aux personnalités des choses qu'elles n'ont pas dites.

storybild

L'acteur Jordan Peel (à dr.) a doublé Barack Obama dans un deepfake.

Sur ce sujet

L'Agence de recherche avancée des projets de défense (Darpa) est passée à l'offensive. Ses chercheurs ont développé les premières armes contre les «deepfakes». Ces vidéos trompeuses, dopées à l'intelligence artificielle, détournent le visage d'une personnalité, qu'elles placent sur le corps d'un autre. La technologie est utilisée pour créer des vidéos pornos ou pour manipuler les propos de personnalités de manière réaliste. L'ex-président américain Obama en a fait les frais dans une vidéo. Publiée en avril dernier par le site BuzzFeed, elle visait à dénoncer les risques de désinformation.

«Nous avons découvert des indices subtils dans les images et vidéos manipulées, qui nous permettent de détecter la présence d'altérations», a déclaré Matthew Turek, à la tête du programme Media Forensics de la Darpa.

Une des techniques utilisées pour identifier les deepfakes a été développée par l'équipe du professeur Siwei Lyu. Elle consiste à analyser le clignement des yeux. L'IA étant entraînée sur des images fixes, elle produit des visages qui ne clignent pas des yeux ou le font de manière peu naturelle. Mais ce défaut peut être corrigé si le logiciel se nourrit de vidéos. L'équipe de Lyu a donc mis au point une technique alternative. Pour le moment, celle-ci est gardée secrète afin de conserver une petite longueur d'avance sur les faussaires, explique le chercheur à la MIT Technology Review.

Dans le futur, les experts de la Darpa espèrent collaborer avec les firmes de la Silicon Valley pour qu'elles intègrent leur outil à leurs plateformes.

(L'essentiel/man)