On connaissait déjà le face morphing, réalisé grâce à un logiciel capable d’intégrer à une vidéo originale les mouvements des lèvres d’un acteur. Le résultat est bluffant : à partir de la vidéo d’une personne, on peut modifier les expressions du visage.
Ce qui n’augure rien de bon, c’est que d’autres logiciels sont en train d’être développés, avec déjà des résultats incroyables de fidélité à la voix originale. Il s’agit de logiciels de voice-morphing, capables d’imiter presque parfaitement la voix de quelqu’un.
Je vous laisse imaginer les dérives possibles de la combinaison du face-morphing avec le voice-morphing en matière de fake news

Voir cet article (« Le futur des fake news : ne croyez pas tout ce que vous lisez, voyez ou entendez » ) d’Olivia Solon pour The Guardian, dont je vous traduis un extrait :


A partir de 3 à 5 minutes d’un enregistrement audio de la voix d’une victime – enregistrée en live ou extraite de vidéos Youtube ou d’émissions de radio- un attaquant peut créer une voix synthétisée qui peut tromper aussi bien les humains que les systèmes de sécurité de reconnaissance biométrique de la voix utilisés par certaines banques ou smartphones. L’attaquant peut alors parler dans un micro et le programme le convertira de façon à ce que les mots donnent l’impression d’avoir été prononcés par la victime. Bien que leurs intentions puissent être bonnes, la technologie du voice-morphing pourrait être combinée à la technologie du face-morphing pour créer de convaincantes fausses déclarations par des personnalités publiques. (…)
Ces technologies du morphing ne sont pas encore parfaites. Les expressions faciales dans les vidéos peuvent sembler un peu distordues ou artificielles et les voix peuvent être un peu robotiques. Mais avec le temps, elles seront capables de recréer fidèlement la voix et l’apparence d’une personne – au point où ça pourrait devenir très difficile pour les humains de détecter la fraude.

Lien vers l’article original d’Olivia Solon pour le Guardian (en anglais)