Une nouvelle fois, le porno démontre une ingéniosité technique qui peut être récupérée par d’autres, avec des intentions différentes. Si vous avez un nombre suffisant d’images, vous pouvez les intégrer à une vidéo existante. Il faut un très gros processeur graphique, mais si vous n’en avez pas vous pouvez en louer en ligne. Les outils sont gratuits, facilement accessibles et viennent accompagnés d’instructions techniques.

En résumé : tout le monde peut s’y mettre. Si les résultats peuvent être comiques (par exemple en insérant le visage de Nicolas Cage dans des films dans lesquels il n’a pas joué), je vous laisse imaginer les possibilités pour les propagandistes et militants extrémistes.

A ce sujet, voir aussi cet article sur le voice morphing et le face morphing.

 

« À l’heure actuelle, la plupart des publications de /r/deepfakes sont pornographiques. Cependant, certains utilisateurs créent aussi des vidéos qui révèlent tout le potentiel d’une technologie qui permet à quiconque possède un nombre suffisant d’images brutes de placer n’importe quel visage dans une vidéo de manière convaincante.  (…) Une application vraiment facile d’accès pour faire des vidéos fake maison, porno ou autre, qui se répand et s’améliore à une vitesse pareille pourrait avoir des conséquences dramatiques sur la manière dont nous consommons les médias. Le choc entre un réseau de neurones open-source puissant et notre capacité toujours plus faible à distinguer les fausses informations des vraies, mais aussi la manière dont nous répandons l’information sur les médias sociaux, nous met dans une situation de catastrophe imminente ».

Lien vers l’article original de Samantha Cole pour Motherboard