Accueil / A la une / Un (premier) deepfake de Joe Biden

Un (premier) deepfake de Joe Biden

La voix contrefaite du président américain en exercice a été utilisée pour une campagne d’appels téléphoniques automatiques.

Le mois dernier, le président Joe Biden a appelé plusieurs milliers d’électeurs américains de l’Etat du New Hampshire dans le cadre des élections primaires pour l’investiture à la prochaine élection présidentielle qui doit se tenir en novembre 2024.

Enfin, c’est ce qu’on pu croire certains destinataires, sauf qu’il ne n’agissait pas de la voix de Joe Biden, mais de sa voix contrefaite à l’aide d’un programme d’intelligence artificielle (IA).

Une usurpation d’identité en bonne et dûe forme, et pas vraiment n’importe laquelle.

Original, le message prétendûment enregistré par Joe Biden déconseillait aux électeurs d’aller voter aux primaires démocrates américaines du mardi 23 janvier.

“Votre vote fera la différence en novembre, pas ce mardi (…) Voter ce mardi ne fera qu’aider les républicains à faire réélire Donald Trump.”

On connaît le nom du coupable

Cette fois-ci, car il y en aura très certainement d’autres, le commanditaire s’appelle Steve Kramer, un consultant embauché par l’équipe de Dean Phillips, autre candidat à l’investiture démocrate.

Démasqué, ce “génie” de la com’ a juré ses grands dieux qu’il s’agissait là d’une initiative purement personnelle et que le candidat pour lequel il travaillait n’était pas au courant de sa démarche.

En 2020, l’homme avait déjà collaboré avec pour le chanteur Kanye West, quand celui-ci avait tenté  de se lancer dans la course à la Maison Blanche. Quel CV !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.