YouTube lance un nouvel outil anti-deepfake pour Hollywood.
YouTube a lancé un outil de protection de l’image, permettant d’identifier les contenus modifiés ou générés par des technologies d’IA, et l’accès est désormais étendu aux acteurs et musiciens via les agences de talents. Charles Rivkin, patron de la Motion Picture Association, a appelé ByteDance à « cesser immédiatement ses activités de contrefaçons », l’accusant de bafouer le droit d’auteur.

Je suis le seul ayant le droit d’être moi. YouTube propose un outil gratuit de détection des deepfakes aux célébrités et artistes d’Hollywood, renforçant ainsi la lutte contre les usurpations d’identité générées par l’intelligence artificielle.
Un outil de détection et de suppression
Le mois dernier, la plateforme vidéo de Google a lancé son outil de protection de l’image, conçu pour aider à identifier les contenus modifiant ou générant des visages par le biais de technologies d’IA. Ce projet visait à l’origine des responsables gouvernementaux, des journalistes et d’autres acteurs politiques.
La plateforme élargit désormais cet accès aux acteurs et musiciens à travers leurs agences de talents, sociétés de management et les stars qu’elles représentent. L’outil permet de « rechercher des contenus générés par l’IA reprenant l’apparence d’un participant, comme un deepfake de son visage, lui donnant le pouvoir de les détecter et d’en demander la suppression ». Les célébrités et artistes peuvent y accéder même s’ils ne possèdent pas de chaîne sur la plateforme.
« Le fait que YouTube ouvre ses capacités de détection de deepfakes aux personnalités publiques constitue un tournant dans la manière dont les plateformes abordent la protection de l’identité à l’ère de l’IA générative, estime Alon Yamin, directeur général et cofondateur de Copyleaks, une plateforme de détection de contenus générés par l’IA. La technologie permettant de reproduire le visage, la voix et les mimiques d’une personne a avancé plus vite que les garde-fous qui l’entourent, créant un fossé que des acteurs malveillants exploitent déjà », souligne-t-il.
Des enjeux majeurs
L’initiative survient alors que se multiplient les vidéos hyperréalistes de célébrités disparues, élaborées avec des applications accessibles au grand public comme Sora, un outil d’OpenAI. Cette application a engendré une série de vidéos mettant en scène Michael Jackson ou Elvis Presley. Le mois dernier, OpenAI a fermé son application Sora.
En février dernier, le réalisateur irlandais Ruairí Robinson avait créé un clip d’un réalisme saisissant montrant Brad Pitt se battant avec Tom Cruise sur un toit, à partir d’un prompt de deux phrases. Largement partagé et suscitant de vives inquiétudes à Hollywood, ce clip a été réalisé avec Seedance 2.0, un outil appartenant à la société chinoise ByteDance. L’Irlandais a également produit d’autres vidéos, dont l’une met en scène Brad Pitt contre un ninja zombie armé d’un sabre, et une autre le montre combattant un robot, accompagné de l’incontournable Tom Cruise.
Charles Rivkin, président de la Motion Picture Association, l’association des grandes sociétés de production américaines, a demandé à ByteDance de « cesser immédiatement ses activités de contrefaçon », l’accusant de violer le droit d’auteur. YouTube, de son côté, précise travailler avec les principales agences de talents pour améliorer la détection des images problématiques et renforcer la protection des artistes.
« Leur patrimoine, c’est leur visage, leur corps »
La plateforme « fait ce qu’il faut en fournissant ces outils gratuitement aux talents, afin qu’ils puissent protéger leur patrimoine », se réjouit Jason Newman, de la société de management et de production Untitled Entertainment. « Leur patrimoine, c’est leur visage, leur corps, qui ils sont, ce qu’ils font, leur façon de s’exprimer », ajoute-t-il dans un entretien avec le magazine Hollywood Reporter.
Le développement de cet outil fait suite à des plaintes de célébrités américaines dénonçant les lourdeurs de la procédure sur YouTube pour signaler et faire retirer un deepfake. « Les enjeux sont particulièrement élevés car les deepfakes peuvent être utilisés pour diffuser de la désinformation, manipuler les marchés, nuire à des réputations ou laisser croire à un soutien trompeur. Une détection robuste n’est plus optionnelle », souligne Alon Yamin.
« Les systèmes de détection doivent être extrêmement précis, continuellement mis à jour et associés à des règles claires et à des procédures de retrait rapides pour être efficaces », ajoute-t-il. « Cela n’éliminera pas totalement les deepfakes, mais peut réduire considérablement leur portée et leur impact, en rendant plus difficile la circulation de contenus manipulés sans être détectés ou contestés », fait valoir le responsable de Copyleaks.
