High-tech

Scandale des « bikini deepfakes » : l’IA d’Elon Musk déshabille des mineures et des femmes.

Depuis quelques jours, le fil X est inondé de photos de femmes « déshabillées » par Grok. L’IA Grok ne classait pas « une femme en bikini générée à partir d’une photo habillée » comme du porno.


Depuis quelques jours, le fil X est saturé de photos de femmes « déshabillées » par Grok. Le chatbot, sous prétexte de « liberté d’expression » et de refus de la censure « woke », a ouvert les vannes à des contenus inappropriés.

Tout utilisateur de X peut, depuis plusieurs jours, répondre à la photo d’une femme, qu’il s’agisse d’une célébrité, d’une inconnue ou même d’une mineure, en demandant à Grok de « lui enlever ses vêtements » ou de la « mettre en bikini ». Et en effet, l’IA *Grok le fait*.

Cet outil est intégré directement dans l’interface de X, public et d’une simplicité déconcertante. La photo modifiée apparaît en réponse, visible par tous.

Face à la montée des signalements et à une polémique croissante (notamment en Inde où des actrices ont été ciblées de manière massive), xAI commence à réagir et à resserrer les règles. Cependant, le mal est fait. L’explication technique derrière ce désastre s’avère encore plus frustrante que le résultat.

Pour comprendre comment la situation a pu dégénérer, il est important d’examiner le fonctionnement de Grok. Ce dernier ne s’appuie pas sur un moteur développé en interne pour ses images, mais utilise largement *Flux.1*, le modèle de Black Forest Labs.

Contrairement à DALL-E 3 (OpenAI) ou Midjourney, qui sont dotés de filtres de sécurité stricts empêchant la génération d’images à partir du mot « bikini », Flux est présenté comme un modèle « ouvert » et peu censuré. Bien que cela soit techniquement impressionnant, l’absence de sécurité représente une menace sérieuse. Elon Musk, dans sa quête pour une IA « truth-seeking » (chercheuse de vérité) et « moins censurée », a délibérément choisi de minimiser ces garde-fous.

Le problème réside dans le fait que les filtres de Grok étaient configurés pour bloquer la « pornographie explicite » (y compris les actes sexuels et la nudité frontale totale). Toutefois, l’IA, peu intelligente, ne considérait pas « une femme en bikini générée à partir d’une photo habillée » comme une image pornographique. C’est ce qu’on appelle la faille « bikini ». Les utilisateurs malveillants l’ont immédiatement exploitée : en demandant de la lingerie ou des maillots de bain, ils obtiennent des résultats qui peuvent servir de matériel de harcèlement, tout en esquivant les filtres automatiques basiques de xAI.

Des défenseurs de la plateforme commencent à intervenir en disant : « C’est comme Photoshop, on ne blâme pas Adobe si quelqu’un fait un montage. » Cependant, cette comparaison est incorrecte.

La différence est cruciale. Photoshop est un outil passif, tandis que Grok est un *agent actif*. Lorsque l’utilisateur demande « mets-lui un bikini », l’IA ne se limite pas à exécuter un script, elle interprète une demande de harcèlement, analyse l’image source et génère une nouvelle image synthétique pour satisfaire cette demande.

Pire encore, cela se déroule sur une plateforme publique. X n’est pas uniquement l’éditeur de l’outil, il est également le diffuseur. En permettant l’exécution de ces requêtes directement dans les fils de discussion, la plateforme facilite l’humiliation publique. C’est illégal, dangereux et moralement indéfendable.

Pendant qu’Elon Musk expérimente sans précautions avec la modération, le monde réel prépare des sanctions. L’*ENFORCE Act 2025* aux États-Unis et l’*AI Act* en Europe sont déterminés à agir.

La création d’images pédopornographiques ou leur forte suggestion en lien avec des mineurs constitue un crime fédéral. En laissant son IA « halluciner » des sous-vêtements sur des enfants à cause de ses filtres trop laxistes, xAI risquerait des poursuites pénales considérables.

La réaction de xAI, depuis le 31 décembre 2025, est révélatrice : des mesures d’urgence sont mises en place. Les demandes contenant « bikini », « undress » ou « lingerie » commencent à être bloquées ou à générer des messages d’erreur.