L’Unicef alerte sur l’explosion des deepfakes sexuels d’enfants.
L’Unicef met en garde contre la multiplication d’images d’enfants détournées par l’intelligence artificielle pour réaliser des deepfakes à caractère sexuel, soulignant qu' »au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée ». L’organisation déplore qu' »un trop grand nombre de modèles d’IA sont encore conçus sans mécanismes de protection appropriés » et appelle à des mesures pour empêcher la création de ces contenus abusifs.
Les contenus sur les réseaux sociaux se multiplient. L’Unicef met en lumière la prolifération d’images d’enfants modifiées par l’intelligence artificielle (IA) pour créer des deepfakes à caractère sexuel, une pratique qui inclut la « nudification », consistant à changer ou retirer les vêtements d’une victime.
Une enquête réalisée par l’Unicef avec Interpol révèle que « dans 11 pays, au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée », ce qui correspond, dans certains cas, à « un enfant par classe ».
L’Unicef déclare dans son communiqué : « Il convient de le rappeler clairement : les images d’enfants à caractère sexuel générées ou manipulées à l’aide d’outils d’IA ne sont autres que des contenus montrant des abus sexuels sur enfant. Les abus commis au moyen d’images hypertruquées restent des abus, et les préjudices qu’ils entraînent sont tout sauf fictifs. » L’organisation souligne également qu’« un trop grand nombre de modèles d’IA sont encore conçus sans mécanismes de protection appropriés » et que « les risques tendent à se multiplier lorsque les outils d’IA générative sont directement intégrés aux plateformes de médias sociaux, où les images ainsi manipulées se propagent rapidement ».
Le réseau social X, propriété d’Elon Musk, fait face à plusieurs poursuites dans divers pays pour la diffusion par son chatbot Grok de contenus pornographiques à partir d’images réelles.
Le Fonds des Nations Unies dédié à la protection de l’enfance appelle les développeurs d’IA à établir « des garde-fous robustes » pour empêcher la création de ces deepfakes et exhorte les entreprises du numérique à « prévenir leur circulation » au lieu de se contenter de leur retrait après coup. L’Unicef incite également les gouvernements à « élargir la définition des contenus montrant des abus sexuels sur enfant pour y inclure les contenus générés par l’IA, et à criminaliser leur création, leur acquisition, leur détention et leur diffusion ».

