France

La pédopornographie générée par intelligence artificielle restera bien punie par la loi

Les pervers adeptes de pédopornographie pensaient sûrement échapper à la justice en s’attaquant à des enfants virtuels. Ça ne sera pas le cas, comme le démontre le vaste coup de filet opéré par Europol, jeudi, aboutissant à l’interpellation de 25 personnes soupçonnées de créer et diffuser des images de mineurs générées par l’intelligence artificielle (IA).

Si l’IA en est encore au stade émergeant, on a très vite vu les dérives que cet outil pouvait engendrer, notamment en ce qui concerne la génération d’images fixes ou de vidéos. Quand les IA les plus connues empêchent la création de contenu pornographique – du moins dans leurs versions gratuites –, d’autres n’ont aucune limite, y compris lorsque cela implique des enfants. Europol reconnaît d’ailleurs que cette opération est « l’une des premières affaires impliquant des images d’abus sexuels sur mineurs générées par l’IA ».

« Objectification et à la sexualisation des enfants »

Aucun doute sur le fait que générer du contenu pédopornographique par IA est moralement scandaleux. Pour autant, puisque cela n’implique aucune victime réelle, cela tombe-t-il sous le coup de la loi ? « Ce genre d’affaire est effectivement assez inédit, mais pour moi, le délit est constitué par le fait que des personnes s’excitent sur un enfant, qu’il soit réel ou fictif », explique à 20 Minutes l’avocate Alexandra Hawrylyszyn. C’est la vision d’Europol, qui assure que « même dans les cas où le contenu est entièrement artificiel et où aucune victime réelle n’est représentée […] les images d’abus sexuels générées par l’IA contribuent à l’objectification et à la sexualisation des enfants ».

Dans son article intitulé Les règles de droit face à la pédopornographie 2.0, l’avocat bordelais Simon Takoudju évoquait en 2021 une décision-cadre de l’Union européenne qui définit de manière harmonisée la lutte contre l’exploitation sexuelle des enfants. Cette décision-cadre, qui date de 2003 – soit bien avant l’arrivée de l’IA –, partait du principe que « des images réalistes d’un enfant qui n’existe pas participant à un comportement sexuellement explicite ou s’y livrant » constituaient bien de la pédopornographie.

Notre dossier sur la maltraitance infantile

Victimes réelles ou enfants virtuels, ça ne change donc rien. « D’ailleurs, la plupart du temps, il est impossible d’identifier les victimes sur de véritables photos ou vidéos pédopornographiques, ce qui n’empêche pas les auteurs d’être condamnés », poursuit maître Hawrylyszyn. Et le mis en cause ne pourra pas non plus plaider que le sujet mis en scène par l’IA n’est pas un mineur. « Les magistrats se fondent sur les caractéristiques physiques pour déterminer la minorité du sujet sur l’image et qualifier l’infraction », assure-t-elle. D’après la loi française, les peines encourues pour du contenu pédopornographique réel ou virtuel sont les mêmes, définies par l’article 227-23 du Code pénal : cinq ans d’emprisonnement et de 75.000 euros d’amende.