Les images de violences sexuelles envers les enfants générées avec l’IA se multiplient

Partager l'article :

L’agence européenne Europol tire la sonnette d’alarme : les images de violences sexuelles sur les enfants générées à l’aide de l’intelligence artificielle sont en augmentation. 

Chaque année, plus de 300 millions d’enfants sont victimes d’exploitation et de violences sexuelles en ligne*

Même dans les cas où le contenu est entièrement artificiel, et où aucune victime réelle n’est représentée, les images pédocriminelles générées par l’IA contribuent toujours à l’objectivation et à la sexualisation des enfants. 

* étude de l’Université d’Edimbourg, mai 2024

"Le volume de matériel sexuel auto-fabriqué constitue désormais une part importante et croissante du matériel sexuel pédopornographique en ligne" et est "appelé à proliférer davantage dans un avenir proche »

Que dit la loi ?

L’article 227-23 du Code pénal s’applique dès lors que le personnage à l’aspect physique d’un mineur, peu importe qu’il soit réel ou pas. Cet article punit de 5 ans d’emprisonnement et 75 000€ d’amende la consultation, la détention et la diffusion de contenus pédocriminels. 

De plus, les plateformes permettant la transmission ou le stockage de contenu doivent concourir à la lutte contre la diffusion des images pédocriminelles, en proposant un système de signalement par les utilisateurs, informer les autorités de ces signalements, rendre publics les moyens qu’elles consacrent à la lutte contre ces activités illicites, et conserver les données permettant d’identifier les responsables. 

Des mesures qui semblent aujourd’hui insuffisantes face à la multiplication de ce type de contenu. 

Surtout lorsqu’on sait que la France est devenue en 2019 le troisième pays hébergeur de contenus à caractère pédocriminel au monde, après les Pays-Bas et les États-Unis** 

L’émergence des technologies comme l’IA nécessite une adaptation continue des stratégies de lutte contre les violences sexuelles pour protéger les enfants contre l’exploitation en ligne. 

** INHOPE, 2019

Ces actualités peuvent vous intéresser