L’agence européenne Europol tire la sonnette d’alarme : les images de violences sexuelles sur les enfants générées à l’aide de l’intelligence artificielle sont en augmentation.
Chaque année, plus de 300 millions d’enfants sont victimes d’exploitation et de violences sexuelles en ligne*
Même dans les cas où le contenu est entièrement artificiel, et où aucune victime réelle n’est représentée, les images pédocriminelles générées par l’IA contribuent toujours à l’objectivation et à la sexualisation des enfants.
* étude de l’Université d’Edimbourg, mai 2024
"Le volume de matériel sexuel auto-fabriqué constitue désormais une part importante et croissante du matériel sexuel pédopornographique en ligne" et est "appelé à proliférer davantage dans un avenir proche »
Europol
Que dit la loi ?
L’article 227-23 du Code pénal s’applique dès lors que le personnage à l’aspect physique d’un mineur, peu importe qu’il soit réel ou pas. Cet article punit de 5 ans d’emprisonnement et 75 000€ d’amende la consultation, la détention et la diffusion de contenus pédocriminels.
De plus, les plateformes permettant la transmission ou le stockage de contenu doivent concourir à la lutte contre la diffusion des images pédocriminelles, en proposant un système de signalement par les utilisateurs, informer les autorités de ces signalements, rendre publics les moyens qu’elles consacrent à la lutte contre ces activités illicites, et conserver les données permettant d’identifier les responsables.
Des mesures qui semblent aujourd’hui insuffisantes face à la multiplication de ce type de contenu.
Surtout lorsqu’on sait que la France est devenue en 2019 le troisième pays hébergeur de contenus à caractère pédocriminel au monde, après les Pays-Bas et les États-Unis**
L’émergence des technologies comme l’IA nécessite une adaptation continue des stratégies de lutte contre les violences sexuelles pour protéger les enfants contre l’exploitation en ligne.
** INHOPE, 2019