L'intelligence artificielle, nouvelle arme inquiétante de la pédocriminalité
Les contenus pédopornographiques en ligne se multiplient avec le développement des outils d'intelligence artificielle, ce qui banalise les violences sexuelles contre les enfants et complique le travail des autorités chargées de protéger les jeunes victimes réelles, alertent des fondations en Europe.
Des vidéos d'enfants virtuels en train d'être violés ou des images d'adolescentes dénudées, dont seul le visage est réel: l'intelligence artificielle générative permet de créer à l'infini de tels contenus conservés sur ordinateur ou partagés en ligne.
En septembre 2023, en l'espace d'un mois seulement, plus de 20.000 images générées par intelligence artificielle ont été publiées sur un forum accessible sur le dark web, la partie clandestine d'internet, rapporte l'Internet Watch Foundation (IWF), l'une des principales associations européennes de lutte contre la diffusion de ces contenus.
L'organisme, qui avait reçu 70 rapports sur ce phénomène entre avril 2023 et mars 2024, en a déjà reçu 74 en l'espace de six mois, entre avril et fin septembre 2024. Une progression qu'il juge "glaçante".
Le phénomène a pris de l'ampleur avec la démocratisation des IA génératives au carrefour des années 2022-23. Si la plupart des logiciels grand public ont des limitations sur l'usage de certains termes et rendent ces créations impossibles, ce n'est pas le cas d'autres logiciels accessibles via le dark web.
"Dans quelques années, 95% des images pédocriminelles qui seront diffusées sur Internet seront issues de l'intelligence artificielle", avait souligné en juillet Gabrielle Hazan, cheffe de l'Office des mineurs (Ofmin), service de police judiciaire dédié à la lutte contre les violences faites aux jeunes, sur France Inter.
- Risque de passage à l'acte -
Même s'il s'agit de montages, la diffusion massive de telles images "est grave car cela contribue à la banalisation des pratiques pédocriminelles et à l'objectification de l'enfant", a souligné auprès de l'AFP Angèle Lefranc, chargée de plaidoyer de la Fondation pour l'enfance, qui vient de mener un travail de recherche sur le sujet et publie mardi ses conclusions dans un rapport.
La prolifération de contenus pédopornographiques "augmente les comportements addictifs des consommateurs, avec des images de plus en plus extrêmes, explicites, violentes", indique la synthèse du rapport.
Et la consommation aisée de contenus pédopornographiques augmente les risques de passage à l'acte.
"Les profils et motivations des personnes qui visionnent ces contenus sont extrêmement différents mais quand il y a eu un passage à l'acte, très souvent, il y a eu avant un visionnage", décrit Angèle Lefranc.
L'Office des mineurs estime que dans 40% des affaires, la consultation de contenus à caractère pédopornographique a entraîné un passage à l'acte sur un enfant.
La Fondation pour l'enfance appelle les acteurs politiques, juridiques et technologiques à mettre en place une "réponse forte, rapide et coordonnée".
- Cadre légal -
Principale "difficulté": l'intelligence artificielle est en "constante évolution" et les personnes "qui consomment des contenus pédocriminels, très au fait des nouvelles technologies, s'en emparent rapidement", détaille Angèle Lefranc.
La Fondation pour l'enfance recommande d'une part une sensibilisation du grand public.
"Les gens ne se rendent pas compte que les photos de leurs enfants en maillot de bain publiées sur les réseaux sociaux peuvent servir à entraîner des intelligences artificielles" à visée pédopornographique, décrit la chargée de plaidoyer.
La fondation demande également aux pouvoirs publics d'amender le Code pénal pour pénaliser la création de montages à caractère sexuel représentant des mineurs. A l'heure actuelle, le "vide juridique" sur ce sujet "permet à la pratique de s'intensifier".
Autre conséquence de cette multiplication d'images et de vidéos pédopornographiques: il devient plus difficile pour les forces de l'ordre d'identifier et de protéger les enfants réellement victimes de violences sexuelles qui apparaissent dans ces contenus.
Les contenus pédocriminels générés par l'IA vont devenir un problème de "premier plan dans un futur proche", relevait un rapport d'Europol publié en juillet.
"Cela pose de grands défis aux services spécialisés tant pour l'identification des victimes que dans celle du cadre légal de l'enquête", soulignait l'agence européenne.
La fondation recommande d'inciter les acteurs privés à coopérer pour mettre en place des outils permettant de distinguer les contenus générés par intelligence artificielle des contenus réels.
(C.Fournier--LPdF)