IA : des risques accrus pour la protection des mineurs en ligne constatés par l’Association e-Enfance / 3018

L’intelligence artificielle : une révolution technologique aux risques accrus pour les mineurs en ligne.

Il y a vingt ans, l’association e-Enfance/3018 était en première ligne pour protéger les enfants face à la révolution numérique qu’était l’Internet. Aujourd’hui, une nouvelle révolution technologique s’impose : l’intelligence artificielle (IA). Ses possibilités sont vastes, mais ses dangers pour la protection des mineurs en ligne sont alarmants.

Des cas concrets de cyberviolences impliquant l’IA sont régulièrement signalés au 3018, révélant une augmentation inquiétante des risques : détournement d’images, chantage, usurpation d’identité… Face à ces nouveaux outils, la vigilance et l’information sont plus que jamais nécessaires.

Une prolifération alarmante des deepfakes et deepnudes

L’IA a révolutionné la production de contenus : en quelques clics, n’importe qui peut générer des images ultra-réalistes ou manipuler des photos et vidéos. Cette facilité d’accès a entraîné une explosion des deepfakes et deepnudes à des fins d’humiliation ou de chantage.

Le phénomène est d’autant plus grave que des images d’enfants, parfois issues de photos partagées par leurs propres parents sur les réseaux sociaux, sont modifiées et diffusées sur des forums pédocriminels. En 2023, plus de 4 700 contenus pédocriminels générés par IA ont été signalés au National Center for Missing & Exploited Children, dont 50 % proviennent de photos partagées initialement par les parents (source : Rapport 2024 > L’IA générative nouvelle arme pour la pédocriminalité de la Fondation pour l’Enfance).

Une exploitation facilitée par la viralité et l’anonymat en ligne

Le danger ne s’arrête pas à la création de ces contenus. Une fois en ligne, ces images deviennent des armes de manipulation et de chantage. Des adolescents sont victimes de sextorsion après la diffusion de deepfakes compromettants, les forçant à payer une rançon ou à envoyer d’autres images sous la menace d’une exposition publique.

L’IA facilite également l’usurpation d’identité et le grooming, où des adultes mal intentionnés créent de faux profils ultra-réalistes pour piéger des enfants. Des voix artificielles imitant celles de proches peuvent les manipuler, les incitant à révéler des informations sensibles ou à envoyer du contenu intime.

L’IA, vecteur de désinformation et de troubles psychiques 

Les deepfakes participent aussi à la propagation de fake newsaltérant la perception des jeunes sur des sujets sensibles comme la politique, la santé ou encore leur propre identité.

L’IA conversationnelle génère des interactions artificielles qui peuvent troubler la santé mentale des mineurs. Certains jeunes développent des liens émotionnels avec des chatbots ou des avatars virtuels, conduisant à un isolement social et une perte de repères. Cette déconnexion progressive de la réalité peut aggraver l’anxiété et la dépression.

Réguler et sensibiliser : une urgence

Face à ces menaces, les législations évoluent, mais souvent trop lentement par rapport à l’accélération technologique. Il est crucial de renforcer la régulation et la détection des abus. L’IA elle-même peut être une alliée en améliorant les outils de modération et de signalement.

Les 3 axes d’actions de e-Enfance / 3018 : 

  • Un plaidoyer actif pour intégrer la protection des enfants dans les régulations de l’IA.
  • Une mobilisation massive sur le terrain (100 interventions et formations/semaine).
  • Le dispositif 3018, numéro dédié aux jeunes victimes de cyberviolences et harcèlement et sa capacité à faire supprimer comptes et contenus préjudiciables aux mineurs (160 000 contacts en 2024, numéro gratuit, anonyme, confidentiel, accessible 7j/7). Ce lien direct avec les jeunes est unique.

> Retrouvez toutes nos actions pour la protection des mineurs à l’heure de l’IA. 

Ensemble, luttons contre le harcèlement et les violences numériques !

Aller au contenu principal