Un contrôle parental sur ChatGPT : un nouvel outil de protection en ligne pour les adolescents ?

OpenAI annonce le déploiement mondial, dès la fin du mois de septembre, d’un contrôle parental directement intégré à ChatGPT.

Accessible gratuitement à tous les utilisateurs qui ont un compte, ce dispositif a pour objectif de lier le compte d’un parent à celui de son enfant (à partir de 13 ans).

L’enjeu : protéger les enfants dans leurs usages de l’IA en encadrant davantage les interactions.

LES SPÉCIFICITÉS DE CE CONTRÔLE PARENTAL

Ce nouveau contrôle parental de ChatGPT inclut plusieurs fonctionnalités :

  • Un système d’alerte : le parent est averti en cas de comportements à risque, notamment lorsque l’enfant engage des conversations répétées sur la dépression, le suicide ou l’automutilation.
  • Un paramétrage flexible : les parents peuvent désactiver certaines fonctionnalités comme l’historique ou donner des consignes spécifiques à ChatGPT sur la manière de répondre à un adolescent.
  • Une garantie de confidentialité : les parents n’ont pas accès au détail des échanges de leur enfant avec l’IA, mais sont alertés en cas de signaux préoccupants.
  • Le parent pourra avoir la main pour activer le “mode study”, qui est le fait de réduire les discussions entre l’ado et l’IA au domaine scolaire, dans le compte de son enfant.

L’ASSOCIATION E-ENFANCE / 3018 APPELLE À ALLER PLUS LOIN

L’Association e-Enfance/3018 salue cette avancée en matière de protection des mineurs en ligne, mais il est possible d’aller encore plus loin : 

  • Mieux encadrer la relation enfant–machine, en incluant la possibilité de fixer des limites de temps d’usage.
  • Une orientation adaptée et claire de l’adolescent en cas de mal-être : en intégrant une redirection vers des associations spécialisées et des lignes d’aide et d’écoute telles que le 3018 ou le 3114 en France et le réseau SAFER à l’échelle européenne. Aujourd’hui, le dispositif suggère uniquement d’en parler à un proche. 
  • Intégrée dans ChatGPT des conseils, établis et vérifiés par des professionnels de la santé mentale pour renforcer la fiabilité des réponses de l’IA.

 L’IA ne remplacera jamais l’accompagnement d’un professionnel envers un enfant en souffrance, mais ces outils doivent devenir un relai fiable d’informations et de redirection vers des systèmes d’aide réels et immédiats.

Ensemble, luttons contre le harcèlement et les violences numériques !