DSA : 2 ans après, où en est la protection des mineurs en ligne ?

Entré pleinement en application le 17 février 2024, le Digital Services Act (DSA) constitue aujourd’hui la pierre angulaire de la régulation des services en ligne dans l’Union européenne.

Procédures engagées, lignes directrices publiées, activités de signaleur de confiance… quel bilan tirer après deux années d’application ?

Le DSA, c’est quoi ?

Le Digital Services Act (DSA) fixe des règles communes pour les plateformes en ligne, les moteurs de recherche et les autres services intermédiaires afin d’encadrer la manière dont ils traitent les contenus illicites tels que définis par le droit en vigueur.

Le règlement ne crée pas de nouvelles infractions mais impose aux plateformes des obligations renforcées de transparence, de signalement, de retrait et de gestion des risques, avec des exigences plus strictes pour les très grandes plateformes.

S’agissant des mineurs, le DSA prévoit des obligations spécifiques destinées à garantir un niveau élevé de protection : limitation de certaines formes de publicité ciblée, paramètres plus protecteurs par défaut et évaluation des risques que les services peuvent faire peser sur leurs droits, leur sécurité et leur développement.

Les VLOPs face à leurs responsabilités

La mise à l’épreuve du DSA commence chez les très grandes plateformes, c’est-à-dire les services dépassant 45 millions d’utilisateurs mensuels actifs dans l’Union européenne, qui concentrent l’essentiel des obligations les plus exigeantes du règlement. L’articulation entre l’article 28 (protection des mineurs) et les articles 34 et 35 (évaluation et atténuation des risques systémiques) en constitue le cœur.


Ces plateformes doivent identifier, analyser et atténuer les risques systémiques liés au fonctionnement de leurs services, y compris ceux affectant les droits fondamentaux des mineurs : exposition à des contenus pornographiques ou violents, cyberharcèlement, pédocriminalité, effets liés à certaines logiques de conception et de recommandation.


Depuis 2024, la Commission européenne a engagé plusieurs procédures formelles sur ce fondement.

  • Sur les réseaux sociaux, la séquence TikTok illustre le passage progressif du contrôle à la mise en cause. Une procédure a été ouverte contre TikTok en février 2024, notamment sur la protection des mineurs, la transparence publicitaire et l’accès aux données pour les chercheurs. La Commission a ensuite adopté des conclusions préliminaires le 14 mai 2025 sur le répertoire publicitaire de TikTok, au titre des obligations de transparence.
  • Le 5 février 2026, elle a rendu de nouvelles conclusions préliminaires visant ce qu’elle qualifie de design addictif, en citant notamment des fonctionnalités telles que le scroll infini, l’autoplay, les notifications push et un système de recommandation hautement personnalisé, rattachées aux obligations de gestion et d’atténuation des risques systémiques prévues aux articles 34 et 35.
  • En parallèle, la Commission a ouvert en mai 2024 des procédures contre Meta (Facebook et Instagram), incluant un volet relatif aux risques pour les mineurs et à la gestion de certains contenus.
  • Le 23 octobre 2025, des conclusions préliminaires ont visé à la fois TikTok et Meta concernant l’accès aux données pour les chercheurs et Meta spécifiquement sur certains mécanismes de notification de contenus illicites et de recours des utilisateurs.
  • S’agissant de X, une procédure avait été ouverte dès décembre 2023 et la Commission a communiqué des conclusions préliminaires le 11 juillet 2024 concernant notamment des pratiques de conception trompeuses (dark patterns), la transparence publicitaire et l’accès aux données pour les chercheurs.
  • Le 5 décembre 2025, la Commission européenne a infligé à X une amende de 120 millions d’euros, première sanction d’ampleur fondée sur le DSA.
  • En janvier 2026, la Commission a ouvert une nouvelle enquête formelle visant Grok, l’IA intégrée à X, avec un focus sur les risques de diffusion de contenus illicites et de contenus manipulés, dont des contenus sexualisés non consentis.
  • Les marketplaces ont aussi été ciblées. Une procédure a été ouverte contre AliExpress en mars 2024, puis en octobre 2024 contre Temu sur la gestion des risques liés à la vente de produits illégaux et aux systèmes de recommandation. En février 2026, une enquête formelle a été ouverte contre Shein.

Deux ans après son entrée en vigueur, le DSA est bien entré dans sa phase contentieuse. Ces conclusions ne constituent pas encore des sanctions mais ouvrent une phase contradictoire entre la Commission et les plateformes.

Protection des mineurs : des lignes directrices qui précisent le cadre

Les lignes directrices publiées en 2025 par la Commission sur la protection des mineurs ont clarifié les attentes en matière de conception des services : vérification de l’âge pour les services à risque, configuration protectrice par défaut des comptes de mineurs, encadrement des systèmes de recommandation et accès facilité aux dispositifs d’assistance nationaux.


Le développement d’un prototype européen de vérification d’âge, fondé sur un tiers de confiance et un mécanisme de double anonymat, illustre cette volonté d’opérationnalisation.


Pour l’Association e-Enfance/3018, la vérification d’âge demeure un levier déterminant pour rendre effectives les exigences de l’article 28.

Le statut de signaleur de confiance : du statut juridique à l’épreuve des signalements

L’article 22 du DSA a introduit le statut de signaleur de confiance permettant à des entités disposant d’une expertise reconnue dans la détection de contenus illicites d’obtenir un traitement prioritaire de leurs signalements par les plateformes.


L’Association e-Enfance/3018 a été la première entité désignée en France à ce titre par l’Arcom. La spécificité du 3018 tient à son modèle d’intervention reposant sur un accompagnement humain assuré par des écoutants diplômés et spécialisés en protection des mineurs.

Cette approche permet de qualifier juridiquement les situations avec précision, d’identifier d’éventuelles infractions connexes et de révéler d’autres formes de violences numériques initialement invisibles.


Cette approche garantit une prise en charge qui dépasse le retrait isolé d’un contenu et qui permet d’agir en apportant des conseils, des solutions pratiques et un accompagnement adapté afin de prévenir l’aggravation ou la répétition des violences numériques. Le dispositif du 3018 s’appuie sur une expertise humaine et juridique indispensable à la qualification fine des situations et à la détection des tendances émergentes.

 

La semaine prochaine, l’Association e-Enfance / 3018 publiera son premier rapport de transparence en tant que signaleur de confiance. Ce document établira un état des lieux détaillé des signalements transmis, des délais de traitement, des taux de retrait et des modalités de coopération avec les grandes plateformes. Il analysera également les typologies de violences constatées, les évolutions observées dans les pratiques en ligne et les dynamiques émergentes identifiées grâce à l’accompagnement des victimes. Ces éléments permettront d’anticiper l’évaluation des risques systémiques prévue aux articles 34 et 35 du DSA, en apportant une lecture fondée sur les situations concrètes rencontrées sur le terrain.

 

Cette exigence de qualité implique des moyens à la hauteur des responsabilités confiées. L’Association e-Enfance/3018 défend la mise en place d’un financement pérenne des signaleurs de confiance. Un tel dispositif garantirait le maintien d’un haut niveau d’expertise juridique et d’accompagnement humain, condition essentielle pour qualifier avec précision les signalements, détecter les phénomènes systémiques de violences numériques et contribuer à leur prévention, au-delà du seul retrait technique des contenus.

Deux ans après : une régulation en phase de consolidation

Les prochains mois constitueront une étape clé.

 

La Commission européenne doit adopter des lignes directrices relatives à l’article 22 afin de préciser le rôle des signaleurs de confiance dans la lutte contre les contenus illicites.


Deux ans après son entrée en application, le DSA a profondément modifié le cadre juridique applicable aux plateformes. Les obligations relatives à la protection des mineurs sont désormais intégrées dans les mécanismes de gestion des risques et font l’objet de contrôles effectifs.


La période qui s’ouvre permettra d’évaluer plus finement la capacité du dispositif à produire des effets mesurables sur la protection des mineurs en ligne.

Ensemble, luttons contre le harcèlement et les violences numériques !