Protection des mineurs en ligne : quand les juges emboîtent le pas du législateur européen

Vers une responsabilisation accrue des plateformes numériques

En moins de quarante-huit heures, les 24 et 25 mars 2026, deux verdicts américains ont marqué un tournant que l’on aurait tort de sous-estimer.

Au Nouveau-Mexique, Meta s’est vu infliger 375 millions de dollars de dommages et intérêts pour 37 500 violations délibérées de la loi sur les pratiques commerciales déloyales. L’affaire reposait sur une enquête sous couverture, au cours de laquelle des agents de l’État s’étaient fait passer pour des enfants sur Instagram, Facebook et WhatsApp, documentant ainsi les sollicitations sexuelles reçues et l’inadéquation des réponses de modération. Ce qui a emporté la conviction du tribunal, c’est la connaissance qu’avait Meta de ces faits. 

Le lendemain, en Californie, Meta et Google étaient condamnées pour négligence dans la conception même de leurs services. Pour la première fois, un jury américain a reconnu qu’Instagram et YouTube avaient été architecturés pour maximiser l’engagement sur leurs plateformes au détriment de la santé mentale des mineurs. Mark Zuckerberg a dû reconnaître à la barre qu’Instagram avait attendu jusqu’en 2022 pour vérifier l’âge de ses utilisateurs.

Dans le même temps, un contentieux multidistrict fédéral regroupe des milliers de procédures contre Meta, TikTok, Snap et Google, accusés de mettre en place des mécanismes addictifs ciblant délibérément les adolescents. Le juge fédéral en charge a refusé d’accorder aux plateformes l’immunité, estimant que des allégations de conception délibérément addictive pouvaient y échapper. 

Les juridictions américaines construisent par la voie judiciaire ce que le DSA, “Digital Services Act” – le règlement européen, a posé par la voie normative. 

Le DSA : le levier européen de la mise en responsabilité des plateformes

De son côté, l’Europe multiplie les enquêtes. Après TikTok, Meta et X, Snapchat entre aussi dans le périmètre d’instruction du DSA. Le 26 mars dernier, la Commission européenne a ouvert une enquête formelle portant sur plusieurs défaillances possibles : les mécanismes de vérification de l’âge, le grooming et le recrutement de mineurs pour des activités criminelles, des paramètres de compte par défaut jugés insuffisants, la diffusion d’informations sur la vente de produits interdits et les dispositifs de signalement de contenus illégaux. 

Pendant longtemps, le débat sur la responsabilité des plateformes avait été cantonné à la modération des contenus. Qui doit retirer quoi ? Dans quel délai ? Selon quels critères ? Ce cadre, aussi nécessaire qu’il soit, a ses limites.

Cette ouverture d’enquête illustre une fois de plus la logique du DSA comme instrument de régulation ex ante des risques systémiques. Le texte impose aux très grandes plateformes en ligne une obligation continue d’identification, d’analyse et de réduction des risques, en particulier lorsque ceux-ci affectent les droits fondamentaux des mineurs. Deux ans après son entrée en vigueur, ses effets commencent désormais à être visibles. 

Une convergence des régulateurs et des juges sur la responsabilité des plateformes

Dans le même mouvement, quatre grands sites pornographiques, Pornhub, Stripchat, XNXX et XVideos, font l’objet d’une enquête distincte pour absence de mécanismes efficaces de vérification d’âge par le pouvoir européen. Ces enquêtes européennes font écho aux actions engagées parallèlement par l’Arcom en France et l’Ofcom au Royaume-Uni sur la régulation des sites pornographiques, dessinant ainsi une ligne de front commune entre régulateurs nationaux et européens sur la question de l’accès des mineurs aux contenus pour adultes.

Ces combats rejoignent celui de l’Association portée conjointement avec la Voix de l’Enfant devant la justice pour contraindre l’accès des sites pornographiques aux mineurs.

En Irlande, l’autorité de protection des données a ouvert une enquête sur X et son système d’intelligence artificielle Grok pour la création et la diffusion de deepfakes sexuels. Les images intimes non consenties ne sont plus seulement appréhendées comme des contenus illicites à modérer après coup mais comme un traitement de données personnelles potentiellement illégal dès leur création. Les plateformes pourraient ainsi être tenues responsables non seulement de ce qu’elles diffusent mais de ce qu’elles permettent de produire.

Aux Pays-Bas, un tribunal a contraint Meta à proposer un fil d’actualité non algorithmique, décision confirmée en appel le 11 mars 2026 avec une astreinte portée à 10 millions d’euros. Au Royaume-Uni, l’ICO a sanctionné Reddit, consacrant un principe qui mérite d’être souligné : l’absence de mécanisme efficace de vérification d’âge constitue en elle-même une faute juridique autonome. 

En France, la dynamique contentieuse a également franchi un nouveau seuil. En septembre 2025, le député Arthur Delaporte saisit le parquet de Paris des dysfonctionnements constatés par la commission d’enquête parlementaire sur TikTok. En novembre, le parquet ouvre une enquête préliminaire confiée à la Brigade de lutte contre la cybercriminalité. Puis, le 26 mars 2026, le ministre de l’Éducation nationale Édouard Geffray transmet au parquet un signalement sur le fondement de l’article 40 du Code de procédure pénale. Son cabinet avait créé un compte TikTok en indiquant avoir 14 ans. En moins de vingt minutes, sans avoir liké quoi que ce soit, le fil de recommandations proposait des vidéos dépressives, des tutoriels de scarifications, des incitations au suicide. 

Cet alignement dépasse les cloisonnements habituels entre systèmes juridiques, droits nationaux et régulations sectorielles. Il traduit une volonté commune qui se construit affaire après affaire, enquête après enquête de montrer aux plateformes que la santé, le développement et la sécurité des enfants ne peuvent pas être des variables d’ajustement d’un modèle économique fondé sur la captation de l’attention.

Vingt ans de terrain, une réalité désormais reconnue

En tant que signaleur de confiance désigné par l’Arcom, l’Association e-Enfance / 3018 est confrontée quotidiennement aux situations et mécanismes de violences subies par les mineurs en ligne, qui ne sont pas seulement exposés à des contenus dangereux mais sont grandissent au sein d’environnements conçus pour augmenter leur vulnérabilité.

Les systèmes de recommandation, les interfaces, les mécanismes d’engagement produisent des effets documentés… et sont désormais sanctionnés. Lorsqu’un service est construit de manière à favoriser l’exposition à des contenus ou à des sollicitations à risque, la responsabilité ne peut pas être diluée dans l’usage individuel ou renvoyée aux familles.

Tant que le modèle économique des plateformes numériques restera incompatible avec la sécurité, la santé et le bon développement des mineurs, aucune mesure périphérique ne suffira. 

Ensemble, luttons contre le harcèlement et les violences numériques !