Avril 2026 : le curseur de l’exécution continue de tourner
Le Comité européen des services numériques a tenu sa 18e réunion le 15 avril 2026. Selon le communiqué officiel de la réunion, le Comité « a réaffirmé son engagement en faveur de la protection des mineurs en ligne » et a discuté de la coordination des activités d’exécution entre les coordinateurs nationaux des services numériques (CSN) et la Commission européenne. Ce communiqué reflète une posture d’exécution qui est passée de la construction des dossiers d’enquête (2024) à des procédures actives (2025) puis à une action coordonnée multi-plateformes (2026).
Le règlement sur les services numériques, applicable aux très grandes plateformes en ligne (TGPL) et aux très grands moteurs de recherche en ligne (TGMR) depuis août 2023, a établi une structure d’exécution à deux niveaux. La Commission européenne détient la compétence exclusive d’exécution sur les plus grandes plateformes — celles comptant plus de 45 millions d’utilisateurs actifs mensuels dans l’UE. Les CSN nationaux font appliquer le règlement pour les plateformes plus petites dans leurs juridictions. Le Comité coordonne les deux niveaux, favorise une application cohérente et peut émettre des avis non contraignants et des décisions contraignantes dans certaines circonstances.
La première vague d’exécution (fin 2023 à 2024) visait à établir le cadre procédural : désignations formelles des TGPL, exigences d’audit, rapports de transparence algorithmique et enquêtes sur la modération des contenus illicites. La deuxième vague — celle qui se déroule en 2026 — est axée sur une catégorie de préjudices spécifique qui a retenu le plus d’attention politique dans les États membres de l’UE : la protection des enfants et des mineurs contre les dommages algorithmiques, les designs addictifs et la vérification d’âge insuffisante.
Quatre plateformes, un mois : le panorama des mesures d’exécution en mars 2026
L’ampleur et la coordination des mesures d’exécution de mars 2026 marquent un changement qualitatif dans la mise en œuvre du DSA. En l’espace d’un seul mois, la Commission a agi contre au moins cinq plateformes pour différentes catégories de violations liées à la protection des mineurs.
TikTok a reçu des conclusions préliminaires en février 2026 pour des fonctionnalités de conception algorithmique identifiées comme « intrinsèquement addictives ». Les préoccupations spécifiques de la Commission portaient sur le défilement infini, la lecture automatique des vidéos, les notifications push et l’intensité des recommandations personnalisées — des fonctionnalités que la Commission a considérées comme délibérément conçues pour maximiser l’engagement au détriment de la santé mentale et de l’autonomie des mineurs. TikTok dispose de 60 à 90 jours ouvrables pour répondre aux conclusions préliminaires avant que la Commission ne rende une décision finale, pouvant inclure des mesures structurelles et des amendes.
Snapchat a fait l’objet d’une enquête formelle de la Commission en mars 2026, à la suite d’un renvoi du coordinateur néerlandais des services numériques. L’enquête porte notamment sur l’approche de vérification d’âge de Snapchat — plus précisément sur son recours à l’auto-déclaration des utilisateurs, que la Commission a jugée insuffisante pour satisfaire aux obligations de la plateforme en matière de protection des mineurs au titre du DSA. Des préoccupations relatives à une modération insuffisante des ventes illicites et à la facilitation d’interactions préjudiciables avec des mineurs ont également été citées.
Quatre plateformes de contenu adulte — Pornhub, Stripchat, XNXX et XVideos — ont reçu des conclusions préliminaires de la Commission en mars 2026, toutes citant des garanties insuffisantes pour les mineurs. Ces plateformes avaient été désignées comme TGPL en 2023, déclenchant l’ensemble des obligations de conformité au DSA. Leur incapacité à mettre en place une vérification d’âge robuste et une modération de contenu pour l’accès des mineurs représente la catégorie de violation la plus flagrante : le contenu est par définition préjudiciable aux mineurs, et les systèmes de vérification des plateformes ont été jugés structurellement inadéquats.
La mesure d’exécution faisant jurisprudence a été l’amende de 120 millions d’euros infligée à X (anciennement Twitter) en décembre 2025 pour des violations du DSA liées aux pratiques publicitaires et à la transparence de la modération de contenu. Cette amende — bien qu’elle ne soit pas la plus élevée possible au regard du plafond de 6 % du chiffre d’affaires mondial prévu par le règlement — a établi la crédibilité d’exécution qui avait été remise en question lors de l’entrée en vigueur de l’acte.
Publicité
Ce que « durcissement » signifie : quatre obligations de plateforme sous surveillance accrue
Pour les opérateurs de plateformes et leurs équipes de conformité, comprendre quelles obligations spécifiques alimentent l’accélération des mesures d’exécution en 2026 est plus utile que de suivre les enquêtes individuelles. Sur la base des communications de la Commission et des mesures d’exécution jusqu’en avril 2026, quatre catégories d’obligations font l’objet du contrôle le plus actif.
1. Vérification d’âge : passage de l’auto-déclaration aux systèmes vérifiés
L’enquête sur Snapchat et les conclusions sur les plateformes de contenu adulte portent toutes deux sur l’insuffisance de l’auto-déclaration comme mécanisme de vérification d’âge. L’article 28 du DSA exige que les TGPL mettent en œuvre des mesures appropriées et proportionnées pour assurer un niveau élevé de protection de la vie privée, de sécurité et de sûreté pour les mineurs. La position d’exécution émergente de la Commission est que l’auto-déclaration — demander aux utilisateurs de saisir une date de naissance sans vérification — ne satisfait pas à cette norme lorsque la plateforme héberge des contenus préjudiciables aux mineurs.
L’implication pratique est que les plateformes devront évoluer vers des mécanismes d’assurance d’âge vérifiés : vérification de documents, signaux au niveau de l’appareil, vérification de carte de paiement ou services d’assurance d’âge tiers. La loi britannique sur la sécurité en ligne (Online Safety Act) a déjà établi une exigence comparable sur le marché britannique. L’exécution au sein de l’UE converge désormais vers la même norme, et les plateformes opérant dans les deux juridictions auront besoin d’une architecture de vérification unifiée.
2. Conception algorithmique : les fonctionnalités addictives comme risque de conformité
Les conclusions préliminaires concernant TikTok ouvrent une nouvelle frontière en matière d’exécution : considérer certains choix de conception algorithmique comme intrinsèquement non conformes, indépendamment du contenu. Le défilement infini, la lecture automatique et l’intensité des notifications ne sont pas des fonctionnalités techniques neutres — la position de la Commission est que, lorsqu’elles sont déployées auprès de mineurs, elles créent des schémas d’engagement qui supplantent l’autonomie des mineurs et constituent un risque systémique au sens de l’article 34 du DSA.
Cela a des implications larges au-delà de TikTok. Toute TGPL qui utilise le défilement infini, la lecture automatique ou des notifications push à haute fréquence dirigées vers des utilisateurs pouvant être des mineurs est désormais exposée à un contrôle potentiel. Les équipes de conformité devraient auditer les fonctionnalités de la plateforme conçues pour maximiser la durée des sessions ou la fréquence des retours, évaluer si ces fonctionnalités sont adéquatement restreintes pour les utilisateurs mineurs et documenter les choix de conception et les mesures d’atténuation envisagées.
3. Transparence des systèmes de recommandation et option de désactivation
L’article 38 du DSA exige des TGPL qu’elles offrent aux utilisateurs au moins une option de système de recommandation ne reposant pas sur le profilage. Pour les mineurs, l’obligation est plus forte : l’option par défaut doit être la recommandation sans profilage. Les plateformes qui profilent le comportement des utilisateurs mineurs pour alimenter des recommandations de contenu personnalisées — sans s’assurer que le paramètre par défaut est désactivé — sont en violation.
Les conclusions d’audit et les avis d’enquête citent systématiquement la non-conformité du système de recommandation comme une violation concomitante aux défaillances de la vérification d’âge. Les plateformes devraient s’assurer que les comptes identifiés comme mineurs ou dont l’âge n’est pas vérifié sont configurés par défaut avec des recommandations sans profilage et que le mécanisme de désactivation du profilage est aisément accessible à tous les utilisateurs.
4. Publicité ciblée auprès des mineurs : interdiction absolue
L’article 28(2) du DSA contient une interdiction absolue de présenter des publicités ciblées aux mineurs sur les TGPL — sans exceptions, sans alternatives d’opt-in, sans justification d’intérêt légitime. Il s’agit de l’une des obligations les plus absolues du règlement. Pourtant, les conclusions d’exécution signalent systématiquement des pratiques de ciblage publicitaire qui n’étaient pas fiablement supprimées pour les utilisateurs mineurs.
Pour les plateformes financées par la publicité, cela nécessite un système techniquement robuste pour identifier les utilisateurs mineurs sur toutes les surfaces (web, mobile, lecteurs intégrés), supprimer le pipeline de personnalisation pour ces utilisateurs et s’assurer que les utilisateurs adultes dont l’âge est vérifié ne sont pas par inadvertance exclus de la publicité tandis que les utilisateurs mineurs dont l’âge n’est pas vérifié restent exposés. L’architecture technique permettant de mettre en œuvre une suppression publicitaire nette pour les mineurs est plus complexe qu’un simple indicateur de politique — elle nécessite une intégration entre l’assurance d’âge, la gestion du consentement et les systèmes de diffusion publicitaire.
La perspective globale : du RGPD au DSA comme deuxième vague de conformité
La trajectoire d’exécution du DSA en 2026 reflète la trajectoire du RGPD entre 2018 et 2022 — une période initiale de construction du cadre suivie d’une accélération de l’exécution substantielle une fois que le régulateur avait développé sa capacité institutionnelle et son précédent d’exécution. L’amende de 120 millions d’euros infligée à X joue le même rôle que les premières amendes RGPD : signaler que le règlement a des dents, que l’exécution ne sera pas indéfiniment différée et que les plus grandes plateformes ne bénéficieront pas d’une clémence particulière.
La différence avec le RGPD réside dans le sujet traité. L’exécution du RGPD portait sur les flux de données, le consentement et les droits à l’information — des questions abstraites qui généraient rarement une pression publique. L’exécution du DSA sur la protection des mineurs est politiquement chargée : chaque gouvernement de l’UE compte des électeurs qui sont parents, et chaque CSN national opère sous pression politique pour montrer des résultats en matière de sécurité des enfants. Cette dimension politique accélère les calendriers d’exécution d’une manière que les violations plus abstraites du RGPD n’avaient pas engendrée.
Pour les équipes de conformité des plateformes grand public — qu’elles soient très grandes ou plus petites, relevant de la compétence de la Commission ou des CSN nationaux — le message d’avril 2026 est clair : la norme de protection des mineurs est passée d’aspirationnelle à exécutoire, et la coordination entre la Commission et les autorités nationales signifie qu’il n’existe aucun refuge dans l’ambiguïté juridictionnelle.
Foire Aux Questions
Quel est le seuil qui soumet une plateforme à l’exécution par la Commission européenne (plutôt que nationale) du DSA ?
Les plateformes comptant plus de 45 millions d’utilisateurs actifs mensuels dans l’UE sont désignées comme très grandes plateformes en ligne (TGPL) ou très grands moteurs de recherche en ligne (TGMR) et relèvent de la compétence directe d’exécution de la Commission européenne. Les plateformes plus petites sont soumises à l’exécution par le coordinateur national des services numériques dans chaque État membre de l’UE où elles opèrent. La désignation modifie l’autorité d’exécution et l’intensité des ressources des obligations de conformité, mais pas le fond des règles — les obligations du DSA s’appliquent à toutes les plateformes dans le champ d’application, pas seulement aux TGPL.
Comment l’exécution du DSA en matière de protection des mineurs interagit-elle avec les lois nationales comme les exigences françaises de vérification d’âge ?
Le DSA fixe une norme minimale que tous les États membres de l’UE doivent appliquer, mais il n’empêche pas les États membres d’adopter des règles nationales plus strictes pour la protection des mineurs, à condition que ces règles soient conformes au droit européen. La loi française sur la majorité numérique (loi SREN, 2023) exige une vérification d’âge pour la création d’un compte sur les réseaux sociaux — plus stricte que la norme des « mesures appropriées et proportionnées » du DSA. Les exigences de la loi britannique sur la sécurité en ligne (Online Safety Act) sont encore plus prescriptives. Les plateformes opérant dans plusieurs juridictions doivent identifier la norme applicable la plus contraignante et s’y conformer, car un système conforme à la France sera également conforme au minimum DSA.
Quelle amende X a-t-elle reçue en décembre 2025 et quelles violations l’ont déclenchée ?
X (anciennement Twitter) a reçu une amende de 120 millions d’euros de la Commission européenne en décembre 2025 pour des violations du DSA. Les violations citées portaient sur les pratiques de ciblage publicitaire et les manquements à la transparence de la modération de contenu — plus précisément, le système publicitaire de X a été jugé comme utilisant les données des utilisateurs de manière incompatible avec les obligations de transparence et de choix des utilisateurs prévues par le DSA. L’amende a établi le précédent d’exécution que l’exécution de la Commission est opérationnelle et que les violations identifiées dans le cadre du processus d’audit des TGPL entraîneront des sanctions financières significatives.
Sources et lectures complémentaires
- Digital Services Act — Commission européenne
- DSA Enforcement is the New Regulatory Shock: Mapping the First Wave of Platform Risk in 2026 — Atlas Institute
- European Commission Fines X €120M for DSA Violations — IAPP
- DSA Enforcement and Penalties — EDAA
- EU Prepares Tougher Tech Enforcement in 2026 — European Business Magazine
- Digital Markets Act and DSA Enforcement State of Play — EP Think Tank
















