IA & AutomatisationCybersécuritéCloudCompétencesPolitiqueStartupsÉconomie Numérique

Protection des enfants en ligne : une offensive mondiale contre les Big Tech en 2026

février 23, 2026

Legislative hearing room with digital display showing social media shield icon and lawmakers deliberating

La génération qui a grandi en ligne en paie le prix

Les preuves s’accumulent depuis plus d’une décennie. La santé mentale des adolescents s’est significativement détériorée depuis l’adoption généralisée des smartphones et des réseaux sociaux. Aux États-Unis, la dépression chez les jeunes a augmenté d’environ 52 % entre 2005 et 2017, selon des recherches publiées dans le Journal of Abnormal Psychology. Les taux de suicide chez les 10-24 ans ont considérablement augmenté sur la même période. Les troubles anxieux chez les adolescents ont atteint ce que le Surgeon General américain a qualifié d’épidémie — avec jusqu’à 95 % des adolescents de 13 à 17 ans déclarant utiliser les réseaux sociaux, et ceux qui y passent plus de trois heures par jour présentant un risque double de symptômes de dépression et d’anxiété.

Corrélation n’est pas causalité, et le débat sur le rôle des réseaux sociaux dans la crise de santé mentale des adolescents est nuancé. Mais les preuves accumulées — études longitudinales, recherches internes des plateformes (des documents internes de Meta ont montré que l’entreprise savait qu’Instagram nuisait à la santé mentale des adolescentes), et recherches neurologiques sur les boucles de rétroaction dopaminergiques — ont fait basculer le consensus politique. Sur tout l’échiquier politique, dans chaque grande démocratie, les législateurs ont conclu que le statu quo — des plateformes conçues pour maximiser l’engagement sans obligation de protéger les jeunes utilisateurs — est inacceptable.

Le résultat est une vague mondiale de législation sur la protection des enfants en ligne sans précédent dans l’histoire de la régulation d’internet. Début 2026, le Royaume-Uni, l’UE, l’Australie, la France, le Brésil et au moins 17 États américains ont adopté des lois imposant des obligations spécifiques aux plateformes concernant les mineurs. La législation fédérale américaine progresse. Et les implications pour la conception des plateformes, les modèles économiques et l’internet dans son ensemble sont profondes.


Royaume-Uni : l’Online Safety Act en mode application

L’Online Safety Act (2023) du Royaume-Uni, appliqué par Ofcom, est la loi de protection des enfants en ligne la plus complète actuellement en vigueur. Après avoir reçu la sanction royale en octobre 2023, sa mise en œuvre s’est faite par phases — la première phase est entrée en vigueur le 17 mars 2025, et les codes de pratique pour la protection des enfants sont devenus applicables le 25 juillet 2025.

Devoir de vigilance : Les plateformes ont l’obligation légale de protéger les enfants des contenus nocifs — y compris les contenus qui ne sont pas illégaux pour les adultes mais qui sont nuisibles pour les enfants. Les catégories concernées incluent les contenus relatifs à l’automutilation et au suicide, aux troubles alimentaires, la pornographie, les contenus faisant l’apologie de la violence et le cyberharcèlement.

Vérification de l’âge : Les plateformes susceptibles d’être consultées par des enfants doivent mettre en place des mesures « proportionnées » de vérification de l’âge. Ofcom a publié des orientations sur les méthodes acceptables : estimation de l’âge (par analyse faciale), vérification de l’âge (documents d’identité ou confirmation par carte bancaire) et mesures au niveau des comptes (contrôles parentaux, paramètres de sécurité par défaut pour les comptes identifiés comme appartenant à des mineurs).

Sécurité algorithmique pour les enfants : Les plateformes doivent s’assurer que leurs algorithmes de recommandation ne promeuvent pas de contenus nocifs auprès des enfants. Cela peut nécessiter le maintien de modèles de recommandation distincts pour les utilisateurs identifiés comme mineurs — filtrant ou dépriorisant les catégories de contenus nocifs.

Des sanctions dissuasives : Ofcom peut infliger des amendes allant jusqu’à 18 millions de livres sterling ou 10 % du chiffre d’affaires mondial qualifiant, selon le montant le plus élevé. La responsabilité pénale s’applique aux dirigeants qui ne respectent pas les demandes d’information. Et Ofcom a le pouvoir d’exiger que les plateformes utilisent une « technologie accréditée » pour détecter et supprimer les contenus d’abus sexuels sur mineurs (CSAM) — une disposition qui soulève des inquiétudes concernant le chiffrement de bout en bout.

Déjà en action : Fin 2025, Ofcom avait lancé cinq programmes d’application et ouvert 21 enquêtes. En août 2025, 4chan a été condamné à une amende de 20 000 livres pour non-conformité. En novembre, un site de nudification a reçu une amende de 50 000 livres pour vérification d’âge insuffisante. En décembre, AVS Group a été condamné à 1 million de livres pour absence de vérification d’âge. Le directeur général d’Ofcom a déclaré que les grandes plateformes populaires auprès des enfants sont une priorité d’application pour 2026, avec des amendes significatives attendues.


Australie : l’interdiction d’âge entre en vigueur

L’Australie a adopté l’approche la plus radicale au niveau mondial : en novembre 2024, le parlement a voté l’Online Safety Amendment (Social Media Minimum Age) Act, établissant un âge minimum de 16 ans pour l’utilisation des réseaux sociaux. Les restrictions sont entrées en vigueur le 10 décembre 2025. Les plateformes doivent prendre des « mesures raisonnables » pour empêcher les utilisateurs de moins de 16 ans de créer ou maintenir des comptes. L’obligation pèse sur la plateforme, pas sur l’enfant ou le parent.

Plateformes concernées : Facebook, Instagram, Snapchat, Threads, TikTok, Twitch, X, YouTube, Kick et Reddit sont classées comme plateformes à restriction d’âge. Les applications de messagerie, les jeux en ligne, les réseaux professionnels et les services d’éducation et de santé sont exclus.

Sanctions : Les plateformes qui ne prennent pas de mesures raisonnables risquent des amendes allant jusqu’à 49,5 millions AUD. Le commissaire eSafety est chargé de définir ce qui constitue des « mesures raisonnables » et d’adopter une approche proportionnée et fondée sur les risques — en se concentrant d’abord sur les plateformes les plus importantes.

C’est la première interdiction pure et simple des réseaux sociaux pour les mineurs par une grande démocratie. La loi se heurte à d’importants défis de mise en œuvre :

Technologie de vérification d’âge : Aucune technologie actuelle ne peut vérifier de manière fiable l’âge d’un utilisateur sans soulever de préoccupations en matière de vie privée. Les options incluent l’estimation faciale de l’âge (critiquée pour ses problèmes de précision, de biais et ses implications en matière de surveillance), la vérification par pièce d’identité (efficace mais créant une base de données reliant identités et comptes) et les signaux au niveau de l’appareil (paramètres de l’appareil ou données de l’opérateur mobile).

Contournement : Les adolescents déterminés utiliseront des VPN, de fausses dates de naissance ou des plateformes alternatives. L’efficacité de la loi dépend de son application contre les plateformes, pas contre les utilisateurs individuels.

Paradoxe de la vie privée : Vérifier qu’un utilisateur a plus de 16 ans nécessite la collecte d’informations personnelles — créant de nouveaux risques pour la vie privée au nom de la protection des enfants.

Malgré ces défis, l’interdiction australienne a influencé le débat mondial. La France a suivi avec sa propre interdiction pour les moins de 15 ans, et les sondages montrent un soutien majoritaire en Australie et des niveaux similaires aux États-Unis et en Europe pour des restrictions d’âge sur les réseaux sociaux.


France : de la majorité numérique à l’interdiction pure et simple

La France est l’un des acteurs européens les plus offensifs en matière de protection des enfants en ligne, et en janvier 2026, elle a franchi un nouveau cap. L’Assemblée nationale a adopté un projet de loi interdisant l’utilisation des réseaux sociaux pour les enfants de moins de 15 ans, par un vote de 130 voix contre 21. Soutenu par l’administration du président Macron, le texte était en attente d’approbation par le Sénat fin janvier 2026, avec un objectif de mise en œuvre en septembre 2026.

Champ d’application : TikTok, Instagram, Roblox, les fonctions de chat de Fortnite, WhatsApp, Telegram et les sites pour adultes sont tous concernés. Les encyclopédies en ligne et les plateformes éducatives sont exclues. La législation inclut également une interdiction des téléphones portables dans les lycées.

Approche de vérification d’âge : Le modèle français proposé utilise une vérification par « double anonymat » via des tiers — entreprises spécialisées, opérateurs mobiles ou une application de la Commission européenne impliquant des scans d’identité et de la reconnaissance faciale. Le système ne conserverait que les données d’âge, pas les informations d’identité complètes.

Mesures existantes : La France avait déjà adopté des lois exigeant la vérification d’âge pour les sites de contenus pour adultes (appliquées par l’ARCOM, avec des pouvoirs de blocage de sites) et établissant la majorité numérique à 15 ans pour les réseaux sociaux — nécessitant le consentement parental pour les plus jeunes. La nouvelle interdiction va plus loin en plaçant l’obligation de conformité directement sur les plateformes.

L’approche française est devenue un modèle de référence pour d’autres États membres de l’UE envisageant des mesures similaires.


Advertisement

États-Unis : KOSA, COPPA et un patchwork de lois étatiques

Les États-Unis poursuivent simultanément plusieurs voies législatives — aux niveaux fédéral et étatique.

Kids Online Safety Act (KOSA) — toujours en progression

KOSA a été adopté par le Sénat en juillet 2024 avec un large soutien bipartisan (vote de 91 contre 3), mais n’a pas progressé à la Chambre des représentants avant l’expiration du 118e Congrès. En mai 2025, le projet de loi a été réintroduit dans le 119e Congrès avec des modifications. En décembre 2025, le sous-comité du commerce de la Chambre a fait avancer KOSA (vote de 13 contre 10) avec 17 autres projets de loi sur la sécurité des enfants en ligne.

La version actuelle exige des plateformes de :

  • Mettre en place des politiques raisonnables pour prévenir des préjudices spécifiques aux mineurs connus, notamment la promotion du suicide, des troubles alimentaires, de l’abus de substances, de l’exploitation sexuelle et du harcèlement
  • Offrir aux mineurs des options pour protéger leurs informations, désactiver les fonctionnalités addictives (lecture automatique, notifications push, recommandations algorithmiques) et refuser le contenu personnalisé
  • Activer par défaut les paramètres de confidentialité les plus stricts pour les utilisateurs identifiés comme mineurs
  • Fournir aux parents des outils pour superviser et gérer l’expérience de leurs enfants sur les plateformes

La version 2025 de la Chambre supprime notamment le langage original de « devoir de vigilance » et s’applique à une liste plus restreinte de préjudices. La FTC serait chargée de l’application, et les procureurs généraux des États pourraient engager des actions. En février 2026, KOSA n’a pas encore été adopté par la Chambre dans son ensemble ni promulgué.

COPPA : mise à jour réglementaire et expansion législative

Deux voies parallèles modernisent la protection de la vie privée des enfants :

Amendements de la règle COPPA par la FTC (déjà finalisés) : La FTC a publié les amendements finaux à la règle COPPA le 22 avril 2025, effectifs le 23 juin 2025, avec une date limite de conformité au 22 avril 2026. Les changements clés incluent des définitions élargies des « informations personnelles » (couvrant désormais les identifiants biométriques, les identifiants émis par le gouvernement et les numéros de téléphone mobile), des exigences renforcées de consentement parental et des obligations plus strictes de conservation et de sécurité des données.

Législation COPPA 2.0 (en attente) : Le Children and Teens’ Online Privacy Protection Act (S.836, 119e Congrès) relèverait le seuil d’âge de 13 à 17 ans pour les protections renforcées, interdirait la publicité ciblée envers les mineurs, exigerait un consentement explicite pour la collecte de données des mineurs et créerait un droit de « gomme numérique » permettant aux mineurs de supprimer leurs données.

Action au niveau des États : un patchwork émerge

Les actions les plus spectaculaires aux États-Unis proviennent des États individuels. Au moins 17 États ont adopté des lois sur l’accès ou le traitement des mineurs sur les réseaux sociaux, avec plus de 300 textes législatifs en cours dans 45 États en 2025 :

  • Virginie (effectif au 1er janvier 2026) : les utilisateurs de moins de 16 ans limités à une heure par jour par application de réseau social sans consentement parental
  • Floride : exige la vérification d’âge, le consentement parental pour les moins de 18 ans, la protection des données des mineurs et la limitation de l’exposition aux contenus nocifs
  • Californie (SB 976) : réglemente les fils algorithmiques « addictifs » pour les mineurs, mesures de détermination d’âge requises d’ici le 1er janvier 2027
  • Nebraska (effectif au 1er juillet 2026) : exige la vérification d’âge et le consentement parental pour les moins de 18 ans ; les mineurs peuvent refuser des fonctionnalités comme le défilement infini

Cependant, l’approche au niveau des États fait face à des obstacles juridiques. Les lois de l’Arkansas et de l’Ohio ont été définitivement bloquées par les tribunaux, tandis que les mesures de la Californie, de la Floride et de la Géorgie sont temporairement suspendues en attendant les litiges — principalement pour des motifs liés au Premier amendement.


Brésil : le Digital ECA

Le Brésil a rejoint la vague mondiale en septembre 2025 en promulguant le Statut numérique de l’enfant et de l’adolescent (« Digital ECA ») — l’un des cadres de protection de l’enfance les plus complets au monde. Entrant en vigueur en mars 2026, il établit :

  • Vérification d’âge obligatoire : une vérification « efficace et fiable » est requise — la simple déclaration sur l’honneur (saisie d’une date de naissance) est explicitement interdite
  • Consentement parental et liaison de compte : obligatoires pour tous les utilisateurs de moins de 16 ans
  • Obligations des plateformes : les sites pornographiques et les réseaux sociaux doivent bloquer l’accès des mineurs et détecter les comptes d’enfants
  • Application : les violations peuvent entraîner des amendes allant jusqu’à 50 millions BRL par incident, la suspension ou l’interdiction d’activités
  • Champ d’application large : s’applique à tout produit ou service technologique destiné aux enfants (moins de 12 ans) ou aux adolescents (12-18 ans), ou susceptible d’être consulté par eux

L’UE : Digital Services Act + RGPD + nouvelles lignes directrices

L’UE aborde la sécurité en ligne des enfants par plusieurs instruments qui se superposent, et 2025 a apporté de nouvelles orientations significatives :

Article 8 du RGPD : Les États membres peuvent fixer l’âge du consentement numérique entre 13 et 16 ans (la plupart l’ont fixé à 16 ans). Les enfants en dessous de cet âge nécessitent le consentement parental pour le traitement des données.

Digital Services Act (DSA) : Les très grandes plateformes en ligne (VLOPs) doivent évaluer et atténuer les risques systémiques pour le bien-être des mineurs. La publicité ciblée basée sur le profilage des mineurs est interdite. Les plateformes doivent fournir des conditions de service claires et adaptées à l’âge pour les utilisateurs mineurs.

Lignes directrices de juillet 2025 du DSA sur la protection des mineurs : Le 14 juillet 2025, la Commission européenne a publié des lignes directrices détaillées au titre de l’article 28 du DSA, applicables à toutes les plateformes en ligne accessibles aux mineurs (sauf micro et petites entreprises). Bien que non juridiquement contraignantes, elles fournissent un cadre complet couvrant :

  • La vérification de l’âge (la simple déclaration jugée non fiable ; l’estimation et la vérification de l’âge recommandées)
  • La protection contre le grooming, les contenus nocifs, les comportements addictifs et le cyberharcèlement
  • L’interdiction des pratiques de conception manipulatrices (compteurs à rebours, loot boxes dans les jeux)
  • La modération de contenu formée à identifier les menaces comme le grooming
  • Le futur portefeuille d’identité numérique européen (attendu en 2026) comme outil de vérification d’âge

La réponse des plateformes

Les grandes plateformes ont répondu à la vague réglementaire avec un sérieux croissant :

Meta : En octobre 2025, Instagram a remanié ses comptes adolescents avec un cadre de contenu PG-13. Les adolescents sont désormais empêchés de suivre des comptes publiant régulièrement du contenu inapproprié pour leur âge, et les termes de recherche comme « alcool » ou « gore » sont filtrés. Le système utilise les standards de classification PG-13 des films pour déterminer l’adéquation du contenu. Les parents peuvent opter pour un mode « Contenu limité » encore plus strict. Des restrictions de conversation pilotées par l’IA sont prévues pour 2026. Le déploiement a commencé aux États-Unis, au Royaume-Uni, en Australie et au Canada, avec un déploiement mondial plus large prévu pour 2026. Cependant, les données précoces suggèrent que les mesures sont imparfaites : un rapport majeur a révélé que 60 % des adolescents de 13 à 15 ans déclaraient encore rencontrer des contenus dangereux malgré les protections des comptes adolescents.

TikTok : Maintient une limite par défaut de 60 minutes de temps d’écran quotidien pour les moins de 18 ans (contournable avec un code), désactive les notifications push après 21 h pour les moins de 16 ans, restreint la messagerie directe pour les moins de 16 ans, et active les comptes privés par défaut pour les 13-15 ans. TikTok a également déployé une technologie d’estimation de l’âge.

YouTube : YouTube Kids existe comme application séparée et organisée pour les plus jeunes enfants. La plateforme principale YouTube restreint les fonctionnalités pour les utilisateurs identifiés comme mineurs (pas de lecture automatique à l’heure du coucher, rappels de pause obligatoires).

Snapchat : A introduit des contrôles parentaux (Family Center) et des fonctionnalités restreintes pour les moins de 16 ans.

La tension fondamentale : Les modèles économiques des plateformes reposent sur l’engagement — garder les utilisateurs le plus longtemps possible, les faire revenir le plus souvent possible. Les mécanismes d’engagement les plus efficaces (défilement infini, lecture automatique, notifications push, comparaison sociale, recommandations algorithmiques de contenu) sont précisément les fonctionnalités que les défenseurs de la sécurité des enfants jugent nocives pour les esprits en développement. Une conformité réelle aux lois de protection des enfants peut exiger que les plateformes rendent leurs produits moins engageants pour les jeunes utilisateurs — ce qui entre directement en conflit avec leurs intérêts financiers. L’écart entre le taux d’approbation de 95 % des parents pour les fonctions de sécurité de Meta et les 60 % d’adolescents qui voient encore du contenu nocif illustre cette tension entre intentions affichées et résultats mesurables.


Le défi technique : la vérification d’âge à grande échelle

Chaque loi de protection des enfants dépend en fin de compte d’une capacité : identifier avec précision quels utilisateurs sont mineurs. C’est plus difficile qu’il n’y paraît :

Déclaration sur l’honneur (standard actuel) : Les utilisateurs saisissent une date de naissance lors de l’inscription. Contournable de façon triviale — chaque adolescent sait entrer une date le faisant passer pour majeur. Le Digital ECA du Brésil a explicitement interdit cette approche, et les lignes directrices du DSA de l’UE la jugent non fiable.

Vérification par pièce d’identité : Efficace mais soulève des préoccupations de vie privée (les plateformes accumulent des données d’identité gouvernementales), d’accessibilité (tous les enfants n’ont pas de pièce d’identité) et d’équité (exclusion des utilisateurs ne pouvant fournir de pièce d’identité).

Estimation faciale de l’âge : Des modèles d’IA estiment l’âge à partir d’un selfie photo ou vidéo. Des entreprises comme Yoti proposent une estimation d’âge testée indépendamment par le NIST (National Institute of Standards and Technology américain), atteignant un taux de vrais positifs de 99,3 % pour les 13-17 ans sans biais discernable entre genres ou tons de peau. Les systèmes modernes d’estimation d’âge suppriment le selfie immédiatement après le traitement et ne stockent aucun identifiant personnel — les distinguant de la reconnaissance faciale. Le chiffre d’affaires de Yoti a crû de 62 % en 2025, reflétant la demande croissante. Les défenseurs de la vie privée restent néanmoins préoccupés par la normalisation des scans faciaux pour accéder aux services en ligne.

Signaux au niveau de l’appareil : Utilisation des informations de l’appareil (données de l’opérateur mobile, paramètres de l’appareil, comptes liés) pour estimer l’âge sans action supplémentaire de l’utilisateur. Les fonctionnalités Communication Safety d’Apple utilisent l’apprentissage automatique sur l’appareil pour détecter les contenus de nudité dans les messages envoyés ou reçus par les comptes d’enfants.

Services tiers de vérification d’âge : Des services indépendants vérifient l’âge et fournissent un jeton ou un justificatif à la plateforme sans partager les données personnelles sous-jacentes. Le modèle de « double anonymat » français et le futur portefeuille d’identité numérique européen suivent cette approche respectueuse de la vie privée, qui nécessite la construction d’une toute nouvelle infrastructure d’identité.

Aucune solution n’est parfaite. Le système idéal vérifierait l’âge avec précision, protégerait la vie privée des utilisateurs, serait accessible à tous et résistant au contournement. Aucune technologie actuelle n’atteint ces quatre objectifs simultanément — mais le consensus réglementaire a basculé de « attendre la technologie parfaite » à « déployer les meilleurs outils disponibles maintenant ».

Advertisement


Radar de Décision (Algeria Lens)

Dimension Évaluation
Pertinence pour l’Algérie Élevée — Les enfants algériens utilisent les mêmes plateformes mondiales (TikTok, Instagram, YouTube, Snapchat) ; l’Algérie a adopté la politique de l’Union africaine sur la sécurité en ligne des enfants en mai 2024 mais manque d’une législation nationale complète ; une enquête auprès de 1 000 enfants algériens de 8 à 18 ans a révélé que 70 % possédaient un téléphone mobile et 41 % l’utilisaient pour accéder à internet
Infrastructure prête ? Partielle — L’Algérie a créé l’Autorité nationale pour les crimes liés aux TIC (décret n° 21-439, 2021) et l’autorité de protection des données ANPDP (loi de 2023), mais ne dispose pas d’un régulateur spécialisé en sécurité en ligne des enfants comparable à Ofcom au Royaume-Uni ou au commissaire eSafety en Australie
Compétences disponibles ? Limitées — Peu de professionnels juridiques ou techniques algériens se spécialisent dans la sécurité en ligne des enfants ; les organisations de la société civile qui abordent ce sujet émergent mais manquent de ressources ; les services de contrôle parental n’étaient disponibles que pour 60 % des parents interrogés
Calendrier d’action 6-12 mois pour un cadre politique initial ; 18-24 mois pour une capacité d’application
Parties prenantes clés Ministère de l’Éducation nationale, ministère de la Communication, ministère de la Famille, ARPT, ANPDP, associations de parents algériens, organisations de protection de l’enfance, fournisseurs d’accès internet
Type de décision Législatif-Éducatif — Nécessite à la fois un cadre réglementaire et des programmes de littératie numérique généralisés dans les écoles et les communautés

En bref : L’Algérie bénéficie indirectement de la régulation mondiale de la sécurité des enfants — quand Meta déploie ses comptes adolescents ou que TikTok restreint les fonctionnalités pour les mineurs, les enfants algériens reçoivent les mêmes protections que ceux des marchés réglementés. Cependant, compter uniquement sur la bonne volonté des plateformes est insuffisant. L’Algérie devrait développer un cadre national de protection des enfants en ligne — en s’inspirant de l’Online Safety Act britannique et des modèles français — et intégrer l’éducation à la citoyenneté numérique dans les programmes scolaires. L’intervention la plus immédiate et la plus efficace est éducative : des programmes de littératie numérique dans les écoles algériennes enseignant aux enfants et aux parents les risques en ligne, les paramètres de confidentialité et les habitudes technologiques saines, comme l’ont fait de nombreux pays européens.


Sources

Laisser un commentaire

Advertisement