Une Loi Fédérale, une Horloge d’Un An et une Première Condamnation Déjà au Dossier
Le TAKE IT DOWN Act — Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks — est la première loi fédérale américaine criminalisant la publication non consentie d’images intimes, y compris les deepfakes générés par IA. Promulguée le 19 mai 2025, elle comble un vide réglementaire qui existait depuis que l’IA générative a rendu les deepfakes intimes photoréalistes accessibles à quiconque.
La loi est structurée en deux parties distinctes. L’interdiction pénale — criminalisant la publication fédérale de NCII — a pris effet immédiatement. L’obligation de conformité des plateformes — exigeant que les plateformes couvertes construisent des systèmes de suppression — a pris effet un an après la promulgation, créant une date limite du 19 mai 2026.
Avant cette date, en avril 2026, le Département de Justice a annoncé la première condamnation au titre de la loi : un homme de l’Ohio qui avait utilisé l’IA pour générer des NCII de voisins, dont des mineurs, et distribué le matériel sur un site Web lié aux abus sexuels. Cette affaire constitue non seulement un précédent juridique mais aussi un signal sur la posture d’application du DOJ.
Ce que la Loi Exige Réellement
Qui Qualifie comme « Plateforme Couverte »
La loi définit les plateformes couvertes comme les sites Web publics, services en ligne et applications — y compris les applications mobiles — qui hébergent principalement du contenu généré par des utilisateurs ou qui comportent spécifiquement du contenu NCII. Les services de messagerie électronique, les fournisseurs d’accès à Internet et les sites de contenu curatorial sont explicitement exclus.
En pratique, cela couvre les réseaux sociaux, les services de partage de vidéos, les plateformes d’hébergement d’images, les sites de contenu pour adultes, les applications de messagerie avec fonctionnalités publiques ou semi-publiques et les plateformes de contenu généralistes autorisant les téléchargements d’utilisateurs.
L’Horloge de Suppression de 48 Heures
Une fois qu’une plateforme couverte reçoit une demande de suppression de la personne représentée sur l’image intime — soutenue par une signature électronique et une déclaration de bonne foi — la plateforme dispose de 48 heures pour enquêter sur la demande et supprimer le matériel. La loi exige également que les plateformes fassent des « efforts raisonnables » pour éliminer les doublons et les republications du contenu signalé.
La fenêtre de 48 heures est nettement plus stricte que le standard « expéditif » de la DMCA, qui en pratique a permis aux plateformes d’agir des semaines voire des mois après.
Le Mécanisme d’Application FTC
Le non-respect des obligations de suppression constitue une violation du Federal Trade Commission Act. Cela permet à la FTC de poursuivre des amendes civiles, des injonctions et des indemnisations des consommateurs contre les plateformes non conformes.
Sanctions Pénales — Deux Niveaux selon l’Âge de la Victime
Pour les NCII impliquant des adultes non consentants : jusqu’à 2 ans d’emprisonnement pour publication d’images intimes ou de deepfakes ; jusqu’à 18 mois pour les deepfakes menaçants. Pour les NCII impliquant des mineurs : jusqu’à 3 ans d’emprisonnement pour images intimes ou deepfakes ; jusqu’à 30 mois pour les deepfakes menaçants.
Publicité
Ce que Cela Signifie pour les Opérateurs de Plateformes et les Responsables Contenu
1. Construisez la Infrastructure de Suppression Avant le 19 Mai 2026
La date limite de conformité est fixe. Les plateformes qui n’ont pas de processus de notification et de suppression fonctionnel d’ici le 19 mai 2026 s’exposent à l’application de la FTC dès le premier jour de non-conformité. Le système doit inclure : un mécanisme de signalement accessible ; un processus d’intake qui accepte les signatures électroniques ; un flux de triage atteignant la suppression dans les 48 heures ; et une étape de détection des doublons.
2. Implémentez le Hachage Perceptuel pour la Détection des Doublons
Le standard des « efforts raisonnables » pour éliminer les doublons exige plus que la suppression de l’URL spécifique signalée. Le hachage perceptuel — technologies comme PhotoDNA ou PDQ (l’outil de hachage open source de Meta) — permet aux plateformes de générer un hash de l’image signalée et de scanner automatiquement les correspondances perceptuelles dans l’ensemble de leur corpus de contenu.
3. Évaluez si Votre Modèle de Modération Basé sur les Appels Survit à la Fenêtre de 48 Heures
Beaucoup de modèles de modération de contenu des plateformes impliquent un processus par étapes : signalement reçu → évaluation initiale → période de contre-notification → décision finale de suppression. Cette fenêtre de 48 heures commence à la réception de la demande de la victime — il n’y a pas de provision explicite pour une pause de contre-notification qui étendrait le délai de suppression.
4. Formez les Équipes Trust & Safety sur le Standard de Déclaration de Bonne Foi
La loi exige une « déclaration de bonne foi » de la personne représentée accompagnée d’une signature électronique. Les équipes Trust & Safety ont besoin de clarté sur ce qui constitue une déclaration de bonne foi suffisante et comment documenter le processus d’intake pour démontrer la conformité en cas d’enquête FTC. La loi inclut un port safe pour les efforts de suppression de bonne foi.
5. Préparez-vous au Chevauchement État-Fédéral — 40+ Lois Étatiques S’appliquent Également
Le TAKE IT DOWN Act est un plancher fédéral, pas un plafond. Plus de 40 États américains avaient adopté leurs propres lois NCII avec des définitions, des délais et des règles de responsabilité variables. Une plateforme qui respecte les normes de conformité fédérales peut toujours faire face à des réclamations étatiques en Californie, New York, Texas ou tout autre État avec des exigences plus strictes.
Le Sillage Réglementaire Mondial : Ce que Cette Loi Signale
Le TAKE IT DOWN Act fait partie d’une réponse réglementaire mondiale en rapide expansion au contenu préjudiciable généré par l’IA. L’Online Safety Act britannique 2023 a établi un cadre de contenu « légal mais préjudiciable » avec des obligations obligatoires pour les plateformes. L’Online Safety Act australien et les pouvoirs d’application de l’eSafety Commissioner constituent un autre modèle. Le Digital Services Act de l’UE impose des obligations d’évaluation des risques et d’atténuation sur les très grandes plateformes en ligne.
L’architecture commune émergeant de ces cadres — notification et suppression dans des délais serrés, responsabilité des plateformes, sanctions pénales pour les éditeurs individuels — suggère que toute plateforme opérant mondialement devrait construire son infrastructure de suppression pour satisfaire la norme applicable la plus exigeante.
Pour les équipes de conformité, la leçon de la condamnation d’Ohio d’avril 2026 est que les forces de l’ordre au niveau fédéral n’attendent pas la date limite de conformité des plateformes avant de poursuivre des affaires. Le côté pénal du TAKE IT DOWN Act était actif dès le 19 mai 2025.
Sources et Lectures Complémentaires
- TAKE IT DOWN Act — Texte Congress.gov
- Le TAKE IT DOWN Act : Cible les NCII Authentiques et Générées par IA — Nelson Mullins
- TAKE IT DOWN Act Promulgué — National Association of Counties
- Le TAKE IT DOWN Act — Analyse Skadden
- Première Personne Condamnée Sous la Loi Fédérale sur les Deepfakes Intimes — NBC News
- TAKE IT DOWN Act — RAINN
Foire aux Questions
Qu’est-ce qu’une image intime non consentie (NCII) et la loi couvre-t-elle les deepfakes générés par IA ?
Les NCII en vertu du TAKE IT DOWN Act incluent toute représentation visuelle des parties intimes d’une personne identifiable partagée sans consentement — que l’image soit réelle, altérée numériquement ou entièrement générée par IA. La loi couvre explicitement les deepfakes IA : une image générée par IA représentant quelqu’un dans un contexte intime sans consentement qualifie comme NCII.
Comment fonctionne le délai de retrait de 48 heures en pratique pour une plateforme ?
Le délai de 48 heures commence lorsqu’une plateforme reçoit une demande de retrait vérifiée répondant aux critères de la loi. Les plateformes doivent établir un mécanisme d’intake clair (formulaire web dédié ou email). L’exigence de vérification nécessite un processus pour confirmer l’identité du demandeur — ce qui ne peut être un examen manuel de chaque soumission à grande échelle.
Que se passe-t-il pour les plateformes qui ne se conforment pas au TAKE IT DOWN Act ?
La FTC applique la loi en vertu de son autorité Section 5. Les violations sont traitées comme des pratiques déloyales ou trompeuses. Les amendes s’adaptent à la taille de la violation — pour les grandes plateformes, elles peuvent atteindre des dizaines de millions de dollars par groupe de violations.














