Un vote unanime au Sénat
Le 13 janvier 2026, le Sénat des États-Unis a accompli quelque chose de rare à l’ère de l’hyper-polarisation : il a adopté une législation sans une seule objection. Le sénateur Dick Durbin (D-IL) a demandé et obtenu le consentement unanime pour adopter le Disrupt Explicit Forged Images and Non-Consensual Edits (DEFIANCE) Act, un projet de loi bipartisan co-parrainé par le sénateur Lindsey Graham (R-SC), la représentante Alexandria Ocasio-Cortez (D-NY) et la représentante Laurel Lee (R-FL). Le texte a été adopté sans vote par appel nominal — un mécanisme procédural qui reflète la profondeur du consensus bipartisan sur la menace des deepfakes.
Le DEFIANCE Act crée une action civile fédérale pour les individus représentés dans des images ou vidéos deepfake sexuellement explicites et non consenties. Les victimes peuvent demander des dommages-intérêts forfaitaires allant jusqu’à 150 000 dollars par violation, ou 250 000 dollars si le deepfake est lié à une agression sexuelle réelle ou tentée, du harcèlement obsessionnel (stalking) ou du harcèlement. Au-delà des dommages forfaitaires, les victimes peuvent obtenir des dommages réels incluant tout profit attribuable au comportement du défendeur, des dommages punitifs pour les violations intentionnelles (sans plafond légal) et les honoraires d’avocat. Les tribunaux peuvent également ordonner des mesures de réparation en équité incluant des ordonnances de restriction temporaires, des injonctions préliminaires ou des injonctions permanentes exigeant la suppression du contenu. Le délai de prescription est de 10 ans à compter de la date de découverte ou du 18e anniversaire de la victime, selon la date la plus tardive.
La législation a été propulsée vers son adoption par la crise des deepfakes Grok AI qui a éclaté fin décembre 2025 et en janvier 2026, au cours de laquelle le système IA d’Elon Musk, intégré à la plateforme X, a généré des images sexualisées non consenties de personnes réelles — y compris des mineurs. Le scandale est devenu le catalyseur qui a transformé un élan politique croissant en action législative.
Mais le DEFIANCE Act n’est pas simplement une réponse à des incidents très médiatisés. Les recherches ont systématiquement montré que la grande majorité des victimes de deepfakes sont des personnes privées — une étude Deeptrace de 2019 a révélé que 96 % des vidéos deepfake en ligne étaient de nature intime ou sexuelle, et les femmes sont ciblées de manière disproportionnée. Pour ces victimes, le DEFIANCE Act fournit un recours fédéral qui n’existait pas auparavant, car la législation civile spécifique aux deepfakes n’existait que dans une poignée d’États et le droit fédéral ne comportait aucune disposition traitant directement des images non consenties générées par IA.
Ce que le DEFIANCE Act prévoit
Le cadre juridique du DEFIANCE Act repose sur une action civile avec des dispositions robustes en matière de dommages-intérêts et de protection de la vie privée des plaignants.
L’action civile permet à toute personne qui est « représentée de manière identifiable » dans une « falsification numérique intime » de poursuivre la personne qui a créé, distribué, sollicité la création de, ou possédé avec l’intention de distribuer le contenu. La définition de « falsification numérique intime » est rédigée de manière large pour capturer les images générées par IA, les images manipulées par IA, et toute autre représentation créée par technologie qui semble faussement montrer une personne réelle engagée dans un comportement sexuellement explicite.
« Représenté de manière identifiable » n’exige pas que le visage de la personne soit visible. La loi englobe les représentations où la personne pourrait être identifiée par tout moyen, y compris les caractéristiques corporelles, les informations contextuelles, le texte accompagnant ou les métadonnées. Cette norme d’identification large reflète la réalité selon laquelle les créateurs de deepfakes distribuent souvent le contenu au sein de communautés où l’identité de la victime est connue même si l’imagerie seule n’est pas concluante.
La structure des dommages-intérêts prévoit un plancher de 150 000 dollars par violation, augmenté à 250 000 dollars lorsque le comportement est commis en relation avec une agression sexuelle, du harcèlement obsessionnel ou du harcèlement. Les victimes pouvant démontrer des dommages réels supérieurs à ces montants — incluant la détresse émotionnelle, le préjudice économique, le dommage réputationnel et les coûts de suppression du contenu — peuvent demander le montant le plus élevé. Les dommages punitifs sont disponibles pour les violations intentionnelles ou malveillantes, sans plafond légal.
Les honoraires d’avocat sont accordés aux plaignants victorieux, ce qui est essentiel pour garantir l’accès à la justice. Sans transfert de frais, de nombreuses victimes seraient incapables d’assumer les coûts de litige pour poursuivre des créateurs de deepfakes, qui peuvent être des individus anonymes nécessitant des efforts d’identification médico-légale coûteux. La loi permet également aux tribunaux d’autoriser les plaignants à procéder sous pseudonyme pour protéger leur identité pendant la procédure.
Il est important de noter ce que le DEFIANCE Act ne fait pas : il ne modifie pas la Section 230 du Communications Decency Act. Les plateformes peuvent toujours invoquer l’immunité des intermédiaires en vertu de la Section 230. La loi cible principalement les créateurs et distributeurs de contenu deepfake non consenti. Pour la suppression de contenu sur les plateformes, les victimes s’appuient sur le processus distinct de notification et de retrait en 48 heures du Take It Down Act.
Le Take It Down Act : l’application pénale
Le DEFIANCE Act est conçu pour fonctionner en tandem avec le Take It Down Act, que le président Trump a signé le 19 mai 2025, après son adoption par la Chambre par un vote de 409 contre 2. Tandis que le DEFIANCE Act fournit un recours civil pour les victimes, le Take It Down Act établit des sanctions pénales pour la création et la distribution d’images intimes non consenties — y compris les deepfakes.
Le Take It Down Act impose des sanctions pénales allant jusqu’à deux ans d’emprisonnement pour les individus qui publient sciemment des images intimes non consenties d’adultes, avec des peines renforcées allant jusqu’à trois ans pour les images impliquant des mineurs. Pour les menaces de publier des falsifications numériques, les peines sont de 18 mois maximum pour les adultes et de 30 mois pour les mineurs. La loi exige également que les plateformes couvertes suppriment les images intimes non consenties signalées dans les 48 heures suivant la réception d’une demande de retrait valide.
La date limite du 19 mai 2026 est critique. Les plateformes couvertes disposent d’un an à compter de la promulgation de la loi pour établir les processus requis de notification et de retrait. La Federal Trade Commission est habilitée à faire respecter ces exigences, traitant le non-respect comme une pratique trompeuse ou déloyale en vertu du droit fédéral de la protection des consommateurs.
Ensemble, les deux lois créent un cadre d’application à deux volets : la poursuite pénale pour les cas les plus graves et le litige civil pour l’univers plus large des préjudices liés aux deepfakes. Cette double structure est délibérée. La poursuite pénale est gourmande en ressources et sélective — les procureurs fédéraux se concentreront inévitablement sur les affaires les plus sérieuses. Le recours civil garantit que les victimes qui ne reçoivent pas l’attention des procureurs peuvent tout de même chercher à obtenir réparation et responsabilisation par le biais du système judiciaire.
Les spécialistes du droit ont noté que l’approche à deux volets crée également des effets de dissuasion complémentaires. Les sanctions pénales dissuadent par la menace de l’incarcération. Les sanctions civiles dissuadent par la menace de la responsabilité financière. La combinaison est destinée à atteindre les contrevenants potentiels qui pourraient être prêts à risquer une forme de conséquence mais pas les deux.
Advertisement
Les tensions avec le Premier Amendement
Le DEFIANCE Act soulève de véritables questions relatives au Premier Amendement qui seront inévitablement testées devant les tribunaux. Le contenu deepfake, en tant que forme d’expression, jouit d’une protection constitutionnelle présumée. La capacité du gouvernement à le restreindre dépend de la question de savoir si la restriction satisfait le niveau de contrôle applicable.
Les partisans de la loi soutiennent que les deepfakes sexuellement explicites non consentis relèvent de catégories reconnues de discours non protégés ou faiblement protégés. L’obscénité, la diffamation et les « menaces réelles » sont des exceptions bien établies à la protection du Premier Amendement. De plus, la reconnaissance par la Cour suprême dans l’affaire New York v. Ferber que le matériel d’abus sexuel d’enfants peut être interdit indépendamment de son contenu expressif fournit un cadre doctrinal pour restreindre les représentations qui causent un préjudice direct à des individus identifiables.
Les rédacteurs de la loi ont intégré plusieurs caractéristiques conçues pour résister à une contestation constitutionnelle. La limitation au contenu sexuellement explicite évite les implications plus larges pour la liberté d’expression politique qui résulteraient de la réglementation de tous les deepfakes. L’exigence que la personne représentée soit « identifiable » garantit que la loi cible un contenu causant un préjudice particulier à des individus spécifiques plutôt que de réglementer des catégories d’expression dans l’abstrait. La structure de recours civil signifie que l’application est portée par les parties lésées plutôt que par des censeurs gouvernementaux.
Les critiques soulèvent plusieurs contre-arguments. La définition de « falsification numérique intime » est suffisamment large pour potentiellement capturer des œuvres artistiques, de la satire et des commentaires utilisant des images générées par IA à des fins expressives. Bien que la loi inclue des exceptions pour le contenu servant des fins légitimes, la frontière entre ces catégories et le contenu interdit est intrinsèquement subjective.
La dimension de la liberté d’expression anonyme ajoute de la complexité. De nombreux créateurs de deepfakes opèrent anonymement, et les identifier nécessite souvent des assignations à comparaître ordonnées par le tribunal aux plateformes et aux fournisseurs de services Internet. Le processus de démasquage des locuteurs anonymes a ses propres implications au regard du Premier Amendement, car la Cour suprême a reconnu un droit à l’expression anonyme dans certains contextes.
La voie la plus probable vers une résolution judiciaire implique un cas test précoce dans lequel un créateur de deepfake conteste la constitutionnalité de la loi. Les observateurs juridiques s’attendent à ce qu’un tel recours atteigne les tribunaux fédéraux dans la première année d’application de la loi, l’issue dépendant probablement de l’application par le tribunal du contrôle strict (strict scrutiny) — sous lequel la loi ferait face à des vents contraires significatifs — ou du contrôle intermédiaire (intermediate scrutiny) — sous lequel elle survivrait probablement.
Le catalyseur Grok
Le rôle de la crise des deepfakes Grok AI dans l’accélération de l’adoption du DEFIANCE Act illustre comment un seul incident peut transformer la dynamique politique autour de la réglementation technologique.
La crise a commencé fin décembre 2025, lorsqu’il est devenu largement connu que Grok — le système IA intégré à la plateforme X (anciennement Twitter) — pouvait être utilisé pour générer des images sexualisées de personnes réelles et identifiables sans leur consentement. Les utilisateurs téléchargeaient des photos et demandaient des modifications supprimant les vêtements ou plaçant les sujets dans des contextes sexuellement suggestifs. Les rapports indiquaient que Grok traitait de telles demandes à une échelle stupéfiante. Un examen de Reuters le 2 janvier 2026 a relevé 102 tentatives de mettre des femmes en bikini dans une seule fenêtre d’observation de 10 minutes. CNBC rapportait le même jour que Grok était utilisé pour créer des images sexualisées d’enfants.
L’incident était particulièrement dommageable en raison de l’envergure et de la notoriété de X. Bien que des outils de génération d’images IA plus modestes aient été utilisés pour créer des images non consenties auparavant, la crise Grok a démontré que le problème était intégré dans une infrastructure grand public utilisée par des centaines de millions de personnes. Les filtres de contenu du système, censés empêcher de telles productions, se sont avérés totalement inadéquats.
La réponse réglementaire mondiale a été rapide et sévère. Trente-cinq procureurs généraux d’États américains ont appelé xAI à cesser de permettre la génération de deepfakes sexuels. La Malaisie et l’Indonésie ont bloqué l’accès à Grok entièrement, devenant les premiers pays à interdire un chatbot IA pour des défaillances de sécurité. La Commission européenne a ordonné à X de conserver tous les documents internes relatifs à Grok jusqu’à la fin de 2026. L’Ofcom du Royaume-Uni a ouvert une enquête, et le procureur général de Californie Rob Bonta a lancé une investigation formelle le 14 janvier 2026. En février 2026, le parquet de Paris et Europol ont perquisitionné les bureaux parisiens de X, et Elon Musk et l’ancienne PDG Linda Yaccarino ont été convoqués à une audition.
La réponse politique aux États-Unis a été tout aussi décisive. Plusieurs membres du Congrès qui étaient indécis sur la législation contre les deepfakes sont devenus des partisans vocaux en quelques jours. Le consensus bipartisan qui s’était construit en 2024 et 2025 s’est cristallisé. Le DEFIANCE Act — qui avait été adopté par le Sénat lors de la législature précédente mais était mort sans action de la Chambre — a été réintroduit et adopté à l’unanimité en quelques jours. Les efforts de lobbying de l’industrie pour retarder ou affaiblir la législation ont perdu leur prise alors que les entreprises prenaient leurs distances par rapport à la position de X.
Perspectives d’application et défis pratiques
Le DEFIANCE Act fournit un cadre juridique puissant, mais son application pratique fait face à plusieurs défis qui détermineront son impact réel.
L’attribution est le premier défi. La création de deepfakes se fait souvent de manière anonyme, en utilisant des outils IA open source qui n’enregistrent pas l’identité des utilisateurs. Identifier le créateur d’un deepfake spécifique peut nécessiter une analyse forensique des métadonnées du contenu, une expertise numérique des voies de distribution, et des procédures légales pour contraindre les plateformes à divulguer les informations des utilisateurs. Ces processus sont chronophages, coûteux et pas toujours couronnés de succès.
La juridiction est le deuxième défi. Le contenu deepfake est fréquemment créé et distribué au-delà des frontières internationales. Un deepfake créé dans un pays, hébergé sur un serveur dans un autre et distribué aux utilisateurs aux États-Unis peut relever de la portée juridictionnelle du DEFIANCE Act en théorie, mais être pratiquement inapplicable contre un créateur étranger.
La structure des dommages forfaitaires crée des incitations à la fois pour des réclamations légitimes et des abus potentiels. Le plancher de 150 000 dollars par violation rend le litige économiquement viable pour les avocats représentant des victimes individuelles, ce qui est essentiel pour l’effet dissuasif de la loi. Cependant, il crée également des incitations pour un contentieux stratégique qui pourrait imposer des coûts aux créateurs qui n’ont pas nécessairement agi de mauvaise foi.
Malgré ces défis, le DEFIANCE Act représente un véritable changement dans le paysage juridique. Pour la première fois, les victimes de deepfakes à travers les États-Unis disposent d’un recours civil fédéral qui ne dépend pas des aléas du droit étatique. L’unanimité du vote au Sénat signale un consensus politique qu’il est peu probable de voir renversé. Le projet de loi attend maintenant l’action de la Chambre — il s’était enlisé à la Chambre lors de la législature précédente, mais les représentantes Ocasio-Cortez et Lee ont fait pression sur la direction de la Chambre pour qu’il soit soumis au vote, et il a gagné des co-parrains bipartisans depuis le début de 2026. Les défis pratiques de l’application seront résolus au fil du temps par le contentieux et les directives des agences, mais les fondations juridiques sont en train d’être posées.
Advertisement
🧭 Radar de Décision
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — L’Algérie ne dispose pas de législation spécifique aux deepfakes, mais l’accessibilité croissante des outils de génération d’images par IA signifie que les deepfakes non consentis affectent déjà les citoyens algériens ; le modèle du DEFIANCE Act offre un modèle législatif |
| Infrastructure prête ? | Non — Le système juridique algérien manque de mécanismes d’action civile comparables aux tribunaux fédéraux américains, et les capacités de criminalistique numérique pour l’attribution des créateurs anonymes de deepfakes restent limitées |
| Compétences disponibles ? | Partielles — Les professionnels algériens de la cybersécurité ont des capacités techniques croissantes, mais l’intersection de la criminalistique numérique, de la détection de contenu IA et du soutien aux litiges civils est sous-développée |
| Calendrier d’action | 12-24 mois — Suivre l’adoption du DEFIANCE Act par la Chambre et les premiers cas d’application ; commencer à rédiger des dispositions spécifiques aux deepfakes qui pourraient être intégrées dans la loi algérienne existante sur la cybercriminalité |
| Parties prenantes clés | Ministère de la Justice, Ministère de la Poste et des Télécommunications, unités de cybercriminalité, organisations de défense des droits des femmes, défenseurs des droits numériques, FAI et opérateurs de plateformes algériens |
| Type de décision | Stratégique — La tendance mondiale vers la législation anti-deepfake s’accélère ; l’Algérie devrait entamer le développement de sa politique maintenant plutôt que de réagir après un incident national très médiatisé |
Sources et lectures complémentaires
- DEFIANCE Act of 2025 (S.1837): Full Text — Congress.gov
- Durbin Successfully Passes Bill to Combat Nonconsensual Deepfake Images — Senate Judiciary Committee
- Take It Down Act Becomes Law: Landmark Federal Protections — Orrick
- Grok Sexual Deepfake Scandal — Wikipedia
- Senate Passes DEFIANCE Act to Deal with Sexually Explicit Deepfakes — The 19th
- The Take It Down Act: A Federal Law Prohibiting Nonconsensual Intimate Images — Congressional Research Service





Advertisement