Le déficit de vérification dont personne ne parle
Andrej Karpathy a inventé le terme « vibe coding » dans un message publié sur X en février 2025, décrivant une pratique où les développeurs « s’abandonnent aux vibes » et laissent l’IA écrire leur code. En un an, le vibe coding est passé d’une expression accrocheuse — désignée Mot de l’année 2025 par le Collins English Dictionary — au mode par défaut d’une part considérable du développement logiciel.
Les chiffres confirment la profondeur de cette pénétration. La recherche de DX portant sur 121 000 développeurs dans plus de 450 entreprises a établi que 92,6 % utilisent un assistant de codage IA au moins une fois par mois, dont environ 75 % chaque semaine. Selon l’enquête State of Code 2026 de Sonar, l’IA représente 42 % de tout le code soumis — un volume que les développeurs estiment atteindre 65 % d’ici 2027.
Mais c’est ici que les chiffres deviennent alarmants. Cette même enquête Sonar révèle que 96 % des développeurs ne font pas entièrement confiance au code généré par l’IA, et pourtant seulement 48 % le vérifient systématiquement avant de le soumettre. Cet écart de vérification — adoption massive, surveillance minimale — est le moteur d’une crise de sécurité à l’échelle de l’industrie logicielle.
Quel est le niveau de vulnérabilité du code généré par l’IA ?
Le rapport « State of AI vs Human Code Generation » de CodeRabbit, analysant 470 pull requests réelles, a constaté que le code généré par l’IA produit 1,7 fois plus de problèmes que le code humain dans les catégories logique, maintenabilité, sécurité et performance. Sur certains types de vulnérabilités spécifiques, les écarts se creusent davantage : le code IA est 2,74x plus susceptible d’introduire des failles de cross-site scripting (XSS), 1,91x plus susceptible de créer des références d’objets non sécurisées et 1,88x plus susceptible de mal gérer les mots de passe.
Une recherche indépendante d’Apiiro, examinant des entreprises du Fortune 50, a établi que les vulnérabilités avec un score CVSS de 7,0 ou plus apparaissent 2,5 fois plus souvent dans le code généré par l’IA que dans le code écrit par des humains.
L’équipe de sécurité d’Escape.tech a mis ces risques en termes concrets. Après avoir analysé plus de 5 600 applications vibe-codées déployées publiquement sur des plateformes comme Lovable, Bolt.new et Base44, elle a identifié plus de 2 000 vulnérabilités à fort impact, plus de 400 secrets exposés — clés API, identifiants de base de données, jetons d’authentification — et 175 cas où des données personnelles, y compris des dossiers médicaux et des informations financières, étaient accessibles publiquement.
La plateforme Lovable illustre parfaitement ce schéma. Lorsque des chercheurs ont analysé 1 645 applications construites avec Lovable, 170 d’entre elles — soit 10,3 % — avaient des bases de données entièrement exposées sans aucune Row-Level Security activée, ce qui leur a valu le CVE-2025-48757. En février 2026, un autre chercheur a découvert 16 vulnérabilités dans une seule application vitrine de Lovable qui exposait les données personnelles de plus de 18 000 utilisateurs.
Pourquoi les modèles d’IA produisent du code non sécurisé
Comprendre la cause profonde nécessite d’examiner la manière dont les grands modèles de langage abordent la génération de code. Ces modèles s’entraînent sur d’immenses corpus tirés de dépôts publics, de tutoriels et de réponses Stack Overflow — du code qui privilégie la clarté et la démonstration plutôt que la sécurité défensive.
Une réponse Stack Overflow illustrant des requêtes de base de données utilise typiquement la concaténation de chaînes plutôt que des requêtes paramétrées, car c’est plus facile à comprendre. Le modèle, entraîné sur des milliers d’exemples similaires, intériorise ce schéma comme l’approche par défaut. Les configurations de sécurité sont dépendantes du contexte — les contrôles d’accès et le chiffrement appropriés dépendent d’environnements de déploiement et de modèles de menace spécifiques qu’un prompt générique ne peut saisir.
Plus fondamentalement, les modèles d’IA sont dépourvus de pensée adversariale. Ils génèrent du code qui traite les entrées attendues et produit les sorties attendues. Ils n’anticipent pas ce qui se passe lorsqu’un attaquant envoie des données malformées, exploite des conditions de concurrence ou enchaîne des vulnérabilités mineures pour obtenir une élévation de privilèges. Cette mentalité adversariale — penser comme un attaquant — est précisément ce que les ingénieurs en sécurité apportent à la revue de code, et précisément ce que le flux de travail du vibe coding contourne.
Publicité
L’alerte Moltbook
Les risques théoriques sont devenus viscéralement réels en février 2026 lorsque les chercheurs en sécurité de Wiz ont examiné Moltbook, une plateforme de réseau social pour agents IA entièrement vibe-codée. Une clé API Supabase exposée dans le JavaScript côté client, combinée à une Row-Level Security totalement absente, donnait aux utilisateurs non authentifiés un accès complet en lecture et écriture à l’ensemble de la base de données de production.
Les données exposées comprenaient 1,5 million de jetons d’authentification API, 35 000 adresses e-mail, des messages privés entre agents et des clés API OpenAI en clair partagées dans les conversations. N’importe quel compte de la plateforme pouvait être détourné avec un seul appel API. L’incident a démontré comment la vulnérabilité fondamentale du vibe coding — livrer du code fonctionnel sans revue de sécurité — peut transformer une clé API publique standard en une porte dérobée de niveau administrateur.
Le paradoxe de la confiance
L’enquête développeurs de Stack Overflow a documenté un changement frappant : la perception favorable des outils de codage IA a chuté de 72 % à 60 % en une seule année. Les données de Sonar sont encore plus sévères — 61 % des développeurs reconnaissent que « l’IA produit souvent du code qui semble correct mais n’est pas fiable », et 38 % affirment que la revue du code généré par l’IA demande plus d’effort que la revue du code écrit par des collègues.
Pourtant, le comportement n’a pas rattrapé la prise de conscience. Les développeurs déclarent moins de confiance mais continuent de livrer du code généré par l’IA au même rythme, voire plus. Les incitations à la productivité — livraison plus rapide, plus de fonctionnalités par sprint, pression concurrentielle des startups IA-natives — l’emportent sur les préoccupations de sécurité. Les organisations savent que les risques existent mais n’ont pas restructuré leurs flux de développement ni leurs processus de revue de sécurité pour s’adapter au profil de risque fondamentalement différent du code généré par l’IA.
Ce que font différemment les équipes matures
Les organisations qui gèrent efficacement cette crise traitent les assistants de codage IA comme des multiplicateurs de force pour des développeurs compétents, non comme des substituts de pratiques de développement compétentes. Plusieurs schémas se dégagent.
Processus de revue en couches. Le code généré par l’IA passe par une analyse de sécurité automatisée, une génération automatisée de tests, une revue par les pairs avec une attention particulière aux schémas de sécurité, et une revue de l’équipe sécurité pour les composants sensibles. C’est plus lent que le vibe coding brut, mais considérablement plus rapide que tout écrire manuellement.
Prompting orienté sécurité. Au lieu d’accepter la sortie par défaut de l’IA, les développeurs incluent explicitement les exigences de sécurité. « Construis un système de connexion » devient « construis un système de connexion avec des requêtes paramétrées, du hachage bcrypt, de la limitation de débit, une protection CSRF et une gestion sécurisée des sessions ». Les résultats sont mesurablment meilleurs, bien qu’encore imparfaits.
Contrôles au niveau de l’architecture. Plutôt que de s’appuyer entièrement sur le code applicatif pour la sécurité, les organisations déploient des passerelles API avec limitation de débit intégrée, un réseau zero-trust, des contrôles d’accès au niveau de la base de données indépendants du code applicatif, et des modèles d’infrastructure-as-code qui imposent des bases de sécurité quelle que soit la qualité du code.
Métriques de sécurité spécifiques à l’IA. Au-delà de la vélocité, les équipes matures suivent la densité de vulnérabilités par module généré par l’IA, le temps de détection des failles introduites par l’IA, et le pourcentage de code généré par l’IA qui passe la revue de sécurité sans modification.
La question de la responsabilité
À mesure que le code généré par l’IA prolifère dans les systèmes de production, le paysage juridique évolue. La loi européenne sur l’IA, dont les obligations pour les systèmes à haut risque entrent en vigueur le 2 août 2026, classe les modèles d’IA à usage général sous des exigences de transparence et de documentation. La non-conformité entraîne des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial, les dirigeants faisant face à une responsabilité personnelle potentielle.
Les cadres juridiques actuels n’ont pas été conçus pour du code écrit ni par un développeur humain ni par un produit logiciel traditionnel. La responsabilité du fait des produits présume un fabricant humain. La négligence professionnelle présume un jugement humain. Le code généré par l’IA tombe dans un vide entre ces cadres — un vide que les régulateurs, les assureurs et les tribunaux commencent seulement à combler.
L’implication pratique est claire : l’hypothèse selon laquelle le code généré par l’IA peut être déployé avec la même gouvernance que le code écrit par des humains devient juridiquement intenable. Les organisations ont besoin de documentation, de pistes de revue et de validation de sécurité démontrant la diligence raisonnable.
Questions Fréquemment Posées
Qu’est-ce que le vibe coding et pourquoi est-il devenu un problème de sécurité ?
Le vibe coding est la pratique consistant à utiliser des assistants de codage IA pour générer des portions substantielles de code applicatif à partir de prompts en langage naturel, souvent sans revue approfondie ligne par ligne. Inventé par Andrej Karpathy en février 2025, le terme décrit les développeurs qui « s’abandonnent aux vibes » et livrent la production de l’IA avec un examen minimal. C’est devenu un problème de sécurité car l’analyse de CodeRabbit portant sur 470 pull requests a établi que le code généré par l’IA produit 1,7x plus de problèmes que le code humain, avec des types de vulnérabilités spécifiques comme le cross-site scripting apparaissant à un taux 2,74x supérieur. L’analyse d’Escape.tech de 5 600 applications vibe-codées a révélé plus de 2 000 vulnérabilités et 400+ secrets exposés dans des systèmes en production.
Les organisations peuvent-elles utiliser les outils de codage IA en toute sécurité, ou doivent-elles les éviter ?
Les outils de codage IA peuvent être utilisés en toute sécurité, mais ils nécessitent une gouvernance différente du développement traditionnel. L’essentiel est de traiter la production de l’IA comme un premier brouillon nécessitant une revue de sécurité, et non comme du code prêt pour la production. Les organisations qui implémentent des processus en couches — analyse de sécurité automatisée dans le CI/CD, revue par les pairs sensibilisée à l’IA, et supervision humaine obligatoire pour les composants critiques en sécurité comme l’authentification et l’accès aux données — peuvent capturer les bénéfices de productivité tout en gérant le risque de vulnérabilités. L’enquête Sonar 2026 a constaté que les équipes qui vérifient systématiquement le code IA avant de le soumettre réduisent significativement leur exposition par rapport aux 52 % qui ne le font pas.
Qui est juridiquement responsable lorsque du code généré par l’IA provoque une violation de données ?
L’organisation déployant le code assume la responsabilité principale en vertu des réglementations de protection des données comme le RGPD et les cadres de conformité sectoriels. La loi européenne sur l’IA, dont les obligations pour les systèmes à haut risque entrent en vigueur le 2 août 2026, ajoute de nouvelles couches : les amendes pour non-conformité atteignent 35 millions d’euros ou 7 % du chiffre d’affaires mondial, et les dirigeants font face à une responsabilité personnelle potentielle. Les fournisseurs d’outils IA ont actuellement une responsabilité limitée en vertu des accords de licence, bien que cela évolue. L’enseignement pratique est que les organisations doivent documenter leurs processus de revue du code IA pour démontrer leur diligence raisonnable — l’hypothèse selon laquelle le code généré par l’IA peut être gouverné comme le code humain devient juridiquement intenable.
—
Sources et lectures complémentaires
- Escape.tech — Methodology: 2K+ Vulnerabilities in Vibe-Coded Apps
- CodeRabbit — State of AI vs Human Code Generation Report
- Sonar — State of Code Developer Survey Report 2026
- Wiz — Exposed Moltbook Database Reveals Millions of API Keys
- Stack Overflow — Closing the Developer AI Trust Gap
- Superblocks — Lovable Vulnerability Explained: How 170+ Apps Were Exposed
- DX — Measuring AI Code Assistants and Agents
- The Register — AI-Authored Code Needs More Attention, Contains Worse Bugs















