⚡ Points Clés

L’indice 2025 de transparence des modèles de fondation de Stanford a chuté à un score moyen de 40 sur 100, contre 58 l’année précédente — un effondrement de 18 points en une seule année. Meta a coupé son score environ de moitié (60 à 31), Mistral est tombée de 55 à 18, et Meta et OpenAI sont passées de première et deuxième en 2023 à dernière et avant-dernière en 2025. IBM est l’outlier positif à 95 ; xAI et Midjourney se situent à 14. L’effondrement est arrivé exactement au moment où la California AB 2013 est entrée en vigueur le 1er janvier 2026 et où les obligations GPAI de l’EU AI Act ont commencé à s’appliquer à tout LLM frontière.

En résumé : Ajoutez des divulgations de type FMTI sur les données d’entraînement et le calcul à chaque contrat d’achat public et réglementé ce trimestre — la transparence volontaire n’est plus le minimum.

Lire l’analyse complète ↓

Publicité

🧭 Radar de Décision

Pertinence pour l’Algérie
Élevée

Les banques, hôpitaux, opérateurs télécoms et agences publiques algériens commencent à adopter des modèles de fondation sans la capacité de vérifier la provenance des données d’entraînement, la posture de licence ou l’exposition au droit d’auteur.
Infrastructure prête ?
Partielle

Les équipes d’achat ont des processus de revue des fournisseurs basiques mais peu ont des critères de transparence de type FMTI dans leurs contrats.
Compétences disponibles ?
Limitées

La littératie en politique IA est concentrée dans un petit cercle d’universitaires ; la plupart des acheteurs d’entreprise n’ont pas la capacité interne d’évaluer les revendications de transparence des modèles.
Calendrier d’action
Immédiat

Le langage des contrats peut être mis à jour ce trimestre ; les cadres de souveraineté sont une piste de 12-24 mois.
Parties prenantes clés
ARPCE, MPTN, CIO du secteur public, CIO de banques, directeurs IT d’hôpitaux, chercheurs IA algériens
Type de décision
Stratégique

Normes d’achat et posture de souveraineté, pas simplement un choix tactique de fournisseur.

En bref : Pour les acheteurs publics algériens et les entreprises régulées, l’effondrement du FMTI est un argument direct pour exiger des divulgations de type FMTI comme condition d’achat. Les options open-weights (Mistral, DeepSeek, famille Llama) et les fournisseurs exceptionnellement transparents (IBM à 95 points) offrent une alternative significative — et copier la base de l’AB 2013 de la Californie dans l’achat public est une première étape bon marché et implémentable pendant que le combat UE-USA se joue.

Les modèles les plus capables sont désormais les plus opaques

Le Foundation Model Transparency Index (FMTI) 2025, publié par le Stanford Center for Research on Foundation Models et le Stanford Institute for Human-Centered AI, a livré le signal le plus net sur une seule année concernant l’opacité de l’IA depuis le lancement de l’indice en 2023. À travers 100 indicateurs couvrant les données d’entraînement, le calcul, l’architecture des modèles, les capacités, les risques, l’usage et l’impact en aval, le score moyen de transparence a chuté à 40 points sur 100, contre 58 l’année précédente.

Les baisses individuelles par entreprise ont été encore plus vives. Meta, top-deux performer en 2023, a coupé son score environ de moitié — de 60 à 31. Mistral, autrefois vu comme un leader européen de la transparence, s’est effondré de 55 à 18. Des six entreprises évaluées dans les trois éditions de l’indice, Meta et OpenAI sont passées de première et deuxième en 2023 à dernière et avant-dernière en 2025. IBM a émergé comme un outlier positif clair à 95 ; xAI et Midjourney se trouvent au bas à 14 chacune.

Le schéma est sans ambiguïté : à mesure que les modèles de fondation sont devenus plus commercialement précieux, les entreprises qui les construisent sont devenues régulièrement moins disposées à divulguer comment ils sont construits.

Ce que les labs IA cachent

Le FMTI mesure la transparence à travers trois domaines de haut niveau : amont (ressources utilisées pour construire le modèle), modèle (propriétés du modèle lui-même) et aval (comment le modèle est utilisé et affecte les utilisateurs). Le rapport 2025 a identifié quatre zones d’« opacité systémique » — sujets où essentiellement toute l’industrie obtient désormais de mauvais scores :

  • Données d’entraînement — les datasets spécifiques utilisés, comment ils ont été acquis, quelles conditions de travail les ont produits, et si des données protégées par le droit d’auteur ou personnelles sont incluses
  • Calcul d’entraînement — le matériel, les heures et l’empreinte carbone des runs d’entraînement
  • Usage du modèle — qui utilise réellement le modèle, pour quoi, et à quel volume
  • Impact en aval — effets mesurables sur les marchés du travail, les écosystèmes d’information et le bien-être des utilisateurs

Dans les années précédentes, les meilleurs labs divulguaient des informations significatives dans au moins deux de ces quatre domaines. D’ici 2025, la tendance est au silence presque total à travers les quatre pour les entreprises qui construisent les modèles les plus capables. Les résumés de datasets d’entraînement se sont amincis en descriptions d’un paragraphe. Les comptes de paramètres sont de plus en plus retenus. Les budgets de calcul sont caviardés. Le monitoring par tiers est refusé.

Pourquoi l’effondrement s’est produit maintenant

Trois forces ont convergé pour accélérer le déclin.

La première est la pression concurrentielle. Les modèles de fondation sont devenus l’une des catégories les plus stratégiquement précieuses de la tech, et les labs leaders traitent de plus en plus les recettes d’entraînement, les pipelines de données et les stratégies de calcul comme de la propriété intellectuelle centrale. Documenter publiquement un mix de données d’entraînement est, dans leur présentation, donner à un concurrent un raccourci.

La seconde est l’exposition juridique. Les procès très médiatisés sur le droit d’auteur de 2023-2025 — Getty v. Stability, The New York Times v. OpenAI, et des dizaines d’actions collectives au nom d’auteurs et d’artistes — ont créé de puissantes incitations à réduire la trace écrite sur les données d’entraînement. Une divulgation vague est plus facile à défendre qu’une divulgation spécifique.

La troisième est un changement culturel plus difficile à mesurer mais visible à l’intérieur des labs eux-mêmes. À mesure que la pression commerciale s’est intensifiée, les normes « recherche d’abord » qui produisaient des model cards et system cards détaillées en 2022 et 2023 se sont effritées. Les safety cards sont encore publiées, mais leur contenu quantitatif s’est aminci, et les évaluations externes pré-déploiement sont rendues publiques de manière moins fiable.

Publicité

Le contre-feu juridique est arrivé

L’effondrement de la transparence ne s’est pas produit dans un vide réglementaire. Il est arrivé juste au moment où la première vague de lois obligatoires de divulgation IA entrait en vigueur.

La California AB 2013 — le Training Data Transparency Act — est entré en vigueur le 1er janvier 2026. Elle exige que les développeurs de systèmes d’IA générative rendus disponibles aux utilisateurs californiens publient publiquement, sur leurs propres sites web, des résumés des datasets utilisés pour entraîner leurs modèles, y compris les sources de dataset, les types de données, si des matériaux protégés par le droit d’auteur ont été utilisés, et si des informations personnelles sont incluses. Les divulgations doivent être mises à jour après des modifications substantielles du modèle.

OpenAI, Anthropic et Google ont chacun publié leur documentation AB 2013 avant la date limite, bien qu’avec une variation notable en profondeur. xAI a contesté la loi devant une cour fédérale pour des motifs de secret commercial et de Premier Amendement, arguant que la divulgation imposée annule effectivement la valeur de son pipeline d’entraînement. Une cour fédérale de district a confirmé les exigences de transparence fondamentales, et l’affaire continue.

Les dispositions générales d’IA à usage général (GPAI) de l’EU AI Act, qui sont entrées en vigueur à travers 2025 et début 2026, exigent que tout fournisseur d’un modèle GPAI — y compris tous les LLM frontières — publie un résumé public des datasets utilisés pour l’entraînement, respecte les opt-outs du droit d’auteur et étiquette le contenu généré par IA. L’application par les États membres est encore en train de monter en puissance, mais la base juridique est désormais plus élevée que ce que la plupart des labs divulguent volontairement actuellement.

Superposé : un décret exécutif de la Maison Blanche de décembre 2025 proposant un cadre uniforme de politique fédérale d’IA qui pourrait préempter les lois d’État IA jugées incohérentes — une démarche largement lue comme une réponse au régime de divulgation plus agressif de la Californie. La bataille de préemption État-fédéral sera l’une des histoires déterminantes de la politique IA américaine de 2026.

Pourquoi cela compte au-delà de la conformité

La transparence n’est pas une préoccupation académique. C’est le fondement de trois choses que l’effondrement des scores met directement en péril.

Responsabilité. Sans divulgation significative des données d’entraînement, du calcul et de l’impact en aval, les chercheurs indépendants ne peuvent pas évaluer les affirmations que les labs font sur les capacités, la sécurité ou l’effet sociétal. La surveillance publique dépend de preuves que les labs ont cessé de fournir.

Confiance. Les entreprises adoptant les modèles de fondation à l’échelle — banques, hôpitaux, gouvernements — font de plus en plus face à un choix entre déployer des systèmes dont elles ne peuvent pas vérifier la provenance ou refuser de déployer du tout. L’effondrement du FMTI augmente directement le risque réputationnel et juridique du premier choix.

Régulation qui fonctionne réellement. Une politique construite sur l’auto-déclaration exige que les labs déclarent. Lorsque les labs construisant les modèles les plus conséquents divulguent moins que les fournisseurs de troisième niveau, toute la base de preuves pour une régulation sensée se dégrade. Les législateurs sont alors forcés de concevoir des règles pour un système qu’ils ne peuvent pas observer.

Ce qui restaurerait réellement la transparence

Les auteurs du FMTI soutiennent, et la plupart des observateurs en dehors des labs s’accordent, que la trajectoire est réversible — mais seulement avec une pression externe significative. Trois leviers ont le meilleur historique :

  1. Lois de divulgation exécutoires avec du mordant. La California AB 2013 et les obligations GPAI de l’EU AI Act sont des tentatives de première génération ; une application effective avec des pénalités significatives déterminera si elles changent le comportement.
  2. Pression d’achat. Les acheteurs d’entreprise et gouvernementaux peuvent exiger des divulgations de type FMTI comme condition des contrats. Plusieurs grands acheteurs UE évoluent déjà dans cette direction.
  3. Contre-normes industrielles. Le score de 95 points d’IBM démontre que la haute transparence est compatible avec la compétitivité commerciale. Plus important encore, l’écosystème open-weights — Mistral historiquement, DeepSeek, la famille Llama de Meta, et les labs ouverts plus petits — peut réinitialiser les normes de l’industrie si les acheteurs et chercheurs favorisent activement les fournisseurs transparents.

Aucun de ces leviers n’est garanti de fonctionner. Tous font face à une forte contre-pression des équipes juridiques et commerciales des labs. Mais l’indice 2025 donne aux décideurs politiques, acheteurs et chercheurs l’image quantitative la plus claire à ce jour de l’endroit où l’opacité se concentre et quels leviers la ciblent le plus directement.

En conclusion

L’environnement politique 2026 autour de la transparence IA est désormais défini par un écart qui s’élargit. D’un côté, les lois et cadres de divulgation deviennent plus stricts en Californie, à Bruxelles, et de plus en plus dans d’autres juridictions. De l’autre, les entreprises construisant les modèles les plus conséquents divulguent moins qu’il y a deux ans. Cet écart se fermera de l’une des deux manières suivantes : soit l’application force les labs à revenir vers une divulgation significative, soit les lois sont édulcorées sous la pression du lobbying et de la préemption.

L’indice de Stanford continuera à mesurer le résultat. Sur la trajectoire actuelle, l’édition 2026 a de la marge pour chuter davantage.

Suivez AlgeriaTech sur LinkedIn pour des analyses tech professionnelles Suivre sur LinkedIn
Suivez @AlgeriaTechNews sur X pour des analyses tech quotidiennes Suivre sur X

Publicité

Questions Fréquemment Posées

De combien la transparence a-t-elle réellement décliné dans l’indice 2025 ?

Le score moyen du Foundation Model Transparency Index a chuté de 58 en 2024 à 40 en 2025, un déclin de 18 points en une seule année. Meta est passée de 60 à 31 (environ la moitié), Mistral de 55 à 18 (plus des deux tiers). Des six entreprises évaluées dans les trois éditions, Meta et OpenAI sont passées de première et deuxième en 2023 à dernière et avant-dernière en 2025. IBM a émergé comme un outlier clair à 95.

Qu’exige la California AB 2013 et quand est-elle entrée en vigueur ?

AB 2013 — le Training Data Transparency Act — est entré en vigueur le 1er janvier 2026. Elle exige que les développeurs de systèmes d’IA générative rendus disponibles aux utilisateurs californiens publient publiquement des résumés de leurs datasets d’entraînement, y compris les sources, les types de données, si du matériel protégé par le droit d’auteur a été utilisé, et si des informations personnelles sont incluses. Les divulgations doivent être mises à jour après des modifications substantielles du modèle. OpenAI, Anthropic et Google ont publié leur documentation avant la date limite ; xAI conteste la loi pour des motifs de secret commercial et de Premier Amendement.

Quels leviers peuvent réellement restaurer la transparence ?

Des lois de divulgation exécutoires avec des pénalités significatives (AB 2013 et les obligations GPAI de l’EU AI Act), la pression d’achat des acheteurs d’entreprise et gouvernementaux exigeant des divulgations de type FMTI dans les contrats, et des contre-normes industrielles menées par des fournisseurs transparents comme IBM (95 points) et l’écosystème open-weights.

Sources et lectures complémentaires