En 2023, LinkedIn signalait que « AI Engineer » figurait parmi les titres de poste à la croissance la plus rapide sur sa plateforme — un rôle qui n’existait pratiquement pas trois ans auparavant. Pourtant, les recruteurs qui publiaient des offres sous ce titre décrivaient souvent des responsabilités indiscernables de celles d’un ML engineer, ou dans certains cas, d’un data scientist senior. Les appellations se multiplient tandis que les compétences sous-jacentes convergent discrètement. Pour quiconque cherche à construire une carrière dans le domaine de l’IA technique — ou à y recruter — la distinction entre ces trois titres n’a jamais été aussi confuse, ni aussi importante à clarifier.
Comment chaque rôle était traditionnellement défini
Le rôle de data scientist s’est cristallisé autour de 2012, lorsque Harvard Business Review l’a déclaré « le métier le plus sexy du XXIe siècle ». Dans son essence, ce rôle combinait analyse statistique, manipulation de données et suffisamment de compétences en programmation pour extraire des insights métier de grands ensembles de données. Les outils étaient Python et R, le livrable était l’insight, et le profil le plus proche dans l’organigramme était celui de l’analyste métier — mais avec une solide colonne vertébrale quantitative.
Le ML engineer est apparu un peu plus tard, à mesure que les entreprises passaient des expériences à la mise en production de modèles. Là où les data scientists construisaient des prototypes, les ML engineers bâtissaient des systèmes en production. Ils se souciaient du service de modèles, de la latence, des pipelines de réentraînement et de l’infrastructure nécessaire pour qu’un modèle fonctionne de façon fiable à grande échelle. Leur approche mentale était plus proche de l’ingénierie logicielle que de la statistique.
Le titre AI engineer est le plus récent et le plus contesté. Dans sa définition la plus claire, il désigne quelqu’un qui construit des applications et des produits sur la base de modèles de fondation pré-entraînés — en intégrant des API, en concevant des pipelines de prompts, en développant des systèmes de génération augmentée par récupération (RAG) et en orchestrant des workflows multi-agents. Contrairement au ML engineer, l’AI engineer entraîne rarement des modèles depuis zéro. Contrairement au data scientist, le livrable est un produit fonctionnel, pas une analyse.
Ces distinctions étaient nettes — en théorie. La réalité a toujours été plus complexe.
Pourquoi les frontières s’effacent
Trois forces structurelles ont dissous la séparation qui existait entre ces rôles.
La première est la montée en puissance des modèles de fondation. Lorsqu’un seul modèle pré-entraîné peut traiter des tâches qui nécessitaient autrefois des mois d’entraînement personnalisé, l’avantage distinctif du ML engineer — savoir construire et entraîner des modèles de deep learning de toutes pièces — perd de sa centralité dans le travail quotidien. Une plus grande partie du temps d’ingénierie est désormais consacrée à l’évaluation, au fine-tuning et à l’intégration plutôt qu’à la recherche en architecture. Cela rapproche le travail du ML engineer de celui de l’AI engineer.
La deuxième force est l’abstraction des plateformes. Les fournisseurs cloud et les éditeurs MLOps ont automatisé de larges pans du travail d’infrastructure ML qui nécessitait autrefois une expertise pointue. Des outils comme AWS SageMaker, Google Vertex AI et Databricks prennent en charge une grande partie de l’échafaudage de pipeline que le rôle du ML engineer définissait précédemment. À mesure que l’infrastructure devient un service géré, la charge cognitive se déplace en amont vers la définition du problème et en aval vers le déploiement — des territoires que le data scientist occupe déjà.
La troisième force est le stack LLM lui-même. Construire avec de grands modèles de langage exige des compétences qui traversent les trois rôles traditionnels : comprendre la qualité des données (data science), construire des API et des pipelines robustes (ML engineering) et concevoir des produits orientés utilisateurs (AI engineering). Un praticien qui travaille sur un système RAG en production en 2026 fait simultanément du travail sur les données, de l’ingénierie et du travail produit. Aucun titre historique ne couvre cela à lui seul.
Le Stack Overflow Developer Survey 2024 a capturé ce flou dans les données de recrutement : plus de 40 % des développeurs travaillant avec l’IA ont déclaré que leur titre ne reflétait pas fidèlement ce qu’ils faisaient réellement au quotidien.
Ce que les entreprises recrutent vraiment
Les offres d’emploi racontent une histoire plus honnête que les organigrammes. Une analyse de dizaines de milliers d’offres liées à l’IA sur les grandes plateformes de recrutement fin 2025 révèle plusieurs tendances.
Dans les grandes entreprises technologiques, les rôles restent plus différenciés. Les research scientists se concentrent sur le développement de modèles. Les applied scientists (une variante interne courante du titre data scientist) mènent des expériences et supervisent la qualité des modèles. Les ML engineers gèrent l’infrastructure de production. Les AI engineers développent des outils internes et des produits externes. La spécialisation survit parce que l’échelle la justifie.
Dans les entreprises de taille intermédiaire et les startups en croissance, le tableau est différent. Une seule offre d’emploi demande couramment Python, SQL, une familiarité avec PyTorch ou TensorFlow, de l’expérience avec les API LLM et une aisance avec le déploiement cloud — une liste qui couvre les trois rôles traditionnels. Les recruteurs ne cherchent pas un spécialiste étroit ; ils veulent quelqu’un capable de se déplacer fluidement dans le stack. L’enquête O’Reilly AI Adoption in the Enterprise 2024 a révélé que 62 % des organisations déclaraient ne pas trouver de candidats avec la bonne combinaison de compétences en IA appliquée — non pas parce que le vivier de talents était peu profond, mais parce que la combinaison requise ne correspondait à aucun diplôme ou parcours professionnel traditionnel.
Des titres comme « AI/ML Engineer », « Applied AI Engineer » et « ML Platform Engineer » prolifèrent précisément parce que les catégories existantes ne correspondent plus. Certaines entreprises ont discrètement cessé de distinguer les rôles en interne et appellent simplement tous les membres de l’équipe d’IA appliquée des « engineers », en différenciant par niveau de séniorité plutôt que par spécialisation.
Advertisement
Les compétences communes aux trois rôles
Si les rôles convergent, à quoi ressemble le profil de compétences partagé ? Plusieurs compétences apparaissent désormais comme des prérequis dans pratiquement toutes les offres d’emploi en IA/ML/DS.
La maîtrise de Python reste la lingua franca. Presque tous les rôles dans ce domaine l’exigent à un niveau intermédiaire à avancé, incluant la manipulation de données avec pandas, l’expérimentation de modèles avec scikit-learn ou PyTorch, et l’intégration d’API.
L’intuition statistique regagne en importance. Même les ingénieurs qui travaillent exclusivement avec des modèles pré-entraînés doivent les évaluer rigoureusement — comprendre les métriques, les distributions et les modes de défaillance exige des bases statistiques que les ingénieurs logiciels purs manquent souvent.
La maîtrise des LLM est devenue une attente quasi universelle. Une connaissance pratique du comportement des grands modèles de langage — leurs points forts, leurs modes d’échec, leur sensibilité aux prompts et les défis d’évaluation — est désormais supposée dans la plupart des rôles d’IA appliquée, quel que soit le titre.
Les fondamentaux MLOps — suivi des expériences, versionnage des modèles, orchestration de base des pipelines — ne sont plus l’apanage exclusif du ML engineer. Les data scientists et les AI engineers sont censés mettre leur travail en production sans passer le relais à une équipe séparée.
La communication et la formulation du problème restent le facteur différenciant sous-estimé. La capacité à traduire un problème métier en un problème d’IA traitable, puis à expliquer les limites de la solution à des parties prenantes non techniques, est systématiquement citée par les recruteurs comme la compétence la plus difficile à trouver et celle qui détermine le plus le succès au niveau senior.
Conseils de carrière pour 2026
Si vous entrez ou vous repositionnez dans ce domaine, résistez à la tentation de vous focaliser sur un seul titre. Les praticiens dont la carrière est la plus résiliente sont ceux capables de se déplacer dans le stack — pas nécessairement experts à chaque niveau, mais suffisamment à l’aise pour contribuer et communiquer avec des spécialistes de part et d’autre.
Pour ceux qui viennent du domaine de la data science, l’investissement le plus précieux est la culture de l’ingénierie de production : comprendre comment les modèles sont déployés, surveillés et mis à jour dans des systèmes réels. Pour ceux qui viennent de l’ingénierie logicielle ou du ML engineering, le fossé se situe souvent dans le raisonnement statistique et la capacité à travailler avec des données réelles non structurées et désordonnées avant qu’elles n’atteignent un pipeline propre.
Pour ceux qui entrent dans le domaine sans expérience préalable, le parcours « AI Engineer » — construire des produits et des systèmes sur des modèles de fondation existants — est actuellement le plus accessible et le plus demandé. La barrière à l’entrée est plus basse que pour l’entraînement de modèles personnalisés depuis zéro, la boucle de rétroaction est plus rapide et le besoin organisationnel est aigu.
La convergence de ces rôles n’est pas une menace pour la spécialisation. Les chercheurs en modèles de pointe, les spécialistes en infrastructure et les data scientists de domaine continueront d’avoir de solides débouchés. Ce qui change, c’est le niveau de référence — le plancher de compétences que tout praticien dans ce domaine est censé atteindre. Ce plancher monte, et il se situe désormais confortablement au-dessus de chacune des trois définitions de rôles originales.
Advertisement
Radar de Décision (Prisme Algérie)
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Élevée — Le secteur tech algérien développe rapidement ses capacités IA, rendant la clarté des rôles critique pour le recrutement et la formation |
| Infrastructure prête ? | Partielle — Bonne connectivité internet et accès au cloud ; infrastructure ML encore en cours de maturité |
| Compétences disponibles ? | Partielles — Excellents diplômés en mathématiques et informatique ; compétences en ML appliqué et AI engineering encore rares |
| Calendrier d’action | 6-12 mois |
| Parties prenantes clés | Départements informatiques universitaires, ANADE, startups tech, équipes numériques de Sonatrach |
| Type de décision | Stratégique |
En bref : Les employeurs tech algériens qui peinent à recruter pour leurs initiatives IA devraient cesser de chercher des « data scientists » au sens classique et recruter plutôt sur la base du profil convergent : maîtrise de Python, bases statistiques et culture des LLM. Pour les diplômés algériens, cette convergence est une opportunité — développer des compétences en AI engineering appliqué aujourd’hui vous positionne sur des rôles qui n’existaient pas il y a deux ans et que les entreprises locales cherchent activement à pourvoir.





Advertisement