Un milliard de dollars et un delai manque
Le 12 janvier 2026, Apple et Google ont annonce un partenariat pluriannuel visant a reconstruire Siri autour de la technologie d’IA Gemini de Google. Dans le cadre de cet accord, Apple versera a Google environ 1 milliard de dollars par an pour exploiter un modele Gemini personnalise de 1 200 milliards de parametres — soit huit fois plus que le systeme d’environ 150 milliards de parametres qui alimente actuellement Apple Intelligence.
L’accord en fait l’un des plus importants contrats de licence d’IA de l’histoire. Le nouveau Siri devait initialement etre lance avec iOS 26.4 au printemps 2026. Mais lorsqu’Apple a publie iOS 26.4 le 24 mars, le nouveau Siri etait introuvable. Des tests internes avaient revele des problemes critiques de qualite — Siri coupant la parole aux utilisateurs, echouant sur les requetes multi-etapes et affichant des temps de reponse lents — forcant Apple a repousser les fonctionnalites a iOS 26.5 (prevu en mai 2026) et potentiellement iOS 27 (septembre 2026).
Ce retard souligne une verite difficile : meme avec un modele d’un trillion de parametres et un budget d’un milliard de dollars, livrer un assistant IA fiable est plus difficile que de construire la technologie sous-jacente.
Pourquoi Apple s’est tourne vers l’exterieur
Le probleme fondamental de Siri a toujours ete architectural. Depuis son lancement en 2011, Siri fonctionne comme un systeme de classification d’intentions : les requetes des utilisateurs sont comparees a un ensemble predefini de commandes. « Mets un minuteur de 10 minutes » fonctionne parfaitement. « Trouve l’e-mail de mon dentiste de la semaine derniere et ajoute le rendez-vous a mon calendrier » echoue, car cela necessite un raisonnement contextuel, une recherche inter-applications et une execution multi-etapes que les classificateurs d’intentions ne peuvent pas gerer.
Les tentatives internes d’Apple pour moderniser Siri — notamment une equipe de plusieurs centaines d’ingenieurs constituee vers 2022 et l’initiative Apple Intelligence annoncee a la WWDC 2024 — ont produit des ameliorations incrementales (outils d’ecriture, resumes d’e-mails, priorisation des notifications) mais n’ont jamais permis le saut architectural fondamental necessaire pour rivaliser avec les modeles de classe GPT-4 et suivants.
Le calcul construire-ou-acheter a finalement penche vers l’achat. Entrainer un modele frontiere en partant de zero necessiterait des dizaines de milliers de GPU haut de gamme tournant pendant des mois. Google a deja realise cet investissement pour Gemini. Les frais de licence d’Apple donnent acces a un modele dans lequel Google a investi plusieurs fois plus, tout en permettant a Apple de concentrer ses propres ressources d’IA sur l’inference embarquee, l’ingenierie de la confidentialite et l’integration materiel-logiciel — des domaines ou l’entreprise dispose d’un veritable avantage concurrentiel.
Apple a evalue plusieurs fournisseurs avant de choisir Google. Notamment, Claude d’Anthropic aurait ete en lice pour alimenter le nouveau Siri, mais les exigences tarifaires d’Anthropic — plusieurs milliards de dollars par an, avec un doublement chaque annee — ont rendu l’accord impossible. Apple maintient egalement son integration ChatGPT existante dans Siri (introduite dans iOS 18.2), qui se poursuit parallelement au partenariat avec Gemini.
Ce que promet le nouveau Siri
Conscience de l’ecran
La fonctionnalite la plus transformatrice prevue est la conscience du contexte a l’ecran — la capacite de Siri a comprendre ce qui est actuellement affiche sur l’ecran de l’utilisateur et a integrer ce contexte dans ses reponses et actions. Un utilisateur consultant la page web d’un restaurant pourrait dire « reserve ici pour samedi a 19h » et Siri identifierait le restaurant, localiserait son systeme de reservation et lancerait la reservation.
L’implementation s’appuie sur les capacites multimodales de Gemini, qui traite une description semantique structuree des elements d’interface visibles plutot que des captures d’ecran brutes. La conscience de l’ecran est concue pour fonctionner avec toutes les applications natives Apple et les applications tierces utilisant les frameworks UI standard d’iOS.
Chaines d’actions multi-etapes
Le Siri actuel peut executer des actions individuelles ou, dans des cas limites, deux actions liees. Le Siri alimente par Gemini est concu pour prendre en charge des chaines allant jusqu’a 10 actions sequentielles, chacune informee par les resultats des etapes precedentes. Une requete comme « Verifie mon calendrier de la semaine prochaine, trouve un apres-midi libre, redige un e-mail de reunion a mon equipe et joins le dossier du projet » impliquerait au moins cinq actions distinctes executees en sequence.
Chaque etape comprend un point de controle implicite — si une action produit un resultat inattendu, Siri s’arrete et demande a l’utilisateur comment proceder plutot que de continuer a l’aveugle. Cependant, c’est precisement cette fiabilite multi-etapes qui s’est averee problematique lors des tests internes, contribuant au retard d’iOS 26.4.
Architecture de confidentialite
Le modele de 1 200 milliards de parametres est trop volumineux pour tourner sur l’appareil. La solution d’Apple est Apple Private Cloud Compute (PCC) — une infrastructure cloud securisee utilisant des serveurs Apple Silicon ou les requetes complexes sont traitees dans des environnements chiffres et isoles. Google n’a jamais acces aux requetes brutes des utilisateurs ni a leurs donnees personnelles ; le modele Gemini tourne dans l’infrastructure d’Apple.
Les requetes simples — minuteurs, appels telephoniques, questions basiques — sont toujours traitees entierement sur l’appareil avec les modeles proprietaires plus petits d’Apple. Le chemin PCC alimente par Gemini ne s’active que pour les taches complexes.
Cela dit, des rapports indiquent qu’Apple envisage egalement d’executer certaines charges Siri sur les propres serveurs de Google, suggerant que l’infrastructure PCC seule pourrait ne pas suffire a gerer la demande a grande echelle.
Publicité
Ce que Google y gagne
Les conditions financieres — environ 1 milliard de dollars par an — sont significatives mais secondaires par rapport a la distribution. Les 2,5 milliards d’appareils actifs d’Apple representent le plus grand canal de distribution jamais atteint par un modele d’IA. Pour Google, qui peine a convertir les capacites techniques de Gemini en adoption grand public au-dela de Search, l’ecosysteme d’Apple resout le probleme de commercialisation que l’ingenierie seule ne peut resoudre.
L’accord valide egalement la qualite technique de Gemini. Le choix par Apple du modele de Google plutot que de construire le sien — ou de prendre une licence aupres d’OpenAI ou d’Anthropic — signale que Gemini est competitif pour ce cas d’usage specifique. Qu’Apple, une entreprise publiquement engagee en faveur de l’IA embarquee, ait conclu que le modele de Google valait un milliard de dollars par an envoie un signal de marche qu’aucune campagne marketing ne pourrait reproduire.
Les risques strategiques
Dependance et retard
Apple depend desormais d’un concurrent direct pour l’intelligence centrale de sa fonctionnalite d’IA phare. Le contrat pluriannuel offre une certaine protection, mais la vulnerabilite strategique est reelle. Apple continue d’investir dans sa propre recherche sur les modeles de fondation, considerant le partenariat Gemini comme un pont vers le developpement d’une alternative interne.
Le retard d’iOS 26.4 ajoute une dimension supplementaire a ce risque. Chaque mois sans le Siri ameliore erode la proposition de valeur de l’accord et donne aux concurrents comme OpenAI (via ses propres produits grand public) et Google Assistant (avec l’integration native de Gemini) plus de temps pour renforcer leurs positions.
Le decalage des attentes
Quand le nouveau Siri sera finalement livre, il sera radicalement plus performant que la version actuelle — et radicalement moins performant que ce que beaucoup d’utilisateurs attendent. L’ecart entre « peut enchainer 10 actions et comprendre votre ecran » et « peut faire tout ce qu’un assistant humain peut faire » est enorme. Gerer les attentes pourrait s’averer le plus grand defi d’Apple : un Siri dix fois meilleur mais qui echoue encore sur des taches que les utilisateurs pensent qu’il devrait gerer risque de paraitre frustrant plutot qu’impressionnant.
Le signal pour l’industrie
L’accord Apple-Google represente une maturation du modele economique de l’industrie de l’IA. Un petit nombre d’entreprises — Google, OpenAI, Anthropic et des laboratoires chinois comme DeepSeek et Baidu — construisent les modeles de fondation, tandis qu’un ecosysteme plus large integre ces modeles dans des produits, des appareils et des services.
Apple, l’entreprise la plus valorisee au monde, choisissant de prendre une licence plutot que de construire envoie un signal clair que cette structure n’est pas seulement viable mais optimale. Le cout de construction d’un modele frontiere est si eleve, et l’expertise requise si specialisee, que meme des entreprises valant des milliers de milliards choisissent rationnellement d’acheter plutot que de construire.
Pour les milliards d’utilisateurs qui attendent le nouveau Siri, l’origine du modele sous-jacent est sans importance. Ce qui compte, c’est si la mise a niveau finit par tenir ses promesses — et pour l’instant, « finalement » fait beaucoup de travail dans cette phrase.
Questions Fréquemment Posées
Le nouveau Siri alimente par Gemini prendra-t-il en charge l’arabe ?
Apple n’a pas confirme la liste complete des langues pour le Siri alimente par Gemini au lancement. Historiquement, Siri prend en charge l’arabe (arabe standard moderne et plusieurs variantes regionales) pour les commandes de base. Le modele Gemini dispose de fortes capacites multilingues incluant l’arabe, rendant un support complet techniquement realisable. Cependant, Apple deploie generalement les nouvelles fonctionnalites d’abord en anglais avant de les etendre a d’autres langues lors de mises a jour ulterieures. Le support de l’arabe pour les fonctionnalites avancees comme les chaines d’actions et la conscience de l’ecran arrivera probablement apres le deploiement initial en anglais.
Apple envoie-t-il les donnees des utilisateurs a Google dans le cadre de ce partenariat ?
Non. Apple traite toutes les requetes Siri soit sur l’appareil (pour les requetes simples), soit via Apple Private Cloud Compute (pour les requetes complexes). Le modele Gemini tourne dans l’infrastructure d’Apple, pas celle de Google. Google a concede la licence du modele a Apple mais ne recoit pas les requetes des utilisateurs, les donnees personnelles ni le contenu des reponses. Cependant, des rapports recents suggerent qu’Apple pourrait aussi explorer l’execution de certaines charges Siri sur les serveurs de Google pour des raisons de capacite, ce qui pourrait compliquer cette image de confidentialite.
Pourquoi le nouveau Siri etait-il absent d’iOS 26.4 ?
Apple visait initialement iOS 26.4 (sorti le 24 mars 2026) pour le debut du Siri alimente par Gemini. Cependant, Bloomberg a rapporte en fevrier 2026 que des tests internes avaient revele des problemes critiques de qualite : Siri coupait la parole aux utilisateurs, echouait sur les requetes multi-etapes complexes et affichait des temps de reponse lents. Apple a decide de repartir les fonctionnalites sur iOS 26.5 (prevu en mai 2026) et potentiellement iOS 27 (septembre 2026) plutot que de livrer une experience peu fiable.
—
Sources et lectures complémentaires
- Apple picks Google's Gemini to run AI-powered Siri coming this year — CNBC
- Google's Gemini to power Apple's AI features like Siri — TechCrunch
- Apple's iOS 26.4 Siri Update Runs Into Snags in Internal Testing — Bloomberg
- No new Siri, but iOS 26.4 is here with a ton of must-have new features — Macworld
- Apple confirms Gemini-powered Siri will use Private Cloud Compute — 9to5Mac
- Apple could have used Claude to power a future Siri, but Anthropic got greedy — AppleInsider
- Apple Explains How Gemini-Powered Siri Will Work — MacRumors
















