Siri & iOS 26.4 : un retard criant face à ChatGPT et Gemini

Siri & iOS 26.4 : un retard criant face à ChatGPT et Gemini

Alors qu’Apple vient de déployer iOS 26.4, les attentes étaient grandes autour de l’évolution de Siri, un assistant vocal souvent critiqué pour ses performances limitées. Pourtant, malgré les promesses d’amélioration de l’intelligence artificielle d’Apple, cette nouvelle version ne convainc ni les experts ni les utilisateurs. Dans un contexte où les agents conversationnels comme ChatGPT grimpent en popularité grâce à leurs capacités avancées de compréhension du langage, Siri reste en retrait. L’écart ne cesse de se creuser. Voici une analyse détaillée de la situation actuelle de Siri, face à une concurrence IA toujours plus agressive, et des réponses qu’Apple peine à apporter.

Siri sous iOS 26.4 : une mise à jour maigre face aux attentes croissantes

Une évolution en demi-teinte de l’assistant vocal d’Apple

Avec la mise à jour iOS 26.4, de nombreux utilisateurs anticipaient une refonte en profondeur de Siri. L’intégration de technologies d’IA générative, sur le modèle de ce que propose OpenAI avec ChatGPT, était attendue. Mais la réalité déçoit : les améliorations se limitent à des ajustements mineurs. Aucune avancée notable n’a été observée en matière de compréhension contextuelle, de traitement naturel du langage ou de génération proactive de réponses.

Plus préoccupant encore, plusieurs rapports en interne chez Apple, relayés par Les Numériques, indiquent que des tensions traversent les équipes. Certains employés se montrent sceptiques quant à la direction prise, redoutant un décrochage technologique durable dans un domaine pourtant stratégique.

La pression montante des grands modèles de langage

Alors que Siri plafonne, ailleurs l’intelligence artificielle progresse à une vitesse fulgurante. ChatGPT, notamment dans sa dernière itération GPT-5, incarne aujourd’hui une IA conversationnelle capable de comprendre des requêtes complexes, de générer du code, des résumés, ou encore de nouer une conversation continue et cohérente. Google, de son côté, pousse Gemini, son propre moteur IA, renforçant davantage cette pression concurrentielle.

Face à ces IA qui révolutionnent la productivité et l’interaction linguistique, l’interface de Siri paraît datée. Il reste cantonné à une logique de commandes vocales catégoriques, souvent rigides, sans capacité de raisonnement ou de génération spontanée enrichie.

Une comparaison défavorable entre Siri et ChatGPT

Compréhension conversationnelle : un gouffre technologique

Le cœur du problème réside dans l’incapacité de Siri à maintenir des conversations fluides sur plusieurs échanges. Là où ChatGPT (notamment via GPT-4o et GPT-5) est capable de reprendre le fil d’un dialogue, de contextualiser une réponse par rapport à une demande précédente et même de détecter l’intention sous-jacente, Siri fonctionne toujours sur un paradigme d’interaction fragmentée et peu adaptative.

Par exemple, demander à ChatGPT : « Quel est le meilleur moment pour publier sur LinkedIn ? » pourra entraîner une réponse contextualisée selon la date, le fuseau horaire et les bonnes pratiques actuelles. Reposer une question complémentaire (« Et pour une audience B2B française ? ») amènera une réponse spécifique, construite sur la continuité du fil de discussion. Siri, en revanche, ne comprend pas la contextualisation dans l’échange. Chaque requête doit presque être redéfinie intégralement.

Productivité et création de contenu : ChatGPT creuse l’écart

Sur les cas d’usages professionnels, la domination de ChatGPT est indiscutable. Les dernières fonctions du chatbot d’OpenAI, comme l’analyse de documents, la génération de rapports ou la modification de fichiers, en font un véritable copilote numérique à destination des étudiants, chercheurs, créateurs de contenu et cadres d’entreprise.

À l’inverse, Siri reste enfermé dans le cadre simple de commandes vocales — lancer une playlist, envoyer un message, ou régler une alarme. Ces fonctions sont utiles mais n’intègrent aucune forme de valeur générative ou de personnalisation intellectuelle.

Les concurrents n’attendent pas Siri : Gemini et Grok en embuscade

Google renforce Gemini et dépasse les attentes

Selon les dernières analyses recensées par Les Numériques, Google renforce considérablement son moteur IA Gemini, qui bat des records en performance dans ses dernières versions Gemini 1.5 et même Gemini Nano Banana, spécifiquement conçue pour les usages sur smartphones et objets connectés. Ce modèle offre une IA fluide, proactive et multitâche, déjà intégrée dans Android. Google a clairement mis le cap sur des assistants intelligents capables d’élaborer des synthèses, de comprendre l’environnement de l’appareil et de proposer des actions pertinentes. Siri, lui, plafonne.

Grok, l’IA d’Elon Musk, entre dans la course avec de nouvelles capacités

Le projet Grok de xAI, la startup d’Elon Musk, ajoute une couche de pression supplémentaire sur Apple. Dernièrement, ce système IA a été doté de capacités de vision via la caméra de l’iPhone, dans le cadre de tests menés sur iOS. Ce type d’intégration, capable d’analyser en temps réel des scènes, objets ou documents physiques pour proposer des actions ou des réponses personnalisées, anticipe une nouvelle ère de l’IA multisensorielle — un terrain sur lequel Siri est totalement absent.

Perplexity et HuggingChat débarquent sur iOS

Deux nouveaux acteurs font également leur apparition directement sur iPhone, en l’absence d’un Siri amélioré. Perplexity AI et HuggingChat — toutes deux des IA open source et multi-modèles — débarquent avec leurs interfaces optimisées pour iOS. Ces applications proposent des expériences similaires à ChatGPT, avec des capacités d’interrogation de documents, de génération de contenu longue traîne, ou de réponse immédiate à des questions très spécifiques.

Perplexity se positionne même comme un moteur de recherche conversationnel, intelligent et libre, alternative directe à Google Search et Siri.

L’abandon de la course par Apple ? Retards, inquiétudes et annonces peu crédibles

Des retards longs et inexplicables

Les signaux de retard s’accumulent du côté d’Apple. Début mars 2025, la firme a finalement confirmé officiellement le report du « Siri nouvelle génération ». Initialement prévu pour iOS 26, son déploiement est maintenant repoussé à une date indéterminée. Pour certains observateurs, comme le souligne Les Numériques, Apple accuserait jusqu’à deux ans de retard sur la concurrence. Une estimation catastrophique quand on connaît la vitesse de développement actuelle des technologies de modèles de langage.

Un contexte de tension interne signalé par les employés

Selon une fuite relayée le 19 octobre 2025, des signalements internes alertent sur une perte de sens et de cap stratégique. Les ingénieurs impliqués dans Siri font état d’instructions contradictoires, d’un manque de ressources en IA et d’un sentiment d’abandon du produit phare qu’est Siri, au profit d’initiatives plus confidentielles dans le secteur de la santé et des objets portables.

Une dépendance croissante à des partenaires externes ?

D’étranges discussions ont également émergé entre Apple et OpenAI autour d’un possible accord technologique, probablement pour intégrer une partie des modèles GPT dans l’écosystème Apple. Face au retard de Siri, la firme pourrait se résoudre à faire appel à des tiers — rendant obsolète sa position historique d’indépendance technologique hautement verrouillée.

Perspectives : quelles pistes pour relancer Siri dans la course à l’IA ?

L’ouverture à l’open source, une voie crédible ?

En observant la stratégie d’OpenAI, qui vient de lancer GPT‑OSS (un modèle open source aux capacités bridées mais disponibles sans dépendance cloud), une piste s’esquisse pour Apple. Ses équipes pourraient baser une version « locale » de Siri sur un LLM open source, permettant à la fois confidentialité et personnalisation embarquée.

C’est d’autant plus pertinent si l’on considère les critiques environnementales envers l’IA centralisée. Un rapport indique qu’un seul entraînement de GPT peut consommer autant d’énergie que trois jours d’une petite ville. Un Siri intelligent, local et économe en énergie deviendrait alors un avantage compétitif.

Une intégration cross-device encore sous-exploitée

Fort de son contrôle sur ses écosystèmes matériels (Mac, iPhone, iPad, AirPods, Apple Watch), Apple possède un levier unique pour offrir une expérience IA omnicanale fluide. Or, Siri reste unilatéral et non proactif. Une refonte pourrait mettre à profit les signaux biométriques de l’Apple Watch, les habitudes de navigation Safari, ou encore le contexte des applications ouvertes.

Cette perspective d’un « Siri Ubiquitaire », qui s’ajuste à l’utilisateur en temps réel sur tous ses appareils, pourrait redonner un second souffle à l’ambition initiale d’Apple dans les assistants numériques.

Conclusion : un statu quo inquiétant pour Apple au cœur de la révolution IA

Avec iOS 26.4, Apple laisse échapper une nouvelle occasion majeure d’affirmer Siri dans la compétition féroce des intelligences conversationnelles avancées. Pendant que ChatGPT, Gemini, Grok et autres repoussent toujours plus loin les limites du possible, Siri réitère ses erreurs historiques : manque de vision, absence de contextualisation et pauvreté fonctionnelle.

Le retard accumulé, désormais reconnu en interne, pourrait bientôt devenir irrattrapable, à moins d’un revirement stratégique majeur, d’une alliance technologique forte ou d’un repositionnement radical. Apple, qui a déjà manqué la vague des moteurs de recherche, peut-elle se permettre de rater celle de l’IA générative ? L’avenir le dira — mais l’urgence est palpable.

Retour en haut