2025 restera comme l’année où l’IA est devenue officiellement “agentique”. Le terme a parfois été galvaudé, mais il désigne un vrai saut : les modèles ne se contentent plus de répondre. Ils planifient, découpent un objectif en étapes, testent, corrigent et itèrent — notamment en code, où l’agent peut revenir en arrière, anticiper les erreurs et construire une solution complète.

Mais 2025 a révélé une limite structurelle : planifier n’est pas exécuter. Et surtout, le monde réel n’est pas une API propre, stable et documentée.

2026 pourrait donc être moins l’année “des agents” que l’année où les agents deviennent enfin opérationnels — parce qu’ils apprennent à travailler avec ce qui fait vraiment tourner nos vies numériques : les interfaces.


Deux trajectoires d’IA en 2026, deux impacts très différents

En 2026, deux grandes classes d’IA vont accélérer, mais elles n’auront pas le même impact au quotidien.

1) L’IA orientée monde physique (robotique)

Elle est fondamentale pour la robotique : perception, causalité, manipulation, incertitude, action. Son importance stratégique est énorme, mais sa diffusion restera relativement lente : des robots réellement fiables et accessibles ne vont pas envahir nos foyers du jour au lendemain.

2) L’IA “interface-native” (mobile, desktop, OS)

Cette trajectoire est immédiate : elle touche directement nos smartphones, ordinateurs et systèmes d’exploitation. Ici, l’enjeu n’est pas de piloter un bras robotique, mais de piloter des interfaces : apps, menus, formulaires, permissions, états visuels, erreurs silencieuses, latences, animations…

C’est cette IA-là qui peut “débloquer” des usages grand public dès cette année.


De l’IA agentique à l’IA interface-native : qu’est-ce qui change ?

Une IA interface-native n’est pas pensée d’abord pour appeler des APIs. Elle est pensée pour opérer l’interface, comme un humain :

  • elle “voit” l’écran (pixels / UI),
  • interprète des états visuels,
  • gère les latences et les transitions,
  • se heurte aux permissions, aux pop-ups, aux WebViews,
  • subit les bugs et les comportements non documentés.
En clair : elle affronte le même chaos logiciel que nous.

C’est pour cela que 2026 marque une rupture : l’agent devient utile quand il peut sortir des environnements contrôlés et agir dans des environnements “sale”, instables, multi-apps.


Le “split brain” : pourquoi l’intelligence se découpe (local + cloud)

Un concept clé de cette nouvelle génération d’agents est l’architecture “split brain” :

  • local (sur l’appareil) : perception, exécution rapide, boucles courtes, contraintes de sécurité, meilleure réactivité.
  • cloud : planification, raisonnement plus lourd, mémoire longue, arbitrages complexes.
Ce découplage n’est pas esthétique : il est imposé par la latence, l’énergie, la confidentialité et la fiabilité.

C’est aussi ce qui rend crédibles des assistants qui agissent “en vrai” tout en restant utilisables au quotidien (batterie, chauffe, réseau).


Les benchmarks changent : on ne mesure plus la réponse, on mesure la tâche

On voit cette bascule dans l’émergence de benchmarks orientés “exécution de tâches” plutôt que “bonne réponse”.

  • AndroidWorld évalue la capacité d’un agent à accomplir des tâches sur Android dans un environnement reproductible.
  • MobileWorld (papier) vise un monde plus difficile et moins “propre”, plus proche des conditions réelles.
Et les résultats publiés sur des agents GUI récents illustrent bien le sujet :
  • un score élevé sur AndroidWorld peut coexister avec un score beaucoup plus faible sur MobileWorld.
Ce n’est pas un échec : c’est un aveu de complexité. Le monde réel est dur.

Pour une lecture plus technique, voir aussi :



Apple Intelligence : une démonstration involontaire du problème “interface”

Apple a promis une IA capable de mieux comprendre l’iPhone. Dans la pratique, l’intégration a parfois semblé limitée. Ce n’est pas forcément un manque de talent : c’est que l’IA “interface-native” est un problème de systèmes.

  • En local, l’IA consomme batterie, mémoire, chauffe.
  • En cloud, on introduit latence, risques de confidentialité et contraintes de sécurité.
Apple illustre la difficulté de construire une architecture hybride vraiment fluide à grande échelle.

Et, fait notable côté industrie, Apple a annoncé un partenariat pluriannuel pour intégrer des modèles Gemini dans une version revue de Siri (avec un positionnement privacy via son infrastructure). Pour creuser :



Les “navigateurs IA” : utiles, mais encore trop “browser-centric”

Des initiatives comme les navigateurs IA sont souvent impressionnantes. Mais elles restent fréquemment limitées par leur nature :

  • elles opèrent surtout dans le navigateur (DOM, pages web),
  • elles deviennent moins fiables dès qu’on sort du cadre (apps natives, multi-app, permissions, étapes sensibles).
Même si l’expérience progresse, on hésite encore à déléguer des tâches critiques sans supervision (paiement, réservations, actions irréversibles).

Exemple :



Le facteur chinois : “système complet” plutôt que “LLM produit”

Un élément notable de cette course est l’approche “système” : device + cloud + perception + entraînement en conditions réelles. Certains acteurs chinois poussent fortement sur cet axe, avec des pipelines qui visent la robustesse opérationnelle plutôt que la démo.

Sur le sujet de l’IA interface-native, cette approche fait souvent la différence : la performance ne vient pas seulement du modèle, mais du système complet.


Ce qui devient crédible d’ici la fin de l’année

Si la trajectoire se confirme, on verra émerger des OS réellement “augmentés” par l’IA, pas juste décorés par quelques fonctions.

Exemples concrets (très plausibles) :

  • analyser vos emails et proposer des créneaux de réunion cohérents,
  • nettoyer une galerie photo (doublons, classement par période/personne),
  • préparer des notes de réunion à partir de plusieurs apps,
  • organiser des dossiers, pièces jointes et documents de travail.
Des tâches simples pour un humain, étonnamment complexes pour une IA tant qu’elle ne maîtrise pas l’interface et le contexte.


Ce que nous pensons chez Leadkong

Chez Leadkong, nous pensons que l’étape décisive en 2026 sera l’IA qui s’intègre dans l’action :

  • elle ne se contente pas d’expliquer,
  • elle exécute,
  • et elle le fait dans le chaos réel des outils du quotidien.
La valeur ne viendra pas seulement de “modèles plus intelligents”, mais de systèmes capables d’être fiables, contrôlables, et réellement utiles.


Conclusion – 2025 a rendu les agents visibles, 2026 va les rendre opérants

2025 a popularisé l’agentic AI : planifier, raisonner, itérer.

2026 pourrait être l’année où les agents deviennent vraiment utiles parce qu’ils apprennent à faire ce qui compte :
interagir avec nos interfaces, là où se trouve le désordre numérique quotidien.

Les agents étaient impressionnants.
L’IA interface-native peut les rendre enfin opérants.