Data / IA
L’IA agentique : le vrai moteur de la future révolution du travail
Par Marie Varandat, publié le 07 août 2025
Bien plus qu’un simple buzz, l’IA agentique bouleverse la donne : voilà des systèmes qui orchestrent, s’adaptent et prennent la main sur nos outils numériques, en toute autonomie. Une rupture radicale qui pose autant de promesses que de défis à l’échelle des entreprises.
Cela ne fait plus aucun doute. En 2025, l’intelligence artificielle est déjà entrée dans une nouvelle phase : celle des agents IA. Comme son nom le suggère, l’IA agentique possède une « agentivité » : la capacité d’agir et de choisir ses actions de façon autonome. Les humains définissent les objectifs, mais les agents déterminent comment les réaliser. Selon Charles Lamanna, de Microsoft : « On peut voir les agents comme les apps de l’ère de l’IA. »
Ces systèmes autonomes incarnent un changement profond dans l’approche de l’automatisation et du travail en entreprise. « Un agent, c’est bien plus qu’un chatbot, explique Kurt Muehmel, head of AI strategy chez Dataiku. Il prend des décisions, enchaîne des actions, vérifie les résultats et revient vers l’utilisateur avec une réponse contextualisée. »
Laurent Daudet
CEO de LightOn
« Je pense qu’on est encore très très loin d’avoir l’agent généraliste… C’est un peu le rêve de l’IA, l’agent capable de tout faire… »
Contrairement aux modèles génératifs classiques, l’IA agentique ne se contente donc pas de produire du texte. Elle agit. Un agent IA peut planifier, interagir avec des outils (ERP, CRM, API), et réaliser un ensemble de tâches sans supervision humaine à chaque étape. Laurent Daudet, CEO de LightOn, résume : « Un agent, c’est une IA qui a un objectif. Et pour l’atteindre, elle enchaîne plusieurs actions : recherches, analyses, exécution. »
Construire et déployer des agents
Les entreprises ont besoin de plateformes pour créer, héberger et orchestrer ces agents. Aussi tous les acteurs technologiques, à l’instar d’un Salesforce (avec AgentForce), tentent déjà d’imposer leurs solutions avant que les agents ne rendent leurs propres offres historiques obsolètes (Voir encadré « Une industrie logicielle réinventée ? » ci-dessous).
Chacun y va de son outil « no-code » pour développer des agents métiers rapidement, et de son « SDK » pour construire des agents plus complexes. Et l’envie d’emprisonner les entreprises dans leur écosystème est forte. Mais irréaliste.
L’univers agentique prend d’ailleurs conscience qu’il va avoir besoin de standards. Anthropic a publié en début d’année un protocole ouvert pour uniformiser la façon dont les agents IA accèdent aux sources de données avec sa spécification MCP, aujourd’hui officiellement endossée par OpenAI, Microsoft et Google.
De son côté, Google Cloud vient de dévoiler A2A, un protocole ouvert pour permettre aux agents d’interagir entre eux en toute sécurité, même s’ils sont hébergés sur des plateformes différentes. Reste à convaincre les autres de l’adopter alors qu’IBM a sa propre alternative (également développée en open source) dénommée ACP. Microsoft, OpenAI et Anthropic ont cependant déjà adoubé A2A, ce qui lui donne un impact plus immédiat.
Parallèlement, Microsoft a proposé son protocole open source NLWeb, pour créer un « Web agentique », et permettre ainsi d’uniformiser comment les sites et services Web existants se rendront compatibles avec les agents IA.
Les SDK pour mettre en œuvre ces protocoles commencent à apparaître sur tous les environnements. Comme souvent dans l’univers de l’IA, l’adoption est très rapide mais souvent incontrôlée et mal maîtrisée par ceux qui les mettent en œuvre. Ainsi le protocole MCP a connu quelques implémentations catastrophiques réduisant à zéro les sécurités d’accès aux données. Les entreprises comme les éditeurs apprennent sur le terrain et ça fait parfois mal.
Bien des défis à relever
Et c’est logique. L’IA agentique soulève de nouveaux enjeux, notamment en termes de sécurité. « Plus un agent gagne en autonomie, plus la gestion des accès devient complexe, prévient Kurt Muehmel. Chaque action qu’il enchaîne peut impliquer des systèmes différents, chacun avec ses propres règles de sécurité. Il faut donc orchestrer finement les droits, en tenant compte de l’identité de l’utilisateur, du contexte, et des données manipulées. C’est pourquoi la sécurité doit toujours être la première question posée en entreprise lorsqu’on parle d’agents, bien avant les considérations de coûts ou de performance. »
Au-delà de la gestion de cette sécurité qui s’annonce très complexe, les entreprises auront aussi besoin d’efficacité opérationnelle, d’observabilité et de gouvernance. « Ces agents IA ne sont pas que des outils, ils prennent des décisions, alerte Dael Williamson, EMEA CTO de Databricks. Ils exigent un nouveau niveau de contrôle. Mais, comme ils sont probabilistes et évolutifs, les gouverner est un défi structurel, pas uniquement technique. »
Dit autrement, les entreprises vont devoir s’adapter à l’ère agentique et cela ne se fera pas aussi facilement que veulent nous le faire croire les grands acteurs américains. Le fait est que les agents se multiplient un peu partout « en preview », souvent en accès limité, chez tous les acteurs du marché.
Mais pour l’instant, personne ne sait encore comment ils se comporteront quand les « gremlins » s’en mêleront, quand les rouages attendus d’automatisation se gripperont, quand la réalité faite d’inattendus de notre monde réel s’imposera à des agents dont la robustesse et la fiabilité restent à prouver à grande échelle.
Bien loin des discours marketing, les plateformes de création d’agents sont encore immatures, et celles pour les gérer sont naissantes. « Les outils sont fragmentés, les modèles de gouvernance imprécis, les coûts difficiles à maîtriser et anticiper… Cette situation rappelle les débuts de l’envolée du SaaS, soulignant le besoin de fondations unifiées de niveau entreprise avant que ces systèmes ne se développent davantage », constate Dael Williamson.
Alors, oui, bien sûr, les DSI doivent dès à présent se préparer à transformer leurs processus et à la mise en place d’une constellation d’agents opérationnels, gouvernés et scalables. Mais Jean-Philippe Faure, DSI d’Eiffage, à qui nous demandions récemment si l’IA agentique allait transformer les activités de son groupe, résume bien la frustration actuelle des DSI face à cette nouvelle ère : « Est-ce que les agents IA vont impacter nos business ? La réponse est clairement oui, même si je suis bien incapable aujourd’hui de vous dire comment et à quel point… »
Les différents types d’agents IA
Le therme d’IA agentique masque une variété de concepts et de familles d’agents IA.
Les copilotes : intégrés aux outils logiciels, ils accompagnent l’utilisateur dans ses tâches quotidiennes.
Les explorateurs : à l’instar des agents « deep research » qui se multiplient dans les chatbots, ils décortiquent une demande d’information complexe puis explorent Internet avant de synthétiser les résultats en un rapport structuré.
Les opérateurs : ils prennent le contrôle du PC ou du navigateur pour réaliser une succession d’actions complexes.
Les agents spécialisés autonomes : ils prennent en charge des processus métiers entiers, comme la gestion des demandes clients.
Les systèmes multi-agents : ils orchestrent plusieurs agents collaborant entre eux pour gérer des fonctions complètes.
3 question à Guillaume Gérard, responsable GenAI chez Capgemini France
Quelle est votre définition de l’IA agentique ?

« L’agentique n’est pas une révolution technologique, mais plutôt une évolution naturelle du RPA. Mais contrairement à lui, qui fonctionne sur des processus très déterministes, l’agentique intègre des capacités cognitives grâce à l’utilisation de modèles IA . Ces agents sont ainsi capables d’adapter leurs actions en fonction de situations variables, apportant davantage de flexibilité et d’autonomie aux processus automatisés. »
Quels sont, selon vous, les principaux risques liés à l’utilisation de ces agents ?
« Le principal réside dans l’imprévisibilité des résultats produits, notamment dans des contextes critiques où l’erreur peut avoir des conséquences importantes, ce qui pose des défis majeurs en matière de sécurité, de gouvernance des données et d’acceptation humaine. Les entreprises doivent donc évaluer soigneusement le niveau d’autonomie accordé aux agents et prévoir des mécanismes robustes pour gérer les exceptions et les erreurs potentielles. »
Quels conseils donneriez-vous à une entreprise souhaitant déployer des solutions agentiques ?
« Je recommanderais une approche pragmatique en démarrant par des processus simples et non critiques, tolérant une marge d’erreur acceptable. Il faut privilégier des scénarios de collaboration ou de supervision entre l’humain et l’agent IA, plutôt qu’une autonomie totale. Cette approche facilite l’adoption interne et permet de maîtriser progressivement les impacts organisationnels et sociétaux liés à l’adoption de ces technologies. »
Une industrie logicielle réinventée ?
« Les agents ne vont pas seulement changer la façon dont chacun interagit avec les ordinateurs. Ils vont également bouleverser l’industrie du logiciel, entraînant la plus grande révolution informatique depuis que nous sommes passés de la saisie de commandes à l’utilisation d’icônes », expliquait Bill Gates en fin d’année.
Pour son actuel successeur à la tête de Microsoft, Satya Nadella, « les agents vont fondamentalement redéfinir le logiciel tel que nous le connaissons. Aujourd’hui, les applications SaaS sont en grande partie construites autour d’une fine couche d’interface utilisateur sur une base de données. À l’avenir, une grande partie de ce travail pourrait devenir obsolète. » Selon lui, les règles de gestion (business logic) propres à chaque logiciel vont migrer vers un « tier IA », une couche d’agents IA capables de gérer de multiples bases de données et de réaliser des opérations complexes sans passer par les backends actuels. « Une fois que la couche IA deviendra l’endroit où réside toute la logique, les gens commenceront à remplacer les backends », prédit ainsi le CEO.
Et c’est toute l’industrie du logiciel qui devra se réinventer.
À LIRE AUSSI :
À LIRE AUSSI :
À LIRE AUSSI :
