Data / IA
IA Agentique : les 6 règles du Gartner pour éviter le chaos
Par Laurent Delattre, publié le 05 mai 2026
Moins de quinze agents IA par entreprise du Fortune 500 mondial en 2025, plus de 150 000 attendus en 2028 : Gartner décrit une explosion que les DSI ne pourront pas contenir avec les réflexes classiques de l’IT. Le risque n’est pas seulement la prolifération des outils, mais celle d’entités capables d’agir, d’accéder à des données, d’enchaîner des tâches et de contourner les cadres établis. Pour éviter que l’IA agentique ne devienne le nouveau Shadow IT sous stéroïdes, l’analyste dévoile six chantiers de gouvernance que les DSI doivent entamer dès aujourd’hui. À condition de les traiter comme une discipline industrielle, et non comme un simple sujet d’administration.
La prochaine crise de l’IA en entreprise ne viendra peut-être pas d’un modèle plus puissant que les autres, mais d’un inventaire devenu impossible à tenir. Les chiffres parlent d’eux-mêmes. D’après une étude présentée par Gartner lors du Digital Workplace Summit de Londres fin avril, une entreprise du Fortune 500 exploitera en moyenne plus de 150 000 agents IA en 2028, contre moins de 15 en 2025. Une multiplication par dix mille en deux ans.
Max Goss, Senior Director Analyst chez Gartner, résume l’enjeu sans détour : « Alors que les DSI et les responsables IT constatent une explosion des agents IA dans leurs organisations, beaucoup se retrouvent aux prises avec une prolifération non gouvernée d’agents qui expose ces mêmes organisations à toute une série de risques, notamment la désinformation, le surpartage et la perte de données. »
Et pourtant, seules 13 % des organisations estiment aujourd’hui disposer du cadre de gouvernance approprié. Le chiffre est d’autant plus préoccupant que l’agentique introduit une rupture avec les vagues précédentes de transformation numérique. Le SaaS a fragmenté les applications. Le low-code a démocratisé le développement. L’IA générative a démocratisé la production de contenus et d’analyses. L’IA agentique, elle, démocratise l’action automatisée.
D’où le risque d’un “agent sprawl”, que l’on pourrait traduire par une prolifération incontrôlée des agents. Il ne s’agit pas seulement d’un problème d’inventaire, mais d’un problème de pouvoir. Un agent peut hériter de droits, consommer des connecteurs, manipuler des données sensibles, déclencher des workflows et produire des effets réels dans le système d’information. Mal gouverné, il devient une identité non humaine à privilèges, souvent créée plus vite qu’elle n’est documentée, revue ou retirée.
Cette nouvelle étude Gartner prolonge, sous un angle très opérationnel, le constat dressé par Sopra Steria Next dans son CIO Compass consacré à la fin de la GenAI “spectacle”. Après la période des démonstrations, des POC et des assistants vitrines, l’enjeu n’est plus de prouver que l’IA sait faire quelque chose, mais de construire les conditions de son exploitation durable. AI Factory, gouvernance, frugalité, observabilité, pilotage de la valeur : tous ces thèmes convergent vers une même idée. L’IA devient un actif industriel du SI. À ce titre, elle doit être architecturée, opérée, sécurisée et mesurée.
Gartner propose une voie médiane structurée autour de six règles d’or. Aucune n’est révolutionnaire prise isolément ; c’est leur articulation qui dessine une véritable doctrine d’industrialisation de l’IA agentique. Voici ces 6 règles qui sont autant d’étapes pour une adoption gouvernée des agents IA et pour éviter leur prolifération hors de tout contrôle de la DSI.
1. Établir une gouvernance et des politiques claires
Première marche, et probablement la plus négligée : poser le cadre normatif avant d’industrialiser. Gartner recommande de définir explicitement qui peut créer un agent, dans quelles conditions, sur quels périmètres métiers, avec quels connecteurs autorisés et selon quel processus de validation. C’est moins une question d’outil qu’une question de doctrine. Sans cette charpente, toutes les briques techniques mises en place ensuite – inventaire, gestion d’identité, observabilité – finissent par produire des données qu’aucune politique ne sait interpréter ni faire respecter.
Pour une DSI, le sujet ressemble à la fois à la gouvernance des API, au cadrage du low-code et au contrôle des identités à privilèges. Tous les agents ne présentent pas le même risque. Un agent qui résume des comptes rendus internes n’a pas la même criticité qu’un agent capable de modifier une commande, d’ouvrir un ticket d’incident, de répondre à un client, de lancer un traitement RH ou de déclencher une action financière. La politique doit donc distinguer les agents d’assistance, les agents d’analyse, les agents d’exécution et les agents autonomes intégrés à des processus métier.
2. Construire un inventaire centralisé des agents
On ne gouverne pas ce que l’on ne voit pas. La deuxième règle de Gartner consiste à se doter d’un inventaire centralisé de tous les agents en activité, qu’ils proviennent d’outils sanctionnés ou de solutions de shadow AI. Le cabinet renvoie explicitement aux outils dits AI TRiSM (AI Trust, Risk and Security Management), une catégorie émergente dont la mission est précisément de découvrir, classer et catégoriser les agents en fonction de leur niveau de risque, pour ensuite y appliquer des contrôles adaptatifs.
Le parallèle avec la CMDB ou l’IT asset management peut ici paraître utile et naturel, mais il est en réalité très insuffisant. Un agent n’est pas un serveur, ni une application SaaS classique. Il peut être créé en quelques minutes, modifié par son propre prompt, enrichi par de nouveaux outils, connecté à plusieurs modèles et faire varier son comportement selon le contexte.
L’inventaire doit donc dépasser la simple liste des agents. Il doit capturer leur propriétaire métier, leur finalité, leur modèle sous-jacent, leurs connecteurs, leurs droits, les sources de données consommées, leur fréquence d’utilisation, leur criticité et leur niveau de risque. À défaut, l’entreprise obtiendra un catalogue décoratif, incapable de servir aux équipes sécurité, conformité ou architecture.
3. Définir l’identité, les permissions et le cycle de vie des agents
C’est sans doute la règle la plus structurante pour les DSI, et la plus sous-estimée. Gartner insiste sur la nécessité de gérer l’identité de chaque agent, son modèle de permission, ses contrôles d’accès, et de mettre en place un processus de revue et de retrait des agents redondants. En clair : appliquer aux entités non humaines la même rigueur d’IAM que celle, déjà imparfaite, déployée pour les utilisateurs.
Le piège classique est de doter l’agent d’un compte de service à privilèges étendus et à clé d’API à durée de vie quasi infinie. C’est, dans la pratique, ce qui se passe massivement aujourd’hui. Or un agent capable de lire un CRM, d’écrire dans un outil de ticketing et d’envoyer un mail au nom d’un utilisateur cumule les pouvoirs de plusieurs équipes entières. Si son prompt est manipulé par injection, ou s’il hallucine simplement la mauvaise action, le rayon d’impact est massif. Pour les DSI, cela impose un changement de doctrine : appliquer aux agents les principes du moindre privilège, du just-in-time access et de la rotation systématique des secrets, au même titre que ce qui se fait pour les comptes humains à privilèges. Le cycle de vie est tout aussi critique : un agent doit avoir un propriétaire identifié, une date de revue, un mécanisme de retrait automatique en cas d’inactivité ou de désactivation du collaborateur qui l’a créé.
4. Développer une gouvernance de l’information accessible aux agents
Quatrième règle, et probablement celle qui réveille le plus de fantômes dans les SI hérités : gouverner l’information à laquelle un agent a accès avant que ce dernier ne l’expose par erreur. Gartner pointe ici un risque que les déploiements Copilot ont déjà révélé à grande échelle, celui du surpartage. Un agent indexe par défaut tout ce que l’utilisateur peut techniquement voir. Si le partage de fichiers a été configuré à la louche pendant des années – ce qui est la norme dans la quasi-totalité des organisations – l’agent rend soudain visibles à un commercial des dossiers RH oubliés sur un SharePoint, à un stagiaire les notes de M&A laissées sur un drive partagé.
Pour une DSI, cette règle impose un travail de fond rarement glamour mais indispensable. Cartographier les sources de données, fixer une logique de classification, automatiser la détection des contenus sensibles, vérifier les permissions effectives plutôt que théoriques, mettre en place des processus de péremption et d’archivage. Ce chantier excède largement la question des agents et touche à l’hygiène fondamentale du patrimoine informationnel. Mais l’IA agentique en révèle brutalement les défaillances : ce qui passait inaperçu dans une recherche manuelle devient un risque de fuite quand un agent peut, en quelques secondes, agréger et restituer mille documents dispersés.
5. Observer les agents en continu, pas seulement les déployer
La cinquième règle déplace le curseur du run-time : il s’agit d’observer en continu les agents en production, de détecter les comportements anormaux et de corriger ceux qui dépassent leur périmètre prévu. Gartner souligne ici une caractéristique propre à l’IA agentique souvent mal anticipée par les DSI. Un agent ne tombe pas en panne au sens classique du terme. Il dérive. Sa réponse à un même prompt peut évoluer au fil des mises à jour de modèle, de l’évolution de ses outils, des injections subtiles dans ses contextes. Une politique respectée à 98 % aujourd’hui peut chuter à 70 % le mois prochain sans qu’aucun journal système ne signale d’erreur.
L’observabilité agentique doit donc tracer autre chose que des temps de réponse et des journaux techniques. Elle doit suivre les prompts, les contextes, les outils invoqués, les données consultées, les décisions prises, les chaînes d’agents sollicitées, les écarts avec les politiques et les actions réellement exécutées. Les métriques changent également : taux d’échec, conformité aux garde-fous, dérive sémantique, hallucinations, décisions révisées, droits utilisés hors scénario prévu, coût d’inférence par processus et valeur produite.
Ce point rejoint la lecture de Sopra Steria Next comme évoqué dans un autre article (ici) : passer à l’échelle ne consiste pas à augmenter le nombre d’utilisateurs d’un cas d’usage, mais à construire une chaîne industrielle intégrant dès l’origine supervision, maintenance, sécurité, observabilité et capacité d’évolution.
6. Encourager une culture d’usage responsable de l’IA
Sixième règle, et probablement celle qui distingue les organisations qui réussiront leur passage à l’IA agentique des autres : la culture. Gartner insiste sur la nécessité d’accompagner les collaborateurs avec des programmes de formation, de constituer une communauté de pratique, et de faire vivre les bonnes pratiques de gestion des agents à l’échelle de toute l’entreprise. Cette dimension humaine n’est pas un complément optionnel à la pile technique. C’est elle qui détermine si les cinq premières règles se traduisent réellement dans les comportements quotidiens, ou si elles restent des éléments de langage dans les comités de direction.
Pour une DSI, l’erreur classique est de réduire ce chantier à un module e-learning sur les risques du shadow AI. Il faut aller plus loin et adopter une authentique logique de communauté de pratiques : elle suppose d’identifier les champions internes, d’animer un réseau de référents par direction métier, de partager les agents qui marchent et ceux qui ont dû être retirés, de documenter les cas d’usage dans une bibliothèque interne. Elle suppose aussi d’admettre qu’une part de la valeur viendra de la base, c’est-à-dire des collaborateurs qui inventent des cas d’usage que la DSI n’aurait pas imaginés. Le rôle de la DSI bascule alors d’un rôle de gardien à un rôle de facilitateur outillé : fournir les briques, sécuriser les rails, et laisser les métiers explorer dans les bornes définies.
Une feuille de route à six étapes : industrialiser sans étouffer
Ces six règles d’or ne forment pas un menu à la carte. Elles dessinent une trajectoire cohérente où chaque marche conditionne la suivante. Sans politiques claires, l’inventaire ne sait pas qualifier ce qu’il découvre. Sans inventaire, la gestion d’identité ne sait pas à quoi s’appliquer. Sans gouvernance des données, les permissions IAM les plus fines ne préviennent pas le surpartage. Sans observabilité, les politiques s’érodent silencieusement. Et sans culture, l’ensemble du dispositif est perçu comme une bureaucratie supplémentaire que les métiers contournent.
Reste un point que le cabinet ne souligne pas explicitement, mais qui mérite l’attention des DSI : aucune des six règles ne peut être traitée sans choix d’architecture sur le moyen terme.
C’est pourquoi l’alerte Gartner ne doit pas être lue comme une prédiction. Elle est plus pragmatiquement un signal de bascule. Les agents IA arrivent plus vite que les cadres de gouvernance qui devraient les contenir. Et lorsque l’entreprise passera de quinze agents à plusieurs dizaines de milliers, il sera trop tard pour reconstruire les fondations.
Une autre erreur serait de tenter d’adopter les outils avant de réfléchir à la mise en œuvre de la démarche. Car les outils, bien qu’encore très immatures, existent. Pour aider les entreprises à mettre en œuvre ces 6 règles Gartner, ces 6 défis organisationnels et technologiques de l’IA agentique, chaque éditeur peaufine ses propres solutions. Certaines sont déjà en disponibilité générale, à l’instar de Microsoft Agent 365, officialisé la semaine dernière. Toutes ne couvrent pas encore ces 6 étapes, mais il ne fait guère de doute qu’à terme toutes chercheront à le faire. Le marché semble ainsi se structurer autour de quatre grandes familles : les plans de contrôle des agents, les plateformes de gouvernance IA, les briques d’identité agentique et les solutions d’observabilité/sécurité runtime.
Microsoft (Agent 365, Purview, Defender, Entra) et Google (Gemini Enterprise Agent Platform, Gemini Enterprise App, Wiz) cherchent à imposer un plan de contrôle intégré, arrimé à leurs suites collaboratives, à leurs annuaires, à leurs clouds et à leurs outils de sécurité. AWS, de son côté, avance par briques techniques dans Bedrock AgentCore, avec une approche très cloud-native, ouverte aux frameworks et modèles tiers, mais moins lisible pour les métiers que les environnements Microsoft 365 ou Gemini Enterprise. ServiceNow (avec son AI Control Tower), Salesforce (avec AgentForce 360, Data 360 et Trust Layer) et IBM (avec watsonx Orchestrate et watsonx.governance) tentent, eux, de devenir la couche d’orchestration et de gouvernance au-dessus des workflows métier.
Autour de ces plateformes, des acteurs issus de la cyber comme Okta (Okta for AI Agents), CrowdStrike (Falcon NGIS / SGML), ou des startups spécialisées Credo AI, Lasso, Lakera, Datadog ou LangSmith adressent des morceaux spécialisés du puzzle : identité, sécurité runtime, gouvernance, observabilité.
La conséquence pour les DSI est claire : aucune solution ne doit être regardée uniquement comme un outil d’IA. Ces plateformes deviennent des choix d’architecture. Miser sur Microsoft Agent 365, Gemini Enterprise Agent Platform, AWS Bedrock AgentCore ou ServiceNow AI Control Tower, ce n’est pas seulement choisir une console de supervision ; c’est décider où se logera demain le registre des agents, l’identité des entités non humaines, la politique d’accès aux outils, la traçabilité des décisions automatisées et, in fine, une partie du pouvoir de gouvernance de l’entreprise numérique.
La question n’est plus de savoir si les agents vont entrer dans l’entreprise. Ils y sont déjà. La vraie question est de savoir s’ils entreront par la porte de la gouvernance ou par celle du shadow AI.
À LIRE AUSSI :
À LIRE AUSSI :
