

Data / IA
IA agentique : vers une véritable refonte organisationnelle, éthique et technique des organisations
Par La rédaction, publié le 21 août 2025
De copilotes à véritables acteurs décisionnels, les agents autonomes redéfinissent l’équilibre entre humains et machines. Leur déploiement impose d’inventer de nouveaux rôles, de nouvelles règles et une vigilance accrue sur leurs comportements évolutifs.
Par François Jaussaud, Head of Fraud and Security Intelligence, SAS Institut France.
La révolution de l’IA agentique ne s’ajoute pas au système, elle le recompose. Elle suppose donc une véritable refonte organisationnelle, éthique et technique.
Un changement de paradigme qui place l’exigence de maîtrise architecturale au cœur des priorités des organisations.
De l’assistance à l’initiative : un saut qualitatif
Selon une étude Deloitte, 25 % des entreprises utilisant l’IA générative lanceront des projets pilotes d’IA agentique en 2025, un chiffre qui pourrait atteindre 50 % en 2027.
Jusqu’à présent, l’intelligence artificielle a surtout endossé un rôle de copilote : analyse de données, génération de contenus, aide à la décision. L’humain restait aux commandes et l’algorithme intervenait en soutien.
Avec l’IA agentique, on parle désormais d’entités logicielles autonomes, conçues pour agir dans le monde réel, surveiller des risques, gérer des flux logistiques, anticiper des ruptures et coordonner des systèmes. Et cela, parfois, sans sollicitation humaine directe.
Repenser l’organisation avec DORESE
L’IA agentique suppose donc une véritable refonte organisationnelle, éthique et technique. Pour ne pas subir cette mutation, mais l’accompagner lucidement, encore faut-il un cadre d’analyse rigoureux.
Le spectre DORESE – emprunté aux doctrines militaires – propose une lecture à six entrées : Doctrine, Organisation, Ressources humaines, Équipements, Soutien, Entraînement. Un prisme utile pour mesurer à quel point l’IA agentique engage une transformation systémique, bien au-delà du simple choix technologique.
Prenons un exemple concret. Du point de vue de la doctrine, il ne suffit plus de dire “on va automatiser tel processus”. Il faut définir jusqu’où l’autonomie est acceptable, dans quels cas l’humain doit reprendre la main, et comment on documente les choix d’un agent autonome. Une évolution radicale qui appelle une nouvelle forme de gouvernance.
De nouveaux rôles pour encadrer et gérer cette évolution
Sur le plan organisationnel, ces agents opèrent souvent de façon distribuée, en réseau, là où les structures humaines sont encore linéaires. Il devient donc nécessaire d’introduire de nouveaux rôles tels que ceux de superviseurs d’agents, médiateurs homme-agent, auditeurs d’autonomie.
Du côté des ressources humaines, former des collaborateurs à comprendre, superviser et corriger un raisonnement machine devient un enjeu de culture professionnelle. Il ne s’agit pas seulement de recruter des data scientists, mais d’infuser l’ensemble de l’organisation avec une “grammaire de l’agentivité”.
Enfin, en matière de soutien et d’entraînement, il faut cesser de penser l’IA comme un produit figé. Un agent apprend, évolue, interagit. Il nécessite une maintenance cognitive continue, et une vigilance accrue sur les dérives comportementales potentielles.
Autrement dit, l’IA agentique ne s’ajoute pas au système : elle le recompose. Elle suppose une véritable refonte organisationnelle, éthique et technique.
Tous les agents, tous les systèmes multi-agents n’ont pas les mêmes missions et ne se ressemblent donc pas
Dernière idée essentielle : un agent est avant tout une composition modulaire, adaptée à une mission précise.
Certains agents, dans la détection de fraude par exemple, auront besoin de rapidité d’exécution, de règles claires, d’architectures légères. D’autres, conçus pour l’analyse stratégique, s’appuieront sur des graphes de connaissances, des mécanismes d’inférence, et parfois une interface narrative basée sur le langage. Dans un cas, un LLM serait un luxe inutile (analyse flux bancaires en temps réel), dans l’autre, un outil d’examen pertinent (analyse approfondie d’un rapport annuel pour identifier les risques liées aux relations d’affaires).
Ce n’est pas la technologie qui compte, c’est la finalité. Et cette diversité architecturale est précisément ce qui permettra d’éviter la dépendance à des solutions monolithiques, souvent opaques et non-auditables.
Une souveraineté qui se joue dans les détails
La tentation est grande, pour de nombreuses organisations, d’opter pour des plateformes “tout-en-un”, promettant rapidité, intégration, simplicité. Mais cette facilité a un coût. Car derrière les boîtes noires, se cachent souvent des logiques industrielles peu compatibles avec les exigences de souveraineté, de traçabilité et d’éthique.
À l’heure où l’Europe met en œuvre l’AI Act, premier cadre légal structurant pour les systèmes à risque, la question n’est plus : “Peut-on déployer des agents autonomes ?”, mais bien : “Comment les conçoit on pour qu’ils soient au service d’une finalité claire, contrôlable, explicable ?”.
Dans les secteurs critiques (cybersécurité, finance, santé), les projets d’IA agentique bien encadrés produisent déjà des gains mesurables en réactivité, robustesse et performance. Mais leur réussite repose sur une exigence : la maîtrise architecturale.
La question n’est pas aujourd’hui de savoir si ces agents seront présents dans nos organisations, mais dans quelles conditions nous choisirons de leur faire confiance. Et cette réponse – technique, politique, humaine – nous appartient entièrement.
À LIRE AUSSI :

À LIRE AUSSI :

À LIRE AUSSI :

À LIRE AUSSI :
