Data / IA

Avec l’IA agentique, l’entreprise passe de l’humain augmenté à l’humain délégué

Par Thierry Derouet, publié le 15 mai 2026

Avec les agents IA, l’entreprise ne se contente plus d’augmenter ses collaborateurs : elle commence à leur demander de déléguer une part de leur activité à des systèmes capables d’agir. Pour Jean-Philippe Desbiolles et Laurent Prud’hon, auteurs de la deuxième édition de L’IA sera ce que tu en feras, cette bascule impose aux organisations un chantier bien plus profond que le choix d’un modèle : comprendre le travail réel, revoir les processus et gouverner ce que l’on accepte de confier à la machine.

Le problème de l’IA agentique n’est peut-être pas que les machines ne comprennent pas assez bien les entreprises. C’est que les entreprises ne se comprennent pas toujours elles-mêmes. Elles veulent des agents capables d’exécuter des tâches, de dialoguer avec leurs applications, d’automatiser des opérations et de produire des gains de productivité. Mais elles découvrent que leurs processus sont souvent plus flous qu’elles ne le pensaient, que leurs savoir-faire sont mal documentés, et que la délégation à une machine commence par un exercice qu’elles repoussent depuis des années : regarder le travail réel.

Depuis deux ans, les entreprises ont appris à demander à l’IA de rédiger, résumer, traduire, coder, synthétiser ou préparer une réunion. La prochaine étape est d’une autre nature : lui demander d’agir. Ouvrir un ticket. Vérifier un dossier. Manipuler un outil métier. Préparer une décision. Exécuter une partie d’un processus. Interagir avec d’autres agents. En apparence, le saut est technique. En réalité, il est managérial.

Car déléguer à une IA suppose une chose élémentaire, mais rarement maîtrisée : savoir précisément ce que l’on délègue.

C’est tout l’intérêt de la deuxième édition de L’IA sera ce que tu en feras, coécrite par Jean-Philippe Desbiolles, VP & Managing Director d’IBM France et AI & Data Leader, et Laurent Prud’hon, directeur de la Cognitive Factory du Crédit Mutuel – Euro-Information. Leur dialogue est précieux parce qu’il oppose moins deux visions qu’il ne les complète. Desbiolles porte la perspective stratégique, celle de l’IA comme transformation profonde des organisations. Prud’hon ramène chaque promesse à son terrain d’exécution : les serveurs, les modèles, les coûts, les contraintes réglementaires, l’énergie, l’acceptabilité sociale et la réalité des métiers.

Laurent Prud’hon résume cette complémentarité avec une formule souriante : « Jean-Philippe vit dix ans dans le futur, et nous, on vit malheureusement dans le présent. » Encore faut-il, ajoute-t-il, traduire cette vision dans ce que l’entreprise peut réellement faire aujourd’hui. Car entre l’enthousiasme des démonstrations et le passage à l’échelle, il y a tout ce qui fait la vie ordinaire des organisations : les processus, les responsabilités, les données, les arbitrages, les budgets et les limites.

Le débat sur l’IA agentique gagne alors en épaisseur. Il ne s’agit plus seulement de savoir si les modèles sont impressionnants. Ils le sont. Il ne s’agit plus seulement de savoir si les collaborateurs vont les utiliser. Ils les utilisent déjà. La question devient plus exigeante : quelle part du travail l’entreprise est-elle capable de déléguer à des systèmes logiciels sans perdre la maîtrise de sa valeur, de ses compétences et de ses responsabilités ?

Le passage de l’assistance à la délégation

La première vague de l’IA générative a été celle de l’assistance. Elle s’est installée par les usages individuels : rédiger un brouillon, résumer une réunion, reformuler un courrier, accélérer une recherche documentaire, produire une synthèse. Au Crédit Mutuel, explique Laurent Prud’hon, cette étape s’est traduite par le déploiement d’un portail IA regroupant les fonctionnalités génériques les plus courantes. Mais, dans cette configuration, « le collaborateur, l’humain, réalise une tâche et puis l’IA l’accélère, l’assiste, l’aide ».

L’agentique change le contrat. Elle ne se contente plus d’augmenter l’utilisateur. Elle introduit la possibilité de confier à la machine une partie d’une activité. « Je vais pouvoir déléguer quelques morceaux de mes activités à l’IA », résume Laurent Prud’hon. Le mot important est là : déléguer.

Jean-Philippe Desbiolles en fait l’un des points centraux de l’ouvrage. « La montée en puissance de l’agentique fait passer d’un concept qu’on a beaucoup utilisé et qui reste vrai, l’humain augmenté, l’humain assisté, à une logique de l’humain délégué. » La formule déplace le sujet. L’entreprise ne parle plus seulement d’outil, d’interface ou de productivité. Elle parle de mandat, de supervision, de contrôle et de responsabilité.

Un agent IA n’est pas seulement un moteur de génération de texte. Il peut poursuivre un objectif, mobiliser des outils, consulter des données, enchaîner des opérations, solliciter d’autres agents et produire une action dans un environnement numérique. L’enjeu n’est donc plus seulement de savoir ce que l’IA peut produire, mais ce qu’elle peut être autorisée à faire.

C’est ce qui conduit Jean-Philippe Desbiolles à parler d’une « relation à quatre ». Demain, le client pourra disposer de ses propres agents. L’entreprise aura les siens. Les humains continueront de travailler entre eux, mais les agents travailleront également entre eux. Certains échanges seront synchrones, d’autres asynchrones. « L’un des challenges, c’est comment je m’assure, moi en tant que banquier, d’avoir une supervision de l’ensemble de ce modèle relationnel, d’avoir un monitoring de ce qui se passe, pour être sûr que ce qui se passe aboutit bien à une finalité que j’ai envie qu’elle ait. »

Dans cette perspective, l’agentique n’est pas une évolution d’interface. C’est une nouvelle architecture de la délégation.

Les processus officiels ne disent pas tout du travail réel

Cette délégation bute immédiatement sur une limite : pour confier une tâche à un agent, encore faut-il savoir la décrire. Or beaucoup d’entreprises connaissent mieux leurs procédures que leur travail réel. Elles savent dessiner un organigramme, cartographier des applications, documenter un circuit de validation, mais elles ont souvent plus de mal à expliciter ce qui se passe réellement entre les cases.

Le travail réel, ce sont les arbitrages implicites, les exceptions, les contournements, les gestes non documentés, les habitudes, les micro-décisions, les savoir-faire locaux, les raccourcis construits par l’expérience. C’est ce que les collaborateurs font sans toujours le dire, parfois parce qu’ils n’ont jamais eu à l’expliciter, parfois parce que l’organisation préfère ne pas regarder de trop près ce qui permet à ses processus de fonctionner malgré leurs imperfections.

L’IA agentique rend ce flou beaucoup moins confortable. Elle oblige à transformer l’implicite en règles, les gestes en séquences, les décisions tacites en critères, les exceptions en scénarios. Jean-Philippe Desbiolles le constate dans les projets de transformation : « Il faut se mettre à côté de quelqu’un et arriver à définir exactement ce qu’il fait et comment il le fait. »

Cette phrase est presque une méthode. Avant de parler modèle, plateforme ou agent, il faut observer. Comprendre l’activité. Décomposer la tâche. Identifier ce qui relève de la règle, de l’expérience, de l’intuition, du contrôle humain, de la relation client, du risque réglementaire ou de la simple habitude.

Mais cette description ne doit pas devenir une photographie paresseuse de l’existant. Pour Desbiolles, l’erreur serait de demander à l’IA de reproduire mécaniquement des processus mal conçus. « L’IA n’est pas là simplement pour reproduire ce qui est fait », explique-t-il. Elle doit aussi permettre de simplifier le processus, d’identifier ce qui peut être amélioré et de déterminer où l’IA peut réellement accélérer ou améliorer l’exécution de l’activité.

Autrement dit, il ne suffit pas de prendre un processus A, de le rebaptiser A’ « powered by AI » et d’espérer un miracle. « On est bien sur un travail de transformation. »

C’est pourquoi Desbiolles parle du retour du « BPR sous stéroïdes », en référence au business process re-engineering. La formule peut paraître venue d’un autre âge du conseil, mais elle dit quelque chose de très actuel : l’IA agentique oblige les entreprises à reprendre un chantier qu’elles ont souvent repoussé. Revoir leurs processus. Les simplifier. Les documenter. Les aligner avec la réalité des métiers. Décider ce qui doit être automatisé, assisté, supervisé ou laissé pleinement humain.

Cette fois, l’urgence est plus forte. Car l’IA ne se contente plus de produire des recommandations. Elle commence à pouvoir agir.

Toutes les tâches automatisables ne doivent pas être automatisées

La tentation sera grande de confondre faisabilité technique et décision managériale. Si une tâche peut être confiée à un agent, pourquoi ne pas le faire ? Laurent Prud’hon invite au contraire à une lecture beaucoup plus fine. Certaines tâches sont importantes non seulement par leur résultat, mais parce qu’elles entretiennent la compétence humaine. Elles permettent au collaborateur de garder un « modèle mental » de ce qu’il fait, de comprendre le système, d’évaluer un risque, de prendre une décision, de prioriser.

« Il faut qu’on garde un modèle mental de ce qui a été fait », insiste-t-il. La nuance est essentielle. Déléguer ne signifie pas se désintéresser. Un agent qui automatise une opération sans enjeu critique n’appelle pas le même niveau de supervision qu’un agent qui intervient dans un système bancaire, modifie un code sensible ou répond à un client dans une situation délicate.

Laurent Prud’hon prend un exemple volontairement simple : « Un robot qui tond la pelouse, je m’en fiche de comment il a fait. Je ne vais pas aller le micro-manager. Un robot qui écrit un morceau de code critique dans mon système d’information, ce n’est peut-être pas pareil. J’ai besoin de comprendre ce qu’il a fait, comment il s’y est pris. J’ai besoin de le maîtriser à long terme. »

L’entreprise doit donc distinguer plusieurs catégories de tâches. Celles qui peuvent être confiées sans enjeu majeur. Celles qui peuvent être assistées, mais doivent rester comprises. Celles qui peuvent être automatisées sous supervision. Celles qui doivent rester humaines parce qu’elles touchent à la responsabilité, à la décision, à la relation, au jugement ou à l’apprentissage même du métier.

Jean-Philippe Desbiolles reconnaît d’ailleurs avoir lui-même évolué sur ce point. « J’ai longtemps cru que la performance d’une activité était toujours supérieure lorsque l’humain plus l’IA travaillent ensemble. Ce statement est faux. » Certaines situations appelleront une IA seule. D’autres un humain seul. Beaucoup relèveront d’une combinaison entre les deux. « La situation n’est pas du tout manichéenne. Ce n’est pas blanc ou noir. »

Cette distinction est décisive pour éviter les dogmes. L’IA ne doit pas être ajoutée partout au nom d’un impératif de modernité. Elle doit être mobilisée là où elle améliore réellement l’activité, sans dégrader la maîtrise, la qualité, la responsabilité ou le sens du travail.

Laurent Prud’hon résume ce paradoxe avec une image qui vaut bien des discours : « On aimerait avoir un robot qui fait la vaisselle pendant qu’on écrit de la poésie. Le problème, c’est qu’aujourd’hui, on a automatisé l’écriture de poésie avec l’IA générative et toujours pas la vaisselle. »

Derrière la plaisanterie, le sujet est très sérieux. Si l’entreprise automatise ce que les collaborateurs apprécient et leur laisse ce qu’ils supportaient déjà difficilement, elle ne gagnera pas forcément en engagement. Elle risque au contraire de vider le travail de ce qui lui donnait encore du sens. L’automatisation n’est donc pas seulement une équation de productivité. C’est une décision d’organisation.

La vraie valeur n’est pas seulement dans le modèle

Le débat sur l’IA reste souvent obsédé par les modèles. Quel est le meilleur ? Le plus rapide ? Le plus puissant ? Le moins cher ? Le plus souverain ? Le plus ouvert ? Mais l’agentique oblige à déplacer la focale. La valeur ne réside pas uniquement dans le modèle. Elle se trouve aussi dans les données, les processus, l’intégration au système d’information, la gouvernance et, surtout, la connaissance métier.

Laurent Prud’hon met en garde contre une confusion fréquente. Les entreprises parlent de « l’IA » comme d’un bloc : l’IA d’un fournisseur, l’IA d’un concurrent, l’IA d’un autre groupe. Or un système agentique est composé de plusieurs couches. « Au cœur, on a un modèle d’IA qui est le moteur. Mais autour de ça, on a tout un système pour l’exploiter sous forme agentique. Et ce système est intégré dans tout un système d’information, des processus, des sources de données, un système de gouvernance. »

La question « faut-il acheter ou construire ? » devient donc trop simple. Certains éléments seront achetés. D’autres développés. Certains seront génériques. D’autres devront rester propres à l’entreprise. La vraie décision porte sur ce que l’organisation veut maîtriser.

Au Crédit Mutuel, Laurent Prud’hon explique que le groupe accepte un décalage de quelques mois par rapport aux modèles les plus avancés, dès lors que les données restent « dans l’enceinte de nos data centers » et que l’entreprise peut « maîtriser notre avenir ». La raison n’est pas seulement la confidentialité. Elle est stratégique. À mesure que les agents deviennent capables d’observer, d’apprendre et de formaliser des gestes métier, ils peuvent capter une partie du savoir-faire de l’entreprise.

Laurent Prud’hon décrit une scène très concrète : un expert métier guide un agent pas à pas, comme il formerait un stagiaire. À la fin de la session, l’IA rédige un mode d’emploi, formalise des compétences, prépare la session suivante. Après quelques échanges, « l’IA a formalisé, a aspiré dans un document quasi exhaustif une partie de l’expertise sur une tâche de l’expert donné ».

Pour une entreprise qui maîtrise son IA, le bénéfice est considérable. Elle peut formaliser, transmettre, démultiplier son savoir-faire. Mais si cette captation s’effectue dans l’environnement d’un fournisseur externe, le risque change de nature. « Le grand fournisseur devient maintenant meilleur conseiller en intégration informatique qu’IBM, meilleur banquier que le Crédit Mutuel, meilleur journaliste que le journaliste », prévient Laurent Prud’hon.

La phrase est brutale, mais elle touche juste. L’enjeu n’est plus seulement de protéger des données. Il est de protéger une compétence distinctive, une manière de faire, parfois même une part de la raison d’être de l’entreprise. « L’enjeu de garder ces données dans l’enceinte de son entreprise n’a jamais été, pour moi, aussi critique. Pas seulement pour des questions de confidentialité, mais aussi pour des questions de raison d’être de l’entreprise. C’est mon savoir-faire qui est en train d’être aspiré. »

Pour les DSI, cette alerte est centrale. L’IA agentique ne pose pas seulement une question de conformité, d’hébergement ou de souveraineté technique. Elle pose une question de dépossession potentielle. Que se passe-t-il lorsque l’outil utilisé pour automatiser le travail devient aussi celui qui apprend la substance même du métier ?

L’agentique ne s’ajoute pas au SI, elle descend dans ses couches profondes

Pour Jean-Philippe Desbiolles, c’est précisément ce qui distingue l’agentique des vagues précédentes d’IA. Elle ne peut pas être traitée comme un module supplémentaire. « L’IA agentique n’est pas, ou ne doit pas être, l’ajout d’une énième couche de logiciel, quelle qu’elle soit. »

Avec les agents, l’entreprise touche aux couches applicatives, fonctionnelles, techniques, parfois même aux infrastructures. Les agents doivent accéder à des outils, lire des données, exécuter des actions, respecter des droits, produire des traces, être supervisés, désactivés, audités. Ils ne vivent pas au-dessus du système d’information. Ils s’y insèrent.

« L’IA agentique nous force enfin à réfléchir sur l’architecture fonctionnelle et technique que l’on met en place pour supporter la transformation », estime Desbiolles. « C’est la première fois qu’on doit vraiment descendre dans des couches dans lesquelles nous n’étions pas descendus avec les dernières vagues d’intelligence artificielle. »

Cette remarque devrait alerter les directions générales autant que les DSI. L’agentique n’est pas un sujet que l’on peut abandonner à l’expérimentation dispersée. Si chaque métier connecte ses agents à ses outils, avec ses propres règles, ses propres accès et ses propres fournisseurs, l’entreprise crée une nouvelle dette : une dette agentique, faite d’autorisations mal gouvernées, de coûts invisibles, de dépendances techniques et de responsabilités floues.

C’est pourquoi la gouvernance des agents doit être pensée comme une extension de la gouvernance du SI. Un agent n’est pas un salarié numérique. Ce n’est pas non plus un simple script. C’est une identité non humaine opérant dans un environnement métier. Elle doit donc être nommée, autorisée, limitée, observée, journalisée, révoquée si nécessaire.

Dans les secteurs régulés, cette exigence est encore plus forte. Laurent Prud’hon le rappelle : « Surtout dans les domaines banque-assurance, il y a une réglementation très présente, très exigeante, des contraintes juridiques aussi, qui font qu’il y a des bonnes pratiques et puis il y a aussi des obligations. On ne peut pas y déroger. Il y a ce qui est le plus efficace de faire et il y a ce qui est possible de faire. »

Cette phrase résume une tension appelée à devenir centrale. La technologie permet beaucoup. L’entreprise ne peut pas tout se permettre.

Le coût complet de l’IA devient un sujet de direction générale

L’autre angle mort de l’IA agentique est économique. Les démonstrations sont séduisantes. Les agents semblent capables d’enchaîner des tâches avec une facilité nouvelle. Mais à l’échelle, l’équation est moins évidente. Qui paiera l’inférence ? Qui financera les infrastructures ? Qui absorbera les coûts de supervision, d’intégration, de sécurité, de conformité, d’énergie et de maintenance ?

Laurent Prud’hon connaît cette question de manière très concrète, puisque le Crédit Mutuel héberge ses solutions en interne. « Avant de pouvoir faire un cas d’usage très joli sur le papier, il faut très concrètement acheter des machines, les déployer, brancher des prises, construire toutes les couches logicielles qui permettent de l’exploiter. » Le groupe a donc une vision précise du coût, de la difficulté et de la consommation énergétique associés à ces choix.

Il a aussi pris un engagement : « utiliser toujours le modèle le plus frugal qui permet de réaliser le cas d’usage ». Cette exigence est appelée à devenir structurante. Toutes les tâches ne justifient pas les modèles les plus puissants. Toutes les requêtes ne doivent pas être envoyées vers les mêmes infrastructures. Toutes les promesses de performance ne méritent pas le même prix.

Jean-Philippe Desbiolles estime ainsi que les entreprises devront investir dans des couches d’abstraction capables de router la bonne requête vers le bon modèle, selon le meilleur compromis entre coût et performance. Il reprend alors l’image de Laurent Prud’hon : « Je ne peux pas rouler en Ferrari tous les jours. » Certaines demandes nécessitent un modèle très avancé. D’autres peuvent être traitées par un modèle plus frugal, moins coûteux, parfois local.

Cette couche d’orchestration deviendra peut-être l’un des actifs les plus importants de l’entreprise. Les modèles appartiendront souvent à d’autres. Mais l’intelligence de leur usage – quel modèle pour quelle requête, quel coût pour quelle performance, quelle donnée dans quel environnement – pourra devenir une compétence stratégique interne.

Car l’incertitude reste forte. Laurent Prud’hon souligne la difficulté à planifier dans un marché où les performances évoluent plus vite que les cycles d’achat matériel. Entre le moment où une entreprise décide de commander des serveurs, les reçoit, les installe et les rend opérationnels, les modèles, les architectures et les performances ont déjà changé. « On dit des choses doctement, et puis deux mois après tout ça est obsolète et on avait tort. »

Le coût de l’IA ne peut donc plus être traité comme une ligne technique. Il devient un arbitrage de direction générale : combien l’entreprise accepte-t-elle de payer pour automatiser une tâche ? Avec quel niveau de performance ? Avec quelle dépendance fournisseur ? Avec quelle consommation énergétique ? Et pour quel retour réel sur l’activité ?

Sans confiance, pas d’adoption ; sans adoption, pas de ROI

Dans cette complexité, Jean-Philippe Desbiolles revient à un triptyque qu’il juge fondamental : confiance, adoption, retour sur investissement. « Sans confiance, je ne génère pas l’adoption dont j’ai besoin. Et sans adoption, je ne génère pas de retour sur investissement. »

Cette confiance ne se décrète pas. Elle se construit. Par la transparence, l’explicabilité, la robustesse, la sécurité, l’éthique, la qualité des données, la traçabilité des actions, la clarté des responsabilités. Elle suppose aussi de dire aux collaborateurs ce qui sera automatisé, ce qui ne le sera pas, ce qui restera sous leur contrôle, et ce que l’entreprise attend d’eux dans ce nouveau partage du travail.

Les chartes IA que beaucoup d’organisations commencent à formaliser ne sont donc pas de simples documents de communication. Elles peuvent devenir des instruments de gouvernance, à condition de ne pas rester générales. Elles doivent préciser les usages acceptables, les niveaux de supervision, les règles d’accès aux données, les limites de délégation, les critères de frugalité, les responsabilités humaines et les interdits.

Car l’IA agentique ne pose pas seulement la question de ce que la machine peut faire. Elle pose la question de ce que l’entreprise veut devenir.

C’est d’ailleurs l’un des messages les plus constants de L’IA sera ce que tu en feras. Les auteurs refusent les deux caricatures : celle d’une IA magique qui réglerait les problèmes d’organisation, et celle d’une IA inéluctable qui s’imposerait aux entreprises sans discussion. Entre les mythes extravagants et les prophéties alarmistes, ils défendent une voie plus exigeante : celle de la responsabilité.

Cinq questions avant de déléguer à l’IA

La maturité d’une entreprise face à l’IA agentique pourrait se mesurer à sa capacité à répondre à cinq questions simples, mais rarement traitées avec assez de rigueur.

La première : la tâche est-elle suffisamment décrite ? Si le travail réel repose sur des gestes implicites, des exceptions non documentées, des arbitrages informels ou des habitudes locales, l’agent risque de reproduire du flou, voire de l’amplifier.

La deuxième : cette tâche doit-elle rester dans le modèle mental du collaborateur ? Certaines activités entretiennent la compétence, la compréhension du système, la capacité à décider et à détecter une anomalie. Les déléguer entièrement peut créer une dépendance dangereuse.

La troisième : quel niveau de supervision est nécessaire ? Un agent qui résume une réunion, un agent qui répond à un client, un agent qui écrit du code critique ou un agent qui initie une opération réglementée ne relèvent pas du même niveau de contrôle.

La quatrième : où se situe la valeur capturée par l’agent ? Si l’agent apprend les savoir-faire métier sur une infrastructure externe, l’entreprise doit se demander ce qu’elle transfère réellement : des données, des processus ou une partie de sa compétence distinctive.

La cinquième : le coût complet est-il soutenable ? L’inférence n’est qu’une partie du sujet. Il faut ajouter l’infrastructure, l’intégration, la gouvernance, l’énergie, la sécurité, la supervision, les erreurs, la conformité et la dépendance fournisseur.

Ces questions ont un mérite : elles replacent l’IA là où elle doit être, au cœur de la stratégie d’organisation. Non pas comme une mode technique, mais comme une discipline de délégation.

L’IA ne remplace pas la stratégie. Elle sanctionne son absence

L’IA agentique ne supprimera pas la nécessité de manager. Elle la rendra plus exigeante. Elle obligera les entreprises à décider ce qui mérite d’être confié à une machine, ce qui doit rester humain, ce qui doit être supervisé, ce qui doit être documenté, ce qui doit être simplifié et ce qui doit être refusé.

Cette bascule demandera du courage. « On est bien sur une logique de transformation qui suppose du courage, du leadership, pour revoir et transformer les processus métiers », insiste Jean-Philippe Desbiolles. Les entreprises qui chercheront simplement à superposer des agents sur des processus existants risquent de créer de la complexité supplémentaire, des coûts mal maîtrisés et une déception rapide. Celles qui prendront le temps de comprendre leur travail réel, de formaliser leurs savoir-faire, de gouverner leurs agents et de préserver leur valeur métier pourront, elles, transformer l’IA en levier durable.

L’IA sera donc bien ce que les entreprises en feront. Mais cette formule n’a rien d’un slogan rassurant. Elle dit au contraire la responsabilité qui s’ouvre. L’agentique ne donne pas seulement aux organisations de nouveaux outils. Elle les oblige à se regarder avec plus de précision qu’elles ne l’ont souvent fait.

Avant de déléguer au logiciel, encore faut-il savoir ce que l’on fait vraiment.


L’IA sera ce que tu en feras – 2e édition
Jean-Philippe Desbiolles, Laurent Prud’hon
Dunod, avril 2026, 208 pages, 17,90 € – ebook 12,99 €

Sept ans après une première édition publiée par Jean-Philippe Desbiolles seul, cette deuxième édition associe Laurent Prud’hon, directeur de la Cognitive Factory du Crédit Mutuel – Euro-Information. Ensemble, ils reprennent la promesse initiale : sortir l’IA des fantasmes comme des discours anxiogènes, pour la ramener à ses usages concrets. L’ouvrage propose dix règles d’or pour comprendre, prioriser et déployer l’intelligence artificielle sans en faire un sujet purement technologique. Cette nouvelle version intègre l’IA générative, l’agentique et un chapitre consacré à l’éthique, avec une conviction constante : l’IA reste probabiliste, et l’humain demeure créateur, formateur, superviseur et bénéficiaire final des systèmes.

Jean-Philippe Desbiolles précise que 100 % des droits d’auteur de l’ouvrage sont reversés à la Fondation des enfants malades de l’hôpital Necker.


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights