

RH
Et si ce n’était plus l’IA qu’il fallait craindre… mais vos propres questions ?
Par Thierry Derouet, publié le 09 juillet 2025
À l’heure où l’intelligence artificielle s’immisce dans tous les outils, ce ne sont plus les réponses qui comptent — mais la façon de les déclencher. Une formulation vague, un prompt mal calibré, une intention floue… et la décision qui s’appuie dessus devient bancale. Et si, demain, la compétence clé des dirigeants n’était plus de savoir, mais de savoir demander ?
Depuis toujours, la quête d’information reposait sur une mécanique bien huilée : on cherche, on trouve, on lit. Il fallait parfois tâtonner, trier, comparer. Le Web, dans sa version classique, obligeait à naviguer à vue, armé de patience et d’un bon moteur de recherche. Et puis l’IA générative est arrivée. Fini les onglets en cascade, les articles à rallonge, les forums contradictoires. Il suffit désormais de formuler une question, une seule, pour que l’agent conversationnel vous tende une réponse, parfois brillante, souvent synthétique, toujours immédiate. Mais dans cette nouvelle grammaire du Web, un basculement discret s’opère : ce n’est plus la réponse qui fait la différence. C’est la question.
Là où Google exigeait des mots-clés bien choisis, ChatGPT, Perplexity ou Claude attendent un énoncé. Un contexte. Une intention. En un mot : une posture cognitive. Car entre une interrogation floue et une demande précise, entre une formulation technique et une question stratégique, les écarts de réponse sont vertigineux. L’IA, désormais, ne donne plus “la” vérité. Elle restitue une vision plausible, structurée autour de ce que vous lui avez soufflé. Une réponse conditionnée. Façonnée. Inconsciemment personnalisée.
Mais que se passe-t-il lorsque la question devient le véritable levier de pilotage ? Cette personnalisation n’est pas qu’une coquetterie ergonomique. Elle marque un déplacement du pouvoir. Ce n’est plus celui qui produit l’information qui oriente la compréhension, mais celui qui l’invoque. Le moteur de recherche disparaît, remplacé par une mécanique inverse : non plus explorer pour comprendre, mais interroger pour faire émerger le sens. Dans ce monde-là, celui qui ne sait pas formuler son besoin s’expose à une illusion de savoir. Il obtiendra une réponse, certes, mais sans relief, sans aspérité, sans précision. Un lissage algorithmique qui apaise la curiosité sans jamais la nourrir.
Pour les décideurs du numérique, c’est un tournant. La compétence ne réside plus seulement dans l’accumulation des connaissances, mais dans la capacité à en provoquer la mise en forme. Demander à un agent IA s’il faut investir dans la cybersécurité, c’est obtenir une réponse de bon sens, peu utile. Mais demander quelles sont les trois menaces les plus plausibles au regard de l’architecture actuelle, avec leurs impacts juridiques, financiers et opérationnels, c’est amorcer un diagnostic stratégique. L’IA ne vous dit pas ce qu’il faut faire. Elle vous renvoie l’image de ce que vous avez su demander. Elle éclaire la question plus qu’elle ne clôt la réponse.
Et si, au fond, cette technologie nouvelle ouvrait une ère inédite d’intelligence dialogique ? Un savoir qui ne s’impose pas, mais qui se construit à mesure, dans l’aller-retour. Un Web où l’on n’accumule plus des documents, mais où l’on affine ses intuitions. Où l’on vérifie moins des faits que sa propre capacité à les faire parler. L’IA pourrait alors devenir, pour le professionnel pressé comme pour l’expert exigeant, un outil d’autoréflexion. Non pas une boîte noire omnisciente, mais un miroir élastique.
Faut-il alors apprendre à lire différemment… ou à penser autrement ? L’enjeu, dès lors, n’est plus de former les utilisateurs à utiliser ces outils. Il est de les former à se formuler eux-mêmes. À exprimer ce qu’ils savent, ce qu’ils ignorent, ce qu’ils suspectent. À se situer dans l’espace de l’information comme on se situerait dans un débat. La direction technique devient alors un espace rhétorique, presque socratique. Le RSSI n’est plus seulement celui qui chiffre les risques, il devient celui qui sait les faire apparaître dans la question. Le DSI ne compile plus les feuilles de route, il sait construire les interrogations qui mettront en tension les choix à venir. Le COMEX, enfin, ne demande plus « sommes-nous prêts ? », mais « qu’arriverait-il si… ? ».
Il y a dans cette logique une potentialité immense, à condition de l’assumer jusqu’au bout. Et notamment dans le fait d’adapter les réponses, non plus seulement au sujet traité, mais à celui qui lit. Car ce qui fera demain la différence entre une IA utile et une IA creuse, ce n’est pas la profondeur de sa base de données. C’est sa capacité à répondre différemment selon le niveau de connaissance, le rôle, l’intention. Le même sujet peut faire l’objet de trois formulations. Et générer trois types de réponses.
Une question, trois réponses
Prenons un cas concret. Un dirigeant s’interroge sur la gestion du risque cyber autour des données clients. La même question — “devons-nous renforcer notre sécurité autour des données clients ?” — peut être posée à un agent IA, et produire, selon le profil du demandeur, des réponses très différentes.
Un RSSI, formé à l’analyse de menaces, obtiendra une réponse orientée vers les vecteurs d’attaque : shadow IT, API exposées, défauts de cloisonnement. L’IA lui proposera des mesures précises, des seuils critiques, des politiques de remédiation.
Un DSI, garant du pilotage global, recevra une réponse orientée projet : estimation budgétaire, priorisation des chantiers, équilibre entre coûts de prévention et risques assurantiels.
Un membre du COMEX, en attente de clarté stratégique, se verra proposer des scénarios narratifs : conséquences réputationnelles d’une faille, exposition au regard du RGPD, impact sur la relation client.
Et maintenant, imaginez que cette mécanique ne concerne plus seulement les requêtes posées à un chatbot, mais l’intégralité des logiciels de l’entreprise.
Et si demain, chaque logiciel pouvait vous répondre ?
C’est le second basculement, déjà amorcé. Tous les éditeurs — Microsoft, Salesforce, SAP, Workday — y travaillent. Les logiciels deviennent interrogeables. On ne navigue plus. On questionne. On ne paramètre plus. On dialogue. À la place des interfaces, des agents. À la place des tableaux de bord, des copilotes intelligents. Demander à son ERP quel fournisseur présente le plus de risques. Interroger son outil RH sur les écarts de rémunération. Appeler son SIRH comme un assistant de confiance. Le poste de travail se mue en plateforme de conversation permanente.
Pour un CEO, c’est l’assurance d’un pilotage immédiat, en langage courant. Plus besoin d’interfaces, d’intermédiaires, de reporting : une simple question, et le système répond. Mais encore faut-il que cette question soit structurée, contextualisée, pertinente. Le gain de productivité est là, à portée de prompt — à condition que le décideur sache quoi demander. Et pourquoi.
Le DSI, lui, devient l’architecte d’un nouveau dialogue homme-machine. Il devra garantir la cohérence des réponses, éviter les contradictions entre agents, superviser les flux d’information sans les alourdir. Il quitte le monde des infrastructures pour celui des interactions. Il ne s’occupe plus de l’installation, mais de la chorégraphie.
Le DRH, de son côté, est en première ligne. Car demain, la performance d’un collaborateur ne dépendra plus seulement de sa maîtrise des outils… mais de sa capacité à poser une bonne question à l’agent qui les anime. L’expression devient compétence. La formulation, un facteur d’efficacité. Cela suppose de revoir les fiches de poste, les parcours de formation, les référentiels d’évaluation.
Le RSSI, quant à lui, devra s’armer d’un nouveau type de vigilance. La surface d’attaque ne sera plus technique, mais sémantique. Il faudra surveiller non pas seulement les connexions, mais les formulations. Un prompt trop verbeux peut devenir un acte de divulgation. Une requête trop ouverte, un point d’entrée pour l’exfiltration.
Et les équipes, dans tout cela ? Celles du CEO devront apprendre à interpréter des réponses IA dans des temporalités plus courtes, parfois plus floues, mais plus opérationnelles. Celles du DSI devront faire dialoguer les systèmes comme des êtres humains. Celles du DRH devront intégrer l’agent IA comme une nouvelle interface cognitive. Et celles du RSSI devront veiller à la sécurité non plus des accès, mais des intentions.
Alors oui, demain, tous les logiciels seront interrogeables. Mais encore faudra-t-il que chacun sache quoi leur demander. Et pourquoi.
La réponse ne fera plus autorité. Seule la question fera sens. À l’ère des agents IA, c’est peut-être là que résidera la nouvelle forme de pouvoir.
À LIRE AUSSI :

À LIRE AUSSI :
