Secu
IA, agents, deepfakes, post-quantique : pourquoi il faut voir le replay de notre Matinale cyber
Par Thierry Derouet, publié le 20 mars 2026
L’intelligence artificielle change déjà la cybersécurité. Elle aide à détecter, trier, corréler, prioriser. Mais elle aide aussi les attaquants à industrialiser leurs offensives, à perfectionner leurs fraudes et à contourner les réflexes de vigilance traditionnels. Lors de notre Matinale IT for Business, responsables cyber, DSI et experts ont mis des mots très concrets sur cette nouvelle donne. Un replay dense, opérationnel, que les DSI et RSSI auraient tort de manquer.
Pendant longtemps, l’IA dans la cyber a relevé de la promesse. Elle appartenait au vocabulaire des démonstrations, des roadmaps et des projections. Ce temps-là est terminé. L’IA est désormais dans les outils, dans les SOC, dans les mécanismes de détection, dans la gestion des identités, dans certaines briques d’administration, et bientôt dans des agents capables d’agir de manière bien plus autonome sur le système d’information.
Le problème, c’est que cette accélération ne profite pas qu’aux défenseurs.
C’est tout l’intérêt de cette Matinale IT for Business : avoir posé le sujet sans naïveté. Oui, l’IA peut renforcer les équipes de sécurité. Oui, elle peut absorber une partie du bruit, accélérer les analyses, aider à hiérarchiser les vulnérabilités, fluidifier la gestion opérationnelle. Mais elle donne aussi aux attaquants des moyens nouveaux pour rendre leurs offensives plus rapides, plus crédibles, plus ciblées et plus difficiles à détecter. Sur ce point, on pourra aussi lire notre analyse « IA en cybersécurité : qui mène vraiment le jeu ? ».
Une IA de confiance, ou une dette de sécurité
En ouverture, Farida Poulain, directrice générale du Campus Cyber, replace le débat sur un terrain plus large : celui de la souveraineté, de la résilience, de la dépendance technologique et de la capacité de l’écosystème français à faire émerger une IA utile, crédible et maîtrisée.
Son propos est limpide : la France ne gagnera sans doute pas la bataille des modèles généralistes à coups de dizaines ou de centaines de milliards. En revanche, elle peut se positionner sur une autre promesse : celle d’une IA appliquée, spécialisée, embarquée dans des environnements critiques, et pensée dès le départ avec des exigences de sécurité, de conformité et de maîtrise de ses dépendances.
L’automatisation avance, sous surveillance
Avec York von Eichel-Streiber, Product Marketing Manager EMEA chez NinjaOne, la Matinale descend ensuite d’un cran dans l’opérationnel. L’IA y apparaît comme un assistant avancé pour aider les administrateurs à analyser des correctifs, repérer ceux qui présentent un risque de stabilité, accélérer certains déploiements et alléger une partie des tâches les moins gratifiantes.
Le mouvement vers plus d’automatisation est engagé, mais il reste encadré. Dans les environnements critiques, la validation humaine demeure la frontière. L’idée n’est pas de confier aveuglément l’infrastructure à une machine capable d’halluciner ou d’interpréter de travers un contexte technique. Cette logique rejoint d’ailleurs très directement notre article « Certificats TLS plus courts : industrialiser pour survivre ».
L’identité, nouveau champ de bataille
Au fil des échanges, une idée s’impose : dans un monde d’agents, d’automatisation et de machines qui dialoguent entre elles, la question de l’identité devient centrale. Luc Imbert le rappelle à propos des certificats, des workloads et des chaînes de développement.
Jean-François Pruvot, Regional Vice President Europe du Sud chez Saviynt, l’approfondit en décrivant la montée en puissance des agents IA dans les entreprises.
Ceux-ci ne sont pas de simples assistants passifs. Ils peuvent consulter des applications, accéder à des systèmes critiques, interagir avec des ERP, des CRM ou des outils métiers, parfois avec des privilèges considérables. D’où un message fort : un agent IA doit être traité comme une identité à part entière, avec un propriétaire, des droits limités, des autorisations contextualisées, une capacité d’audit, et surtout aucun passe-droit sous prétexte qu’il automatise. Sur ce terrain, on pourra aussi relire « Repenser la gouvernance des données à l’ère des agents IA ».
Le post-quantique n’est plus un sujet lointain
L’autre grand intérêt de cette Matinale est d’avoir ouvert une fenêtre sur un second front, moins immédiatement visible mais tout aussi structurant : celui du post-quantique.
Avec Valérie Fasquelle, directrice générale des Systèmes d’information de la Banque de France, puis Helmi Rais, Associate Global Practice Director chez Expleo, le débat se déplace vers la question du chiffrement, de la durabilité des mécanismes cryptographiques actuels et de la nécessité d’anticiper un basculement qui ne se fera ni en un jour ni sans douleur.
Le message est sans ambiguïté : certaines données sensibles peuvent être volées aujourd’hui pour être déchiffrées plus tard, et la transition vers le post-quantique sera longue, coûteuse et profondément structurante. Il faudra inventorier, hiérarchiser, hybrider, tester et devenir crypto-agile.
La gouvernance, avant tout
En clôture, Romain Massari, Directeur de la BU Cybersecurity France chez Inetum, recentre utilement le débat sur la gouvernance. Shadow AI, politiques trop rigides ou trop floues, besoin de mieux aligner les réponses cyber avec les attentes métiers, centralité croissante de la donnée, segmentation des environnements : tout converge vers le même constat.
L’IA ne supprime pas les fondamentaux de la cybersécurité. Elle les met sous tension. Elle oblige les organisations à mieux savoir où sont leurs données, qui y accède, avec quels droits, dans quels environnements, à travers quels outils et pour quels usages.
À LIRE AUSSI :
