L'ANSSI publie une note de synthèse sur l'IA générative et la cybersécurité

Secu

L’ANSSI publie une note de synthèse sur l’IA générative dans les cyberattaques

Par Laurent Delattre, publié le 05 février 2026

Pas de sensationnalisme au menu, ce n’est pas le style de la maison. L’ANSSI vient de publier une note de synthèse inédite sur les usages offensifs de l’IA générative et les menaces pesant sur ces technologies. Voici ce qu’il faut en retenir.

Alors que les DSI intègrent massivement des briques d’IA générative dans leurs systèmes d’information et que les acteurs de la cybersécurité multiplient les alertes et les outils de contrôle, l’ANSSI livre une photographie utile et plutôt bien cadrée d’un sujet décidément très d’actualité.

Publié cette semaine, « L’IA générative face aux attaques informatiques, synthèse de la menace en 2025 » est un document court, d’à peine 12 pages, qui cherche à remettre un peu d’ordre dans les débats et les inquiétudes actuelles. D’un côté, l’IA générative agit déjà comme un accélérateur de productivité pour les attaquants, tout au long de la chaîne d’attaque. De l’autre, les systèmes d’IA eux-mêmes deviennent une nouvelle surface d’attaque, avec des logiques proches de la supply chain logicielle.

Et l’ANSSI se montre, comme souvent, prudente et réservée. L’agence nationale affirme ainsi n’avoir pas connaissance de cyberattaques menées contre des acteurs français à l’aide de l’intelligence artificielle. L’agence n’a pas non plus identifié de système capable de conduire de manière autonome l’intégralité d’une chaîne d’attaque. Voilà qui tranche avec certains discours catastrophistes des éditeurs de solutions cyber.

L’IA en arme

L’ANSSI ne cherche néanmoins nullement à minimiser le risque. Le texte souligne au contraire qu’il est plausible que ces technologies augmentent le niveau, la quantité, la diversité et l’efficacité des attaques, particulièrement sur des environnements peu sécurisés. Mieux encore, il détaille méthodiquement comment les attaquants, qu’ils soient étatiques ou cybercriminels, exploitent déjà les services d’IA générative comme facilitateurs.

La reconnaissance de cibles (comme celle réalisée avec Gemini par des groupes liés à l’Iran), la création de contenus d’hameçonnage multilingues (avec diverses campagnes chinoises), le développement de codes malveillants polymorphiques ou l’analyse massive de données exfiltrées constituent autant de cas d’usage documentés. Sans oublier les sites web « à l’apparence légitime » générés par IA afin d’héberger des charges malveillantes ou de faire de la caractérisation, autrement dit du profiling des visiteurs pour sélectionner des cibles. Enfin, l’ANSSI n’oublie pas la démocratisation des deepfakes avec des services utilisés pour “quelques dizaines de dollars” afin de faciliter l’usurpation d’identité.

Plus technique, une partie est également consacrée aux usages plus offensifs à l’instar de l’exemple d’un script PowerShell généré par LLM, de l’exemple de PoCs à base de prompts “dynamiques” capables de générer des scripts à l’exécution, ou encore de l’idée d’un code polymorphique qui réécrit régulièrement son propre code via une API de modèle pour compliquer la détection.

De quoi prendre conscience que l’IA est loin de se contenter de produire du Phishing propre ou du Vishing réaliste, mais qu’elle sert d’outil pour introduire variabilité et automatisation dans les attaques pour les rendre plus complexes à détecter. L’ANSSI reste néanmoins dans la nuance en reconnaissant explicitement les limites actuelles des systèmes d’IA offensive et qu’il n’existe pas de cas avéré d’exploitation de faille zéro-day découverte par une IA. Pour autant, l’agence ne ferme pas la porte à de tels scénarios. Elle cite des progrès observés côté défense et recherche, avec des systèmes orientés détection de vulnérabilités dans du code réel et des approches de scan à grande échelle ayant soumis de nombreuses vulnérabilités sur des programmes de Bug Bounty.

Et l’IA en cible

L’ANSSI n’oublie pas que l’IA n’est pas qu’un vecteur, c’est aussi une cible. Les passages sur l’empoisonnement des modèles, le slopsquatting (technique exploitant les hallucinations de l’IA pour injecter des paquets malveillants) ou les vulnérabilités des serveurs MCP apportent un éclairage technique bienvenu. Le document mentionne aussi des compromissions massives de comptes ChatGPT par infostealers et des exemples de fuites involontaires via des salariés qui soumettent des informations sensibles à un service d’IA.

Dans une période où l’on confond facilement démos de laboratoire et réalité opérationnelle, la note de synthèse de l’ANSSI a au moins l’honnêteté de bien distinguer ce qu’elle observe vraiment, ce qu’elle anticipe comme plausible, et ce qui n’a encore jamais été confirmé.
C’est aussi une indispensable introduction au guide de « Recommandations de sécurité pour un système d’IA générative » qui se focalise bien davantage sur les mesures de protection et leur mise en œuvre.

Bien sûr la portée d’une telle note reste restreinte. Le texte donne des exemples, des tendances, des références, mais il ne propose pas de matrice de probabilité/impact ni de lecture par scénarios métiers. Il ne propose pas non plus de chiffres sur l’ampleur de la menace en France et en Europe. Mais cette note n’en demeure pas moins une boussole pour DSI et RSSI en quête d’éclairages. Elle montre où l’IA change réellement l’équation et où elle ne la change pas encore, tout en décrivant la zone grise la plus dangereuse, celle des intégrations rapides d’assistants et d’agents qui branchent des modèles sur des données, des outils et des permissions. Et l’ANSSI de souligner que cette synthèse appelle « une réévaluation régulière de la menace » compte tenu de l’évolution rapide des usages et des technologies IA. Une façon de dire que ce premier état des lieux n’est qu’un commencement.


Pour télécharger la note de l’ANSSI : Rapport menaces et incidents – CERT-FR


À LIRE AUSSI :

À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights