De la fraude hyper-personnalisée aux malwares polymorphes et aux agents autonomes, l’intelligence artificielle redéfinit en profondeur le paysage de la cybersécurité. Face à des attaques industrialisées par l’IA, la défense se réinvente avec copilotes SOC, automatisation et prédiction, mais doit aussi sécuriser ses propres modèles pour éviter un nouveau point de rupture.
La cybersécurité repose sur un déséquilibre redoutable : d’un côté, des attaquants qui frappent quand ils veulent, comme ils veulent, là où ils veulent, en choisissant les conditions les plus propices ; de l’autre, des défenseurs qui doivent tout protéger, partout, tout le temps, alors même que la surface d’attaque s’étend inexorablement avec le SI et sa complexité. Longtemps, on a espéré que l’IA rééquilibrerait les forces : avec leurs télémétries riches (réseaux, endpoints, identités), les entreprises entraîneraient des modèles plus pertinents que ceux des attaquants et prendraient enfin l’avantage. Mais ça, c’était avant l’arrivée de l’IA générative. Depuis, l’éternel jeu du chat et de la souris est relancé de plus belle… et les dés semblent pipés. Certes, les avis divergent sur l'état actuel des forces. « En 2025, l’augmentation exponentielle des fraudes optimisées par l’IA a été à l’avantage des attaquants » estime David Girard, Head of AI Security & Alliances chez Trend Micro. D'autres, comme David Grout, CTO EMEA de Google Cloud Security, tempèrent en affirmant que « sur les douze d...
CET ARTICLE EST RÉSERVÉ AUX ABONNÉS
Abonnez-vous dès maintenant
- ✓ Tous les articles d’IT for Business
- ✓ Le magazine mensuel en version numérique ou en version papier
- ✓ Les newsletters exclusives
Dans l'actualité
-
-
CTI : pourquoi vos listes d’indicateurs ne sont pas du renseignement
Laurent Delattre
-
-
-
-
-
-
OpenAI : qui contrôle financièrement ChatGPT ?
Thierry Derouet
-
-
