Cybersécurité, journalisation, conformité : tout sur les nouveaux standards IA imposés par l’EU AI Act et leurs défis pour les entreprises.

Data / IA

Les effets de l’EU AI Act sur la cybersécurité des systèmes d’IA

Par La rédaction, publié le 05 août 2025

Même s’il n’est que partiellement appliqué depuis le 2 Août, l’AI Act européen impose déjà un nouveau rythme : sécurité dès la conception, traçabilité granulaire et contrôle accru sur les infrastructures et partenaires. L’enjeu ? Renforcer la fiabilité des systèmes IA tout en anticipant la complexité réglementaire et les défis de la supply chain mondiale.


Par Dirk Schrader, VP of Security Research et Field CISO EMEA chez Netwrix


Le Règlement européen sur l’intelligence artificielle (EU AI Act), adopté en mars 2024 et publié il y a maintenant un an, renforce la cybersécurité en imposant des protections techniques contre les vecteurs d’attaque spécifiques à cette technologie. Il s’agit de la première réglementation européenne de grande envergure à prévoir des protections contre l’empoisonnement des données et des modèles, les attaques par exemples contradictoires, les attaques de confidentialité ou les failles dans les modèles.

Bien que les standards techniques et les évaluations spécifiquement élaborées pour ces protections doivent être définis ultérieurement dans des actes délégués et d’exécution, les grandes lignes sont déjà posées.

Des exigences qui reconfigurent les pratiques

Ce nouveau règlement exige des systèmes à haut risque un niveau d’exactitude, de robustesse et de cybersécurité continu, s’apparentant aux pratiques DevSecOps plutôt qu’à une certification ponctuelle. Les entreprises sont incitées à automatiser la surveillance, l’enregistrement, l’actualisation et le signalement de leur posture de sécurité, facilitées par des cadres comme la DSPM.

L’EU AI Act met également l’accent sur la sécurisation des infrastructures d’IA, exigeant des fournisseurs d’IA générique présentant un risque systémique qu’ils protègent à la fois le modèle et son infrastructure physique et sur le cloud. Ces obligations viennent s’ajouter aux réglementations européennes existantes, notamment la directive NIS2, le règlement sur la cyberrésilience, le règlement général sur la protection des données (RGPD), ainsi qu’à d’autres règles sectorielles.

Se conformer à cette nouvelle législation

Pour garantir leur conformité, les entreprises doivent suivre une approche structurée en procédant à une classification initiale des risques et à une analyse complète des lacunes.
Cela peut se faire en « cartographiant » chaque système d’IA afin d’identifier les systèmes d’IA à haut risque et en auditant les contrôles de sécurité existants.

Par ailleurs, les organisations doivent mettre en place de solides structures de gouvernance de l’IA et constituer des équipes transversales qui couvrent les domaines du juridique, de la sécurité, de la science des données et de l’éthique. Ces équipes interdisciplinaires auront également pour mission de définir des procédures claires de gestion des modifications. Il ne s’agit pas seulement d’ajouter des rôles de conformité, mais également de mettre en place des changements fondamentaux à chaque étape du cycle de développement de produits en incorporant les considérations de sécurité et de conformité dès la conception initiale jusqu’aux opérations courantes.

Faire évoluer l’infrastructure technique

Au-delà des questions de gouvernance, la conformité implique aussi une évolution des infrastructures et des outils en place. Il convient donc de procéder à une refonte de l’infrastructure de cybersécurité pour l’IA, en commençant notamment par une amélioration de la journalisation. Cela implique d’automatiser la capture d’événements de bout en bout (données, sorties de modèles, interventions humaines), un processus particulièrement complexe, lorsqu’il d’agit de détecter les sabotages et les de requêtes malveillantes. Les mécanismes de sécurité intégrés comme un bouton « stop » et la redondance technique sont plus simples, mais posent des défis avec les systèmes hérités. Dans ce type de situations, certaines entreprises découvriront que leur système IA actuel ne peut pas être mis à niveau pour intégrer les capacités de journalisation et de surveillance nécessaires, entraînant des coûts élevés de reconstruction ou de remplacement.

Supply chain et tiers : une pression réglementaire croissante

Ainsi, la sécurité ne se limite plus aux systèmes internes puisqu’elle doit aussi s’étendre aux relations avec les prestataires et fournisseurs.

Les partenariats avec des tiers et la diligence raisonnable sur la supply chain sont deux aspects critiques. La directive NIS2 et le règlement sur la résilience opérationnelle numérique DORA (Digital Operational Resilience Act) exigent des entreprises qu’elles accordent une importance accrue à cette partie de la gestion globale des risques, de sorte que l’ajout d’exigences liées à l’IA augmentera la pression en vue de fournir des garanties de sécurité contractuelles à tous les éléments et services de tierce partie.

Il y a en effet un risque d’explosion du nombre de prestataires de services spécialisés dans la mise en conformité de l’IA, et les entreprises doivent se méfier du « compliance washing », pratique au terme de laquelle les prestataires se déclarent « prêts » alors qu’ils ne disposent d’aucune compétence technique approfondie.

Une amélioration de la sécurité des systèmes d’IA 

L’AI Act marque également un tournant sur le plan de la standardisation. La sécurité de l’IA à l’échelle de l’UE gagne en cohérence, établissant une référence harmonisée. Cette démarche cible directement les protections spécifiques à l’IA, en se concentrant sur la neutralisation des attaques contradictoires, l’empoisonnement des données et les violations de la confidentialité. L’accent mis sur une sécurité “par conception” est un point fort des réglementations en vigueur, imposant une approche qui intègre la sécurité dès le début et tout au long du cycle de vie opérationnel d’un système d’IA.

De plus, une responsabilisation et une transparence accrues sont attendues grâce à des exigences strictes en matière de journalisation, de surveillance post-commercialisation et de déclaration obligatoire des incidents. Au-delà des frontières de l’UE, « l’effet Bruxelles » pourrait inspirer des améliorations similaires de la sécurité des systèmes d’IA déployés dans le monde entier, étendant ainsi les bénéfices de ces réglementations bien au-delà des États membres.

Les défis potentiels soulevés par le règlement européen sur l’IA 

Pour autant, la mise en œuvre du règlement et d’autres textes sur la sécurité de l’IA pourrait être entravée par plusieurs facteurs.

Les menaces liées à l’IA évoluent rapidement, ce qui exige des mises à jour constantes des règles. De plus, les autorités nationales et les organismes notifiés manquent de ressources et d’expertise, ce qui rend difficile l’application effective des réglementations.

La mondialisation des supply chains et des déploiements cloud de l’IA complexifie l’application juridictionnelle. Il existe également un risque de « conformité de façade », où les entreprises privilégient la conformité formelle, potentiellement au détriment des petites structures innovantes, ce qui pourrait réduire la diversité et la résilience de l’écosystème de l’IA. Enfin, les conflits entre les exigences de l’UE et les cadres réglementaires d’autres pays pourraient entraîner une fragmentation des systèmes d’IA mondiaux.

Améliorer la sécurité globale des entreprises qui disposent d’un système d’IA « à haut risque »

Compte tenu de ces limites, les entreprises doivent passer d’une logique de conformité défensive à une stratégie proactive, à la fois technique et organisationnelle. Pour répondre efficacement à l’évolution des menaces liées à l’IA, il est essentiel d’adopter une approche polymorphe centrée à la fois sur la mise en œuvre immédiate et le développement stratégique à long terme.

Les entreprises doivent d’abord instaurer des systèmes de surveillance et de détection IA contre les attaques d’empoisonnement, contradictoires et de confidentialité, ainsi qu’un système de journalisation granulaire pour une traçabilité complète. Le maintien d’une surveillance et d’un contrôle humains, avec des « boutons d’arrêt » et une formation adéquate, est essentiel. Une gouvernance rigoureuse des données est primordiale. Enfin, elles doivent évaluer la sécurité de la supply chain en auditant les composants, fournisseurs cloud et sources de données.

Alors, pour une sécurité durable de l’IA, les entreprises doivent adopter une approche stratégique : réaliser des tests continus (red teaming, tests contradictoires), vérifier la supply chain IA, et élaborer des plans de réponse aux incidents. Investir dans la recherche et les talents en sécurité de l’IA est crucial. À l’international, une stratégie transfrontalière est impérative pour concilier exigences réglementaires et standards de sécurité. Enfin, un engagement actif dans l’élaboration des réglementations garantira la viabilité technique et économique des exigences futures. En combinant ces efforts, il est possible de créer un avenir où l’IA est non seulement innovante, mais aussi sûre et digne de confiance pour tous.



À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights