Secu
IA : ce qu’implique le revirement de Trump sur la régulation
Par Guillaume Perissat, publié le 06 mai 2026
Après la dérégulation à tout-va, le retour des contrôles. Face aux risques cyber révélés par les nouveaux modèles d’intelligence artificielle, la Maison Blanche envisage désormais une supervision fédérale des Claude et autres GPT avant leur diffusion.
Longtemps champion d’une intelligence artificielle libérée de toute contrainte réglementaire, Donald Trump semble aujourd’hui amorcer un virage majeur. À en croire le New York Times, la Maison Blanche envisagerait de mettre en place un système de supervision gouvernementale des nouveaux modèles d’IA. Selon les sources du quotidien américain, l’administration Trump planche en effet sur un futur décret présidentiel, ou Executive Order dans la langue de Shakespeare. Lequel aboutirait à la création d’un groupe de travail sur l’IA réunissant agences fédérales et secteur privé. Objectif : étudier les possibles procédures de contrôle fédéral des modèles Claude ou encore GPT-5.x.
Vers un contrôle gouvernemental des modèles
L’Office of the National Cyber Director de la Maison Blanche a ainsi rencontré la semaine dernière des représentants d’OpenAI, d’Anthropic et de Google afin de leur présenter certaines de ces propositions.
C’est un revirement inattendu dans la doctrine de Donald Trump concernant l’intelligence artificielle. Le président avait annulé au premier jour de son second mandat le décret de l’administration Biden encadrant l’IA notamment en matière d’évaluations obligatoires de sécurité avant la mise sur le marché de nouveaux modèles. « Des règles absurdes et stupides » dénonçait Donald Trump. Car la réglementation ralentirait l’innovation américaine, notamment face à la Chine,
L’effet Mythos
Moins de deux ans plus tard, cette approche non-interventionniste a pris du plomb dans l’aile. Ces discussions entre l’administration fédérale et les géants de l’IA s’achoppaient sur les préoccupations de sécurité liées aux annonces d’Anthropic sur son modèle Mythos, dont l’éditeur prétend que ses capacités offensives seraient trop avancées pour qu’il soit publié. Le modèle, dans sa version Preview, aurait été capable d’identifier en quelques semaines des milliers de vulnérabilités critiques Zéro-day.
« On arrive sur des modèles qui ont des capacités dépassant largement ce qui a été fait précédemment dans la cyber » souligne Stéphane Roder, PDG et fondateur d’AI Builders. « Le problème vient du fait que ces modèles trouvent des failles que nous mettons des jours voire des semaines à découvrir à cause des dépendances. Ces modèles deviennent des éléments stratégiques utilisables potentiellement à mauvais escient s’ils sont mis dans les mains de personnes malintentionnées ». Une IA en mesure d’identifier massivement et rapidement des failles de sécurité pourrait autant servir à protéger les infrastructures que permettre des cyberattaques de grande ampleur.
Stéphane Roder
PDG et fondateur d’AI Builders
« On arrive sur des modèles qui ont des capacités dépassant largement ce qui a été fait précédemment dans la cyber »
D’où cette volonté de mettre en place des contrôles. « À mon sens, il s’agit plus d’une question de sécurisation des logiciels et programmes du gouvernement, afin d’éviter que des hackers s’engouffrent par des failles de sécurité révélées par les grands modèles », nous explique Jean-François Deldon, CEO et fondateur de Yakadata.
D’autant qu’un accès a priori à un modèle tel que Mythos peut permettre d’identifier les vulnérabilités d’un système en “avant-première”, de sorte à pouvoir les corriger avant que le modèle ne soit mis sur le marché.
L’IA, un risque cyber de plus
Mais les capacités défensives ne sont pas les seules à intéresser le gouvernement étatsunien. Les usages militaires de l’intelligence artificielle sont d’ailleurs au cœur du conflit opposant Anthropic au Pentagone. Or, selon le New York Times, l’administration américaine n’exclut pas d’utiliser ce système de contrôle des modèles pour accorder aux agences fédérales et à l’armée un accès prioritaire aux capacités aussi bien défensives qu’offensives de ces IA en matière de cyber.
Pour l’heure, ces discussions sont « spéculatives », quand bien même le cadre de ce mécanisme d’examen préalable serait déjà bien avancé. À Axios, un responsable de la Maison Blanche explique qu’il était en préparation avant même les annonces d’Anthropic.
De l’accélération à la maîtrise
Au fond, le débat ne porte déjà plus sur la nécessité d’accélérer l’intelligence artificielle mais sur la maîtrise de modèles devenus trop avancés pour rester sans gouvernance. Si même une administration historiquement acquise à la dérégulation envisage désormais de prendre des mesures de contrôle de sécurité, c’est que la régulation de l’IA apparaît désormais inévitable.
Jean-François Deldon
CEO et fondateur de Yakadata
« Ce sont des vrais enjeux de gouvernance et on doit envisager de faire des tests croisés avec plusieurs IA pour accroître la robustesse du tout »
Pour les entreprises de notre côté de l’Atlantique, le signal est clair : I’IA représente un risque qui doit être intégré aux sujets de gouvernance et certains modèles doivent être considérés non plus comme de simples outils logiciels mais comme des actifs stratégiques sensibles. Mieux vaut en outre anticiper audits, certifications et nouvelles obligations.
Pour Jean-François Deldon, « on peut s’attendre à ce que les DSI multiplient les tests de sécurisation de leurs programmes et logiciels avec des IA. Quand des modèles comme Mythos ou autres sortent, il faut prévoir de faire rapidement des tests de découverte de failles critiques avec. Ce sont des vrais enjeux de gouvernance et on doit envisager de faire des tests croisés avec plusieurs IA pour accroître la robustesse du tout ». Une analyse partagée par Stéphane Roder : « les DSI doivent se préparer à des attaques massives qu’ils doivent dès aujourd’hui chercher, avec des modèles moins puissants peut-être, à parer ». L’enjeu n’est plus seulement d’adopter l’IA au plus vite mais d’apprendre à en maîtriser les risques à long terme.
À LIRE AUSSI :
À LIRE AUSSI :
