Data / IA
Anthropic lance « Project Glasswing » parce que son prochain modèle est trop dangereux pour être publié
Par Laurent Delattre, publié le 08 avril 2026
L’information fait presque peur. Avec son nouveau modèle répondant au nom de code « Mythos », l’IA d’Anthropic progresse tellement en cybersécurité qu’elle ne peut plus être rendue publique en l’état. Son potentiel mis au service des cybercriminels serait dévastateur. Pour ne pas en perdre le contrôle et transformer cette superintelligence en bouclier défensif, la jeune pousse lance « Project Glasswing » qui réunit douze géants technologiques dont Apple, Amazon, Google, Nvidia et Microsoft. Décryptage d’une initiative qui doit directement interpeler les DSI.
Le jour J est arrivé. Celui où une IA devient suffisamment intelligente pour constituer un risque majeur de cybersécurité. C’est en tout cas le message qu’Anthropic adresse à l’industrie avec Claude Mythos Preview, un modèle frontière non publié (très probablement base du futur Claude Opus 5.0) dont les capacités en détection de vulnérabilités surpassent celles de la quasi-totalité des experts humains.
Pour encadrer cette puissance, l’éditeur lance le Project Glasswing, une coalition défensive inédite réunissant AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks. Coup de com’ marketing ? Alerte éclairée ? Sans doute un peu des deux. Mais le signal envoyé aux DSI est limpide : le paysage de la cybersécurité va bientôt changer de dimension grâce à, ou à cause de, l’IA !
Un modèle trop performant pour être lâché dans la nature
Anthropic ne fait pas dans la demi-mesure. En annonçant simultanément Claude Mythos Preview et sa décision de ne pas le commercialiser au grand public, l’éditeur de San Francisco pose un acte sans véritable précédent dans l’industrie de l’IA. « Nous ne prévoyons pas de rendre Claude Mythos Preview accessible au grand public en raison de ses capacités en cybersécurité », a confirmé Newton Cheng, responsable de la Frontier Red Team Cyber chez Anthropic. La formulation est calibrée, mais le fond est radical : pour la première fois, un éditeur d’IA reconnaît explicitement que son modèle le plus avancé représente, en l’état, un danger systémique.
Et les chiffres parlent d’eux-mêmes. En quelques semaines de tests, Mythos Preview a identifié des milliers de vulnérabilités zéro-day (c’est-à-dire des failles inconnues des développeurs) dans chaque système d’exploitation majeur et chaque navigateur web du marché. Parmi les découvertes les plus spectaculaires : une faille vieille de 27 ans dans OpenBSD, un OS pourtant réputé comme l’un des plus sécurisés au monde, qui permettait de faire planter à distance n’importe quelle machine simplement en s’y connectant. Autre trouvaille : un bug datant de 16 ans dans FFmpeg, la bibliothèque vidéo utilisée par d’innombrables logiciels, que les outils de tests automatisés avaient échoué à détecter malgré cinq millions de passages sur la ligne de code concernée. Plus impressionnant encore, le modèle a découvert et enchaîné de manière autonome plusieurs vulnérabilités dans le noyau Linux pour permettre une escalade de privilèges complète, du simple utilisateur au contrôle total de la machine.
L’information n’est pas que des failles critiques sommeillent depuis des décennies dans les logiciels sur lesquels reposent leurs infrastructures. Ça, on le savait ou tout au moins on le soupçonnait.
L’information est qu’une IA peut désormais les trouver en quelques heures là où des armées d’experts et de scanners automatisés ont échoué pendant des années. La mettre à disposition de tous et donc des cyberattaquants serait tout simplement suicidaire pour l’humanité.
Une nouvelle réalité s’impose à tous les DSI et à tous les développeurs : la rareté de l’expertise offensive, qui limitait encore partiellement le volume des attaques sophistiquées, commence à céder.
Glasswing : une coalition défensive d’un genre nouveau
Face à ce constat, Anthropic a choisi de ne pas jouer cavalier seul. Le Project Glasswing (du nom du papillon aux ailes transparentes, Greta oto, métaphore de la transparence prônée par l’initiative) rassemble douze partenaires fondateurs parmi lesquels AWS, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike et Palo Alto Networks, auxquels s’ajoutent plus de quarante organisations supplémentaires qui construisent ou maintiennent des infrastructures logicielles critiques. Anthropic engage jusqu’à 100 millions de dollars en crédits d’utilisation de Mythos Preview et 4 millions de dollars en donations directes à des organisations de sécurité open source.
L’approche est volontairement collaborative et le message adressé à l’écosystème est clair : « Aucune organisation ne peut résoudre seule ces problèmes de cybersécurité », écrit Anthropic dans son billet de lancement. « Les développeurs d’IA frontière, les autres éditeurs de logiciels, les chercheurs en sécurité, les mainteneurs open source et les gouvernements du monde entier ont tous un rôle essentiel à jouer. »
Le choix des partenaires n’est pas anodin. La présence simultanée de Microsoft, par ailleurs investisseur majeur dans OpenAI, et de Google, qui fournit à Anthropic une partie de sa puissance de calcul, illustre l’ampleur de la menace perçue. Igor Tsyganskiy, EVP Cybersecurity et Microsoft Research, confirme que, testé contre CTI-REALM, le benchmark de sécurité open source de Microsoft, Mythos Preview a montré des améliorations substantielles par rapport aux modèles précédents. Du côté de CrowdStrike, le CTO Elia Zaitsev cadre l’urgence sans détour : « La fenêtre entre la découverte d’une vulnérabilité et son exploitation par un adversaire s’est effondrée : ce qui prenait des mois se produit désormais en minutes avec l’IA. »
L’open source en première ligne
Au-delà des grands éditeurs, le Project Glasswing accorde une place centrale à l’écosystème open source, dont les logiciels constituent la colonne vertébrale de la quasi-totalité des systèmes modernes, y compris ceux que les agents IA utilisent pour écrire du nouveau code. On le sait, les failles zéro-day dans les bibliothèques open-source ont souvent des impacts majeurs sur le bon fonctionnement des entreprises. La dépendance aux composants ouverts, souvent mal inventoriés, rarement audités en profondeur, constitue un angle mort majeur des politiques de sécurité. Il s’agit donc de s’assurer que les prochains modèles IA seront utilisés par la communauté open source pour corriger les vulnérabilités que ceux-ci dévoilent avant que l’outil ne tombe entre des mains malveillantes. « Par le passé, l’expertise en sécurité a été un luxe réservé aux organisations disposant de grandes équipes de sécurité. Les mainteneurs open source, dont les logiciels soutiennent une grande partie de l’infrastructure critique mondiale, ont historiquement été laissés à eux-mêmes » rappelle Jim Zemlin, CEO de la Linux Foundation.
Si un modèle d’IA peut désormais, à une échelle industrielle, scanner et corriger les briques logicielles qui servent de fondation aux applications et services, c’est toute la chaîne d’approvisionnement logicielle qui s’en retrouvera renforcée. Renverser l’équation est justement toute l’ambition du Project Glasswing. Les mainteneurs open source vont recevoir l’aide de l’IA en priorité. Anthropic a versé 2,5 millions de dollars à Alpha-Omega et à l’OpenSSF via la Linux Foundation, et 1,5 million de dollars à l’Apache Software Foundation. Les mainteneurs intéressés peuvent candidater via le programme Claude for Open Source pour accéder au modèle. L’idée est de transformer la sécurité augmentée par l’IA en ce que Jim Zemlin appelle « un compagnon de confiance pour chaque mainteneur, pas seulement pour ceux qui ont les moyens de s’offrir des équipes de sécurité coûteuses ».
Entre transparence assumée et storytelling maîtrisé
Il serait naïf de ne pas voir dans le Project Glasswing une opération de communication parfaitement orchestrée. Le même jour que l’annonce, Anthropic a révélé avoir atteint 30 milliards de dollars de revenu annualisé et annoncé un accord massif avec Broadcom portant sur 3,5 gigawatts de capacité de calcul via les processeurs IA de Google. Le timing n’est évidemment pas fortuit et Anthropic veut créer le Buzz autour de « Mythos » et de « Project Glasswing » pour mieux enfoncer son principal concurrent déjà en mauvaise posture depuis plusieurs mois et qui vient d’annoncer une énième restructuration, OpenAI.
Ironiquement, Mythos ou pas, l’existence même du modèle avait fuité quelques semaines plus tôt à cause d’un cache de données non sécurisé et publiquement accessible sans oublier qu’Anthropic a laissé fuiter plus de 500 000 lignes de code source de Claude Code suite à une erreur de configuration « humaine » de l’outil npm.
Rappelons aussi que le storytelling du « modèle trop dangereux pour être publié » n’est pas sans précédent. En 2019, OpenAI avait brandi le même argument avec GPT-2, déjà présenté à l’époque comme trop risqué pour être diffusé. La différence, cette fois, est que les capacités démontrées par Mythos sont tangibles et vérifiables avec une longue liste de vulnérabilités découvertes par l’IA et déjà en cours de correction chez les mainteneurs concernés.
Ce que les DSI doivent retenir
Ce que Mythos révèle, ce n’est pas seulement la montée en puissance d’un fournisseur d’IA ; c’est la vulnérabilité structurelle d’une pile logicielle largement mutualisée. Et au-delà du buzz médiatique, le Project Glasswing envoie aussi plusieurs signaux que DSI et RSSI ne peuvent ignorer. Le premier est que le coût, l’effort et le niveau d’expertise requis pour découvrir et exploiter des vulnérabilités logicielles ont chuté de manière spectaculaire avec les derniers modèles d’IA frontière. Ce qui nécessitait hier des semaines de travail d’un pentesteur chevronné peut aujourd’hui être accompli en heures par un agent IA autonome. Les attaquants ne mettront pas longtemps à disposer de capacités comparables.
Le deuxième signal est que la sécurité de la chaîne d’approvisionnement logicielle — et notamment des composants open source — devient un chantier prioritaire et non plus un sujet de conformité théorique. La directive NIS2, le règlement DORA et les exigences SecNumCloud poussaient déjà dans cette direction ; l’irruption de modèles capables de scanner des millions de lignes de code en autonomie rend l’exercice à la fois plus urgent et plus accessible.
Le troisième signal, peut-être le plus structurant, est que la cybersécurité entre dans une ère de course aux armements pilotée par l’IA. Anthropic prévoit de publier un rapport public sur les enseignements tirés de Glasswing dans les 90 jours et de produire, avec ses partenaires, un ensemble de recommandations pratiques couvrant la divulgation de vulnérabilités, les processus de mise à jour, la sécurité de la chaîne logicielle, le secure-by-design et l’automatisation du patching.
Enfin, Project Glasswing ne tombe pas comme un cheveu sur la soupe. À bien y regarder, l’initiative s’inscrit dans une séquence stratégique plus large menée par Anthropic. Quelques jours avant l’annonce du moment, Anthropic a mis à jour sa « Responsible Scaling Policy » (version 3.1) et publié une nouvelle « Frontier Safety Roadmap ». L’éditeur y organise sa vision autour de quatre piliers — sécurité, garde-fous, alignement et politique publique — et dévoile des chantiers de R&D ambitieux qu’il qualifie lui-même de « moonshots ». Parmi eux, la mise en place d’environnements soumis à des protocoles de sécurité extrêmes et le développement de la « provable inference » : en clair, la capacité à prouver de manière cryptographique qu’une réponse du modèle provient bien d’un jeu de poids précis et non d’une version altérée ou compromise. C’est dans cette logique de prudence graduée qu’Anthropic justifie son choix de ne pas rendre Mythos Preview accessible au grand public. L’éditeur prévoit d’abord de déployer de nouveaux garde-fous sur un prochain modèle Claude Opus, jugé moins sensible, afin de les tester en conditions réelles avant d’envisager la mise à disposition de modèles de classe Mythos à plus grande échelle.
L’IA entre dans une nouvelle ère, la cybersécurité aussi : maîtriser l’une est désormais la condition de survie de l’autre.
À LIRE AUSSI :
À LIRE AUSSI :
