ChatGPT au coeur des opérations malveillantes

Secu

Comment ChatGPT est utilisé pour automatiser des opérations malveillantes

Par La rédaction, publié le 06 juin 2025

Entre trolls orchestrés, avatars fabriqués et scripts optimisés, les campagnes d’influence s’arment d’IA pour frapper plus vite, plus loin et plus crédible. D’une simple aide à la rédaction, ChatGPT devient un véritable centre de commande pour des opérations malveillantes. OpenAI a mené l’enquête…

OpenAI vient de rendre public un rapport qui confirme l’appropriation croissante de ChatGPT par des acteurs étatiques (notamment chinois) afin de mener des opérations d’influence multilingues et de soutenir des cyber-attaques.
Au cours des trois derniers mois, l’éditeur dit avoir démantelé dix campagnes malveillantes construites en appuie sur ChatGPT. Quatre d’entre elles seraient d’origine chinoise et combinaient désinformation, ingénierie sociale et activités de surveillance.

Des campagnes d’influence calibrées pour paraître authentiques

Parmi les cas emblématiques figure « Sneer Review », une opération qui consistait à inonder TikTok, X, Reddit et Facebook de commentaires en anglais, chinois et ourdou. Les opérateurs malveillants publiaient grâce à l’IA un premier message, puis généraient avec ChatGPT des réponses pour simuler un débat spontané. Certains contenus encensaient, d’autres critiquaient la même décision afin de créer une illusion de pluralisme. Ces messages portaient sur des sujets variés, comme la dissolution de l’Agence américaine pour le développement international (USAID), des critiques ou éloges politiques, et même des critiques de jeux vidéo. Sur le fond, il s’agissait d’opérations d’influence visant à manipuler l’opinion publique ou semer la confusion, en utilisant des contenus générés par IA pour paraître authentiques et variés. Objectif, polariser les opinions.
Autre exemple, « Uncle Spam », qui diffusait simultanément des arguments pro et anti-tarifs douaniers américains afin, là encore, de polariser l’opinion intérieure.

ChatGPT au cœur de la logistique clandestine

L’usage ne se limite pas au « copywriting » (art de produire des textes persuasifs) militant. L’IA intervient désormais à toutes les étapes des opérations malveillantes et secrètes.

Comme outil de gestion : Dans l’opération « Sneer Review », des agents ont utilisé ChatGPT pour rédiger des rapports d’activité détaillés. Ces documents servent à évaluer les performances des équipes et à documenter les méthodes de désinformation les plus efficaces.

Pour créer de fausses identités : L’IA rédige des biographies convaincantes pour de faux journalistes ou experts. Elle adapte le style d’écriture selon les réseaux sociaux et traduit les messages pour toucher des publics non-chinois, un gain de temps précieux pour manipuler de nouvelles cibles.

Pour la création visuelle : Dans l’opération « Uncle Spam », les outils d’image d’OpenAI ont généré des logos et avatars pour de faux groupes d’anciens combattants américains. Ces visuels professionnels donnent de la crédibilité à des organisations inventées de toutes pièces sur X, TikTok ou Bluesky.

Autrement dit, ChatGPT n’est plus seulement la plume de la désinformation. C’est un véritable couteau suisse pour acteurs malveillants : il rédige, traduit, crée des visuels et organise les opérations. Cette polyvalence brouille les signaux et rend ces campagnes plus efficaces et plus difficiles à repérer pour les équipes de sécurité.

Support direct aux opérations cyber

Au-delà des principes d’écriture et génération de visuels, certains groupes s’appuient désormais sur l’IA pour accélérer les phases techniques : modification de scripts, débogage de code, élaboration d’outils de brute-force et d’automatisation sur les réseaux sociaux. Dans un cas baptisé « ScopeCreep », ChatGPT servait aussi à arranger l’infrastructure de commande-et-contrôle tout en dissimulant les traces opérationnelles.

D’après Ben Nimmo, responsable des investigations chez OpenAI, « nous observons une palette croissante d’opérations clandestines utilisant une gamme toujours plus large de tactiques ». Cependant, leur audience demeure pour l’instant modeste : « Nous n’avons pas constaté que ces opérations obtenaient davantage d’engagement grâce à l’IA » explique-t-il.
Cette faible portée s’explique en partie par les suspensions rapides de comptes – OpenAI affirme avoir bloqué l’accès dès la détection des abus.

Réactions et enjeux pour les responsables sécurité

Pékin dément toute implication et rappelle que « le cyberespace est difficile à tracer et compte une diversité d’acteurs », accusant l’Occident de spéculations sans preuve.
Une chose paraît évidente : l’IA générative abaisse le ticket d’entrée pour produire de la désinformation persuasive et outiller des attaques plus agiles. Dès lors davantage de groupuscules peuvent les mener à bien.

Tout ceci doit bien évidemment alerter les DSI et RSSI qui nous lisent. Deux priorités se dégagent : renforcer les capacités internes de détection de contenu synthétique (textes, images, code) et intégrer la traçabilité d’usage des LLM dans les politiques de sécurité. Les campagnes observées restent limitées, mais l’industrialisation des méthodes, déjà visible dans la rédaction « à la chaîne » de faux commentaires ou la génération de scripts offensifs, annonce une montée en puissance que seules une veille coordonnée et des contrôles de plus en plus automatisés permettront de contenir.



À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights