Eco

Avec l’IA, la désinformation pèse déjà 417 milliards de dollars par an

Par Thierry Derouet, publié le 17 mars 2026

Un faux tweet avait suffi à faire plonger le S&P 500 en 2013. En 2024, une visioconférence truquée a permis de détourner environ 25 millions de dollars à Hong Kong. Entre les deux, un basculement s’est produit : l’information n’est plus seulement un enjeu médiatique ou politique, elle devient un vecteur d’attaque opérationnel pour l’entreprise.

Dans une étude publiée en mars 2026, Sopra Steria estime le coût économique mondial de la désinformation entre 355,6 et 516,4 milliards de dollars par an, avec un scénario médian à 417,1 milliards. Le rapport précise aussi que ce coût se répartit, dans le scénario central, entre 393,1 milliards de coûts financiers, 9,8 milliards de coûts sociaux et 14,2 milliards de coûts politiques.

Ce simple ordre de grandeur suffit à faire entrer le sujet dans les matrices de risque des DSI et des RSSI. Car l’idée forte du rapport n’est pas seulement que la désinformation coûte cher. C’est qu’elle a cessé d’être un bruit de fond extérieur à l’entreprise : elle s’insère désormais dans les circuits de validation, les outils collaboratifs, la relation client et les chaînes de décision.

Un chiffre enfin posé, mais qui reste une modélisation

Il faut toutefois bien comprendre ce que mesure ce chiffre : les 417,1 milliards de dollars ne désignent pas une addition relevée ligne à ligne dans l’économie mondiale, mais une estimation agrégée. Celle-ci repose sur plusieurs familles de coûts — financiers, sociaux et politiques — croisées avec des données de nature diverse, donc avec une part inévitable d’incertitude. Pour y parvenir, le rapport mobilise trois scénarios, trois verticales d’analyse, la valeur de Shapley (NDLR : une méthode issue de la théorie des jeux qui sert à estimer la contribution de chaque facteur à un résultat global), ainsi que des facteurs de normalisation géographique et des précautions méthodologiques visant à réduire les doubles comptages.

Derrière le chiffre global, une hémorragie surtout financière

Dans le scénario médian, l’immense majorité du montant estimé relève de la sphère financière. Et, au sein même de cette verticale, le premier poste n’est pas le deepfake spectaculaire ni la fraude au président, mais un mécanisme beaucoup plus diffus : les faux avis en ligne, qui représenteraient 227 milliards de dollars de dépenses de consommation influencées en 2024. Viennent ensuite les pertes boursières (60 Md$), les contrefaçons (28 Md$), les fraudes et crypto (18 Md$), les bénéfices indirects des plateformes (16,4 Md$) et les revenus publicitaires captés par les sites de désinformation (2,6 Md$).

C’est là l’une des idées les plus fortes du rapport : la désinformation n’est pas seulement un risque informationnel ou réputationnel. C’est aussi une économie du faux. Elle biaise la décision d’achat, détourne des flux publicitaires, alimente des contenus frauduleux et pénalise les acteurs qui ne jouent pas la guerre économique algorithmique. Les faux avis, en particulier, sont décrits comme une forme de désinformation appliquée à la consommation, avec des effets d’allocation inefficiente du capital et d’érosion de la confiance dans l’e-commerce.

L’IA générative change l’échelle, plus encore que la nature, du problème

Le point le plus utile pour les équipes IT n’est pas seulement le montant global, mais ce que l’étude dit de l’IA générative. Le rapport insiste sur un basculement d’échelle : les fraudes facilitées par l’IA progresseraient de 32 % par an, tandis que le coût des attaques liées aux deepfakes est estimé à 11 milliards de dollars en 2024.

Le signal est clair : l’IA ne crée pas un risque entièrement inédit ; elle industrialise un risque déjà présent. Le clonage vocal et visuel, autrefois réservé à des acteurs sophistiqués, devient accessible à faible coût. La bonne clé de lecture n’est donc pas tant le prix exact d’une vidéo deepfake que l’effondrement de la barrière technique et économique. C’est ce qui permet à des acteurs peu sophistiqués d’imiter une voix, un visage, une réunion, voire un contexte hiérarchique entier.

Trois cas qui disent déjà tout

Le rapport rappelle d’abord le cas du compte X d’Associated Press piraté en avril 2013. Un faux message annonçant que Barack Obama avait été blessé dans une explosion à la Maison-Blanche avait provoqué une chute éclair du S&P 500, avant correction. L’épisode reste emblématique non parce qu’il aurait provoqué un krach durable, mais parce qu’il a montré à quelle vitesse une fausse information peut se propager dans des marchés devenus hypersensibles à l’instantanéité.

Le deuxième cas, également cité dans les discussions sur la manipulation de marché, remonte à 2022. Un faux tweet attribué à Eli Lilly annonçant la gratuité de l’insuline a provoqué une chute brutale de la valeur boursière du groupe. Là encore, le phénomène ne tient pas seulement à la fausseté du message, mais à la vitesse avec laquelle des signaux numériques circulent entre réseaux sociaux, plateformes d’investissement et réactions automatisées des marchés.

Le troisième cas parle sans doute davantage aux DSI. Le rapport cite le cas Arup : 25 millions de dollars détournés via un deepfake du directeur financier. Ce scénario illustre le fait qu’il ne s’agit plus d’accidents technologiques, mais bien d’opérations d’ingénierie sociale assistées par IA, calquées sur les processus financiers réels de l’entreprise.

Ce que cela change pour l’entreprise : la preuve visuelle n’est plus une preuve

Le problème n’est pas seulement celui du faux contenu. C’est celui de la désintermédiation de la preuve. Pendant des années, dans les organisations, la validation passait implicitement par quelques heuristiques simples : un mail venant du bon dirigeant, une voix reconnue au téléphone, un visage vu en visioconférence. Les deepfakes font sauter ces repères.

Pour une DSI, cela déplace le sujet de la réputation vers les processus. Un ordre de virement exceptionnel, une validation RH, un recrutement à distance, un changement de coordonnées bancaires, une approbation transmise dans Teams ou par visio : toutes ces scènes deviennent des surfaces d’attaque. Le risque informationnel cesse alors d’être extérieur à l’entreprise ; il entre dans ses workflows. Le rapport le formule clairement : au-delà des pertes directes, c’est la fiabilité même des canaux de communication qui est atteinte, chaque interaction devenant potentiellement suspecte.

Sous cet angle, la désinformation devient un sujet très concret de contrôle interne, de workflow de validation et de résilience des processus métiers.

Un cadre réglementaire en construction, mais pas une réponse suffisante

Le sujet progresse aussi sur le terrain réglementaire. En Europe, le Digital Services Act impose aux très grandes plateformes et aux très grands moteurs de recherche des obligations renforcées d’évaluation et de réduction des risques systémiques. L’AI Act ajoute, lui, des obligations de transparence pour certains contenus générés ou manipulés par IA, notamment les deepfakes.

Mais ce cadre ne dispense en rien les entreprises de revoir leurs propres procédures. Car entre la règle imposée aux plateformes et la réalité d’un virement validé en visio, d’un recrutement à distance ou d’une usurpation de voix, le premier niveau de défense reste encore l’organisation elle-même. C’est toute la question de la conformité numérique qui rejoint ici celle de la sécurité opérationnelle.

Une économie rentable pour les attaquants, coûteuse pour la riposte

Le rapport insiste aussi sur le déséquilibre économique de la riposte. D’un côté, les contenus frauduleux et les sites de désinformation génèrent des recettes ; de l’autre, la vérification des faits repose sur un financement bien plus fragile. Sopra Steria avance ainsi que 16,4 milliards de dollars de revenus publicitaires auraient été générés sur des contenus frauduleux en 2024, tandis que 2,6 milliards financeraient indirectement les sites de désinformation. À l’inverse, le budget mondial consacré aux initiatives de fact-checking resterait inférieur à 100 millions de dollars.

Cette asymétrie mérite d’être retenue par les DSI : la désinformation ne coûte pas seulement parce qu’elle provoque des incidents. Elle coûte aussi parce qu’elle est rentable pour ceux qui la diffusent et structurellement sous-financée du côté de ceux qui la combattent.

Les DSI doivent penser en contrôles hors bande

La conséquence pratique tient en une formule : il faut réintroduire des preuves là où l’IA a fragilisé les apparences.

Cela passe d’abord par des validations hors bande pour les opérations sensibles : un ordre de paiement inhabituel ne devrait jamais être confirmé uniquement par mail, message instantané ou visio. Il faut une seconde voie de vérification, un rappel sur un numéro préenregistré, une séparation claire des pouvoirs, des seuils et des procédures que l’urgence ne peut pas court-circuiter.

Ensuite, la gouvernance de l’identité doit monter en gamme. Car le vrai changement n’est pas qu’un faux document circule plus vite ; c’est qu’une voix, un visage ou un contexte hiérarchique puissent désormais être simulés à coût marginal. Cela replace au centre les sujets de IAM, de vérification d’identité et de lutte contre la fraude.

Enfin, les DSI ont un rôle d’acculturation. Tout comme la cybersécurité a imposé à l’entreprise d’apprendre à douter d’une pièce jointe ou d’un lien, le cycle qui s’ouvre impose d’apprendre à douter d’une image, d’une voix, d’un contexte ou d’une réunion.

Traiter l’information comme une surface d’attaque

Le grand mérite de l’étude Sopra Steria n’est donc pas seulement d’avoir produit un chiffre spectaculaire. C’est d’avoir mis en lumière une transformation plus profonde : la désinformation ne vit plus seulement sur les plateformes, dans les campagnes politiques ou dans les marges du web. Avec l’IA générative, elle se glisse dans les processus métiers, les circuits financiers, les outils collaboratifs et les chaînes de décision.

Pour les DSI et les RSSI, la conclusion est limpide. Le risque informationnel n’est plus un sujet périphérique confié aux seuls communicants ou aux équipes de veille. Il devient un sujet de contrôle interne, d’architecture de confiance, de gouvernance de l’identité et de sécurité opérationnelle. Comme souvent en matière numérique, le vrai tournant n’est pas l’apparition d’un outil nouveau. C’est le moment où l’on comprend que les anciens réflexes de preuve ne suffisent plus.


Infographie

Désinformation : 353 à 456 Md$ de coûts financiers mesurables

Cette infographie synthétise les principaux coûts économiques attribuables à la désinformation : faux avis en ligne, pertes boursières, contrefaçons, fraudes, revenus publicitaires captés et bénéfices indirects des plateformes.

Fourchette estimée 353 à 456 Md$

227 Md$

Faux avis en ligne

89 % des revenus e-commerce sont influencés par les notations.

World Economic Forum, 2025

60 Md$

Pertes boursières

0,05 % de la capitalisation mondiale serait imputable à la désinformation.

CHEQ / Baltimore, 2019

28 Md$

Contrefaçons

Part liée à la désinformation intentionnelle.

OCDE, 2025

18 Md$

Fraudes et crypto

12,5 Md$ de fraudes déclarées aux États-Unis, auxquels s’ajoutent 5,5 Md$ de pig butchering scams.

FTC, 2025 · Cyvers, 2025

2,6 Md$

Revenus publicitaires captés

Montants captés par les sites de désinformation.

NewsGuard, 2025

16 Md$

Bénéfices indirects des plateformes

Revenus associés à des contenus frauduleux, avec un ordre de grandeur estimé à 10 % des revenus publicitaires de Meta.

Reuters, 2024

Dans l'actualité

Verified by MonsterInsights