WAICF 2026 : Gouvernance, éthique et sécurité de l'IA

Data / IA

WAICF 2026 (Partie 2/3) : Gouvernance, éthique et sécurité de l’IA

Par Laurent Delattre, publié le 19 février 2026

La semaine dernière, IT for Business a déplacé son plateau TV sur la cinquième édition du World AI Cannes Festival, grand salon de l’écosystème de l’IA durant lequel Cannes prend des allures de capitale mondiale de l’intelligence artificielle sous toutes ses formes. Et Thomas Pagbé en a profité pour poser aux invités qui hante les DSI et les RSSI : comment garder la main sur des systèmes IA de plus en plus autonomes ?

Le World AI Cannes Festival a accueilli la semaine dernière, comme chaque année, tout le gratin de l’écosystème de l’IA, rassemblant plus de 10 000 professionnels et 320 intervenants pour une cinquième édition très agentique. Au-delà des démonstrations spectaculaires de robots et d’agents intelligents, c’est une inquiétude sourde qui traversait les couloirs du Palais des Festivals : celle d’une technologie qui accélère plus vite que les cadres censés l’encadrer. Les signaux d’alerte se multiplient. Selon IBM, 97 % des entreprises ayant subi une violation de données liée à l’IA ne disposaient pas de contrôles d’accès appropriés. L’International AI Safety Report 2026, piloté par Yoshua Bengio et plus de 100 experts, documente des comportements préoccupants : certains modèles sont capables de détecter qu’ils sont évalués et d’adapter leur comportement en conséquence.
Côté cybermenaces, le tableau n’est pas plus rassurant. Les attaques générées par l’IA sont désormais perçues comme la première menace sur les données par 66 % des responsables IT interrogés (selon Veeam), devant les ransomwares eux-mêmes. Et l’entrée en application progressive de l’AI Act européen ajoute une couche de complexité réglementaire que beaucoup d’organisations peinent encore à intégrer.

C’est dans ce contexte qu’IT for Business a installé son plateau TV sur la Croisette pour recueillir les analyses de terrain de chercheurs, DSI, managers, ESN et acteurs de l’écosystème IA. Dans cette série d’entretiens, nous donnons la parole à Eneric Lopez (Microsoft), Prag Sharma (Citi), Haider Pasha (Palo Alto Networks) et Vaibhava Lakshmi (Grail). Voici quatre regards croisés sur les garde-fous indispensables pour que le déploiement de l’IA reste maîtrisé, équitable et bénéfique.

« L’IA est biaisée parce qu’elle a été entraînée avec des données qui viennent des humains — et nous sommes tous pleins de biais »

Eneric Lopez, AI National Initiative & Social Impact Director chez Microsoft

Pour Eneric Lopez, la question des biais dans l’IA n’est pas résolue, et ne le sera sans doute jamais complètement. Le problème est structurel : les modèles sont entraînés sur des données produites par des humains, eux-mêmes porteurs de biais culturels, linguistiques et sociaux. Le biais anglophone, en particulier, reste massif : la surreprésentation de l’anglais dans les corpus d’entraînement biaise les réponses des IA génératives au détriment d’autres langues et cultures.
Des progrès considérables ont été réalisés grâce aux techniques nouvelles de curation des données, de renforcement humain, de vérification des réponses, mais Eneric Lopez admet volontiers que beaucoup reste à faire : « C’est un chemin, on ne peut pas dire que c’est fini. »
Au-delà de la correction technique, il défend une vision plus large de l’IA inclusive : une IA accessible à tous, non pas seulement parce que l’outil est grand public, mais parce que chacun a acquis la littératie nécessaire pour l’utiliser. C’est dans cet esprit que Microsoft France s’est engagé à former un million de Français d’ici 2027.
Notre invité ouvre enfin une perspective émergente : celle de l’IA sociétale, un champ de recherche pluridisciplinaire qui vise à mesurer, via un « value compass », l’alignement des modèles avec les valeurs humaines. Un enjeu qui concerne tous les modèles, grands comme petits.

« Sans données, il n’y a pas d’IA. Et sans gouvernance des données, il n’y a pas de valeur »

Prag Sharma, Director of Emerging Technologies chez Citi

Prag Sharma pose la gouvernance de l’IA comme le sujet incontournable de 2026, en particulier avec la montée en puissance de l’IA agentique. Il structure sa vision autour de cinq piliers : les personnes, les processus et cas d’usage, la pile technologique, l’architecture de contrôle (deuxième et troisième lignes de défense), et enfin l’accès sécurisé aux données. Car pour notre invité, la donnée est le vrai différenciateur. « L’IA sans données, c’est utiliser ce qui est disponible sur Internet pour résumer, traduire, comparer. Tout le monde fait la même chose. La donnée, c’est là où vous allez extraire de la valeur. »
Il établit ainsi un lien direct entre gouvernance des données et gouvernance de l’IA : la donnée doit être sécurisée, à jour, fidèle à sa finalité d’origine, et rendue accessible aux modèles dans un cadre maîtrisé.
Sur le monitoring des agents, Prag Sharma se montre lucide : surveiller un système 24 heures sur 24 suppose de savoir à quoi ressemble un bon résultat, de déployer des modèles de contrôle capables de corriger en temps réel, et de disposer d’un plan de repli. « C’est facile à dire, mais pas si facile à faire », reconnaît-il.

« Ce qui prenait deux à trois semaines aux attaquants peut désormais être fait en moins de 24 heures grâce à l’IA »

Haider Pasha, VP & Chief Security Officer, EMEA chez Palo Alto Networks

Haider Pasha décrit un paysage de menaces profondément transformé par l’IA. Côté attaquants, les gains sont spectaculaires en vitesse, en volume et en sophistication. Lorsqu’une vulnérabilité logicielle est rendue publique, les exploits sont désormais créés en moins de 24 heures dans un tiers des cas, contre deux à trois semaines auparavant. Le temps d’infiltration et d’exfiltration de données s’est lui aussi effondré : dans 20 % des cas, l’opération complète prend moins de 25 minutes. Conséquence directe : les attaques zero-day ont quadruplé entre 2024 et 2025, passant de moins de 3 millions à environ 9 millions.
Côté défense, l’IA permet de réduire drastiquement les temps de détection et de remédiation dans les centres d’opérations de sécurité, de plusieurs jours à moins d’une heure, parfois quelques minutes. Mais Pasha insiste surtout sur un point : « Vous ne pouvez pas avoir d’IA sans cybersécurité. »
La sécurité doit être intégrée dès la conception des systèmes d’IA, pas ajoutée après coup. Découvrir, évaluer, protéger : c’est la trilogie qu’il applique chez Palo Alto Networks pour sécuriser aussi bien l’IA agentique que les modèles de deep learning.

« L’IA permet de prédire l’apparition d’un cancer à un stade très précoce, à partir de séquences génomiques »

Vaibhava Lakshmi, Chercheuse, AI for Science chez Grail

Vaibhava Lakshmi défend une vision simple de l’IA for Good : toute application d’IA qui apporte un bénéfice tangible à l’humanité mérite ce qualificatif, qu’il s’agisse de découverte de médicaments, de modélisation physique, d’interactions chimiques ou d’exploration spatiale.
Chez Grail, elle travaille à construire un outil d’IA destiné aux chercheurs du monde entier, capable de rédiger des demandes de financement et de préparer des articles scientifiques en quelques minutes là où il fallait des heures, voire des jours. Parmi les cas d’usage les plus prometteurs, elle cite Bioscope AI, une startup qui analyse des séquences génomiques humaines pour prédire l’apparition d’un cancer à un stade très précoce, avant même l’apparition de symptômes.
Mais Vaibhava Lakshmi ne masque pas les zones d’ombre. Elle s’appuie sur une étude du MIT qui montre que « l’IA réduit significativement les capacités cognitives et la capacité de réflexion chez les humains, en particulier chez les enfants ». Un constat qui l’amène à plaider pour des limites d’âge dans l’accès aux outils d’IA, afin de préserver la capacité des plus jeunes à résoudre des problèmes par eux-mêmes.

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights