Data / IA
Reprendre le contrôle et la maîtrise de son SI face à un Shadow AI qui se généralise
Par La rédaction, publié le 12 janvier 2026
Les usages IA, notamment via les assistants grands publics largement utilisés en entreprise, se diffusent plus vite que les politiques internes en matière d’usages de l’IA, y compris quand une alternative “approuvée” existe déjà. En combinant SWG/proxy, CASB, marquage et DLP, il devient possible d’observer, de bloquer lorsque le risque l’exige, puis d’affiner par rôle et par donnée. Le Shadow AI se traite d’abord comme un sujet de cybersécurité et de gouvernance.
Par Eric Bohec, CTO de Nomios
L’IA grand public s’invite dans le quotidien des collaborateurs, souvent bien au-delà des outils approuvés. Fuites, crédibilité fragilisée, expertise qui s’érode : les risques sont tant immédiats que long terme. Pourtant des méthodes simples existent pour passer d’un usage subi à un usage maîtrisé. Sans compter que le Shadow AI agit comme un révélateur, en exposant certaines limites des outils de sécurité parfois dépassés.
L’IA s’est installée dans tous les usages avec une rapidité déconcertante. Les collaborateurs l’utilisent chez eux et poursuivent naturellement jusque dans les environnements professionnels. ChatGPT, Le Chat, Gemini et consorts sont utilisés sans tenir compte des règles internes. C’est ce qui explique que 93% des employés saisissent régulièrement des données d’entreprise dans des outils non approuvés.
Ce réflexe persiste même lorsque l’entreprise met à disposition un outil approuvé. Si l’interface paraît moins fluide ou qu’une réponse tarde, on s’en remet rapidement à l’outil qu’on connaît le mieux, et ce, malgré les rappels internes ou les interdictions. D’autant qu’il est assez simple de contourner la règle via un smartphone personnel ou une adresse e-mail externe.
Former reste essentiel, mais cela ne gomme pas toujours les réflexes que chacun développe en dehors du travail.
Pourtant les risques sont bien réels et déjà bien connus. Une fuite de données sensibles peut facilement survenir quand un document est envoyé dans une IA publique pour gagner du temps sur la réponse à un appel d’offres. Que dire lorsqu’un livrable contient une formulation erronée ou une référence obsolète ? C’est la crédibilité qui en prend un coup, de manière immédiate. A plus long terme, c’est le spectre d’une dilution de l’expertise interne, notamment sur les profils les plus jeunes, qui se dessine manifestement. Et c’est sans compter certains prompts sensibles découverts dans les journaux proxy, inappropriés dans un cadre professionnel.
Tous ces signaux montrent que le Shadow AI touche la sécurité, la conformité, la valeur métier et même la culture interne des entreprises, qui ne peuvent ni tout bloquer ni espérer un changement spontané. La seule voie efficace repose alors sur une démarche progressive et pragmatique : observer et contrôler les usages, bloquer lorsque l’exposition devient trop risquée, puis affiner grâce aux mécanismes avancés fondés sur la donnée et la politique interne.
S’appuyer sur l’existant pour reprendre le contrôle : proxy, CASB et DLP
Contrôler, bloquer puis affiner n’a rien d’un chantier théorique. C’est au contraire une logique très concrète, qui s’appuie sur des outils que la majorité des organisations possèdent déjà, à l’image des Secure Web Gateway (SWG), très répandus. C’est d’ailleurs avec ces derniers que tout démarre : un proxy qui voit passer des requêtes vers des IA publiques… et dévoile l’ampleur du phénomène.
Bloquer purement et simplement est souvent l’idée première, et elle peut être salvatrice pour stopper un début d’hémorragie. D’autant qu’il est rapidement possible de mettre en place un filtrage basique, et ainsi d’éviter la frustration et l’incompréhension des collaborateurs. Le fil peut ainsi être tiré prudemment : crée une catégorie dédiée aux IA génératives, bloquer certains services, en autoriser d’autres, activer certaines fonctions optionnelles pour contrôler de plus en plus finement un site, une URL ou autre à travers une SWG ou directement à travers une plateforme CASB (Cloud Access Security Broker). Une mécanique déjà familière depuis le Shadow IT. La suite consiste à croiser cette catégorisation avec les groupes d’utilisateurs pour affiner les règles.
En matière de Shadow AI, vient aussi rapidement le travail sur la donnée. Le marquage, notamment celui intégré à l’écosystème Microsoft, sert de point d’entrée : il distingue immédiatement ce qui est sensible de ce qui peut circuler.
Le marquage est déjà en place dans toute société qui cherche à maîtriser sa donnée sensible. C’est la première réponse pour rester flexible sur ce que l’on autorise à pousser vers une IA.
La couche DLP prend ensuite le relais en pouvant bloquer l’envoi d’un fichier marqué vers une IA publique ou une adresse personnelle, et en imposant une frontière claire entre ce qui peut sortir et ce qui doit rester dans le périmètre interne.
La suite relève surtout de la gouvernance. Le RSSI fixe le cadre et la direction technique le décline. Certaines populations accèdent à plusieurs IA, d’autres à une seule selon leur rôle. Cette sectorisation suffit déjà à canaliser les usages. Et à piloter un projet qui reste simple et très opérationnel.
Quand l’usage révèle les limites du socle technique
Le Shadow AI n’est pas un projet d’IA, mais plutôt de cybersécurité et de gouvernance. Sa constante : toutes les entreprises y sont confrontées, faisant souvent du phénomène un test en conditions réelles de la maturité des outils en place.
Et le constat est rapide et implacable : un proxy obsolète qui ne peut pas activer les contrôles nécessaires pour créer une catégorie dédiée aux IA génératives, ou certaines options indispensables au contrôle fin indisponibles sont les signes d’une obsolescence évidente des outils en place. Ce qui n’a rien d’anecdotique puisque cela révèle une infrastructure qui n’a pas suivi l’évolution des usages.
Le message est simple : ce sont les outils de sécurité modernes qui font la sécurisation des usages modernes de l’informatique.
Ce rôle de révélateur s’avère ainsi finalement salvateur. Il permet de questionner l’état du socle de sécurité, d’identifier ce qui doit évoluer et de prioriser les mises à niveau sans attendre un incident. Ce qui compte désormais, c’est d’accepter que les usages changent vite et que les briques de sécurité doivent toujours suivre le rythme pour rester pertinentes.
À LIRE AUSSI :
À LIRE AUSSI :
