Data / IA
Nicolas Siegler (MAIF) : « On ne donnera pas l’outil aux jeunes qui ne savent pas faire sans »
Par Thierry Derouet, publié le 13 mars 2026
À la MAIF, l’IA générative est devenue un sujet de gouvernance du travail avant d’être un sujet de technologie. Nicolas Siegler, directeur général adjoint en charge des systèmes d’information, pose une règle simple pour éviter la déqualification silencieuse des métiers : ne pas « booster » les juniors avant qu’ils sachent faire sans l’outil. Derrière les gains de temps, l’assureur veut surtout encadrer ce que l’IA fait aux compétences, à la responsabilité et aux équilibres humains.
Il y a des phrases qui font plus mal qu’un audit. Dans un comité de surveillance « numérique éthique », une salariée avec 25 ans de maison prend la parole. Elle est experte dans son métier, une référence, c’est sa signature, sa fierté professionnelle. Puis elle lâche, sans effet de manche : « Depuis un an, les petits jeunes qui arrivent avec ChatGPT font beaucoup mieux que moi. J’ai été déclassée par l’IA générative, totalement déclassée. » Et derrière, l’angoisse qui n’a même pas besoin d’être formulée : qu’attendre des dix ou quinze prochaines années ?
À cet instant, l’IA générative cesse d’être un outil. Elle devient un événement social. Un sujet de métier, de reconnaissance, de transmission. Et, pour une direction des systèmes d’information, un sujet de responsabilité.
Un principe qui dit tout : ne pas accélérer avant d’avoir appris
Ce que Nicolas Siegler ramène sur la table n’est pas une promesse de productivité, mais une ligne de conduite. Un manager vient présenter une expérimentation sur un sujet très concret : les réponses aux réclamations. Le collaborateur injecte le contexte client, choisis l’orientation, et l’outil propose un texte déjà structuré, prêt à être repris. Résultat : « au lieu de 30 minutes, ça leur prend plus de 10 minutes ». Ce n’est pas la MAIF entière, précise-t-il, mais une cinquantaine de personnes concernées. Peu importe : l’exemple est pédagogique.
Et la décision managériale est, elle, tout sauf anodine. « On a pris une décision : on ne donnerait pas cet outil aux jeunes qui n’ont pas déjà fait la preuve qu’ils savaient écrire une réclamation tout seuls. » Les plus expérimentés auront l’outil et iront plus vite. Les juniors, eux, resteront « sans », le temps d’apprendre à faire, de comprendre ce qu’est une bonne réponse, d’acquérir le style, le raisonnement, le sens de la nuance. Puis, quand l’entreprise estimera que le socle est là, l’outil viendra accélérer. Sinon, dit Nicolas Siegler, c’est simple : « si on n’apprend pas aux jeunes à faire, ils ne sauront pas avoir un regard critique. »
Derrière cette règle, une intuition de fond : l’IA peut augmenter un métier, mais elle peut aussi court-circuiter l’apprentissage. Et si l’apprentissage disparaît, le jugement disparaît avec lui.
« Boom ! ChatGPT arrive » : la rupture grand public qui percutait le plan stratégique
À la MAIF, l’IA ne commence pas avec ChatGPT. Nicolas Siegler tient à le rappeler : l’entreprise travaille depuis longtemps avec une IA « classique », statistique, prédictive, utilisée dans des serveurs vocaux ou des dispositifs de tri de courriels. Mais cette IA-là était « invisible ». « C’était transparent pour les utilisateurs », dit-il : des couches techniques sous-jacentes, sans débat culturel.
L’IA générative, elle, change l’atmosphère. Parce qu’elle arrive dans la vie des gens, dans leur téléphone, dans leur quotidien. Parce qu’elle s’invite dans les conversations de couloir, dans les comités, dans les peurs et dans les fantasmes. Et elle surgit au mauvais moment : « On a un plan Strat 2023-2026. Il est à peine sec qu’en novembre 2022, boom ! ChatGPT arrive, beaucoup plus vite que ce qu’on avait imaginé. » La première réaction, raconte-t-il, est celle de l’immunité : est-ce que c’est « comme la blockchain » ou « comme le métaverse », « à quelle vitesse ça va aller » ? Rapidement, les équipes plongent dedans. Puis le constat s’impose : « on s’est rendu compte assez rapidement que ça prenait des dimensions plus structurantes ». Conclusion : « il faut qu’on le rajoute dans le plan stratégique », même si « on ne sait pas exactement comment ».
De l’excitation à la méthode : 600 cas d’usage… et un tri sans illusion
La MAIF ne démarre pas par un grand discours d’innovation, mais par un exercice de lucidité collective. Nicolas Siegler explique qu’ils ont mobilisé « à peu près toutes les directions » pour cartographier ce que la techno pourrait changer. Les métiers remontent alors « en masse » : « on a identifié 600 cas d’usage ». Il le dit sans détour : au départ, ce n’est pas une preuve, c’est un inventaire, et il est « bottom-up ».
La suite, c’est le passage du catalogue à l’arbitrage. Un séminaire de direction générale est organisé pour intégrer l’IA générative dans le plan stratégique. Ils vont chercher des éclairages externes : « on a été voir Mistral », « Capgemini », mais aussi « des sociologues ». Et au final, on resserre : sur 600 idées, une poignée apparaît réellement prioritaire. C’est à partir de là, dit Nicolas Siegler, que l’entreprise choisit ce qu’elle fait tester largement, ce qu’elle achète sur étagère, et ce qu’elle construira en interne.
Acculturer, sinon c’est l’illusion : formation interne et convention salariée
Ce que Nicolas Siegler redoute, ce n’est pas seulement l’erreur technique. C’est l’illusion collective. « Personne ne connaît rien à cette techno », lâche-t-il. Et c’est précisément pour ça que la MAIF investit dans l’acculturation, sans posture.
Première étape : un module interne en ligne, accessible à tous, pour comprendre ce que l’IA générative sait faire, ce qu’elle ne sait pas faire, et comment l’utiliser sans mettre en danger les données ni le jugement. Deuxième étape : une convention salariée. Trente collaborateurs, quatre jours, des profils variés. On explique, on fait manipuler, on confronte. Puis on pose la vraie question : comment la MAIF doit intégrer cette technologie ? La convention produit 39 recommandations. Nicolas Siegler rappelle que la direction générale garde la décision finale, mais le fait marquant est ailleurs : « sur les 39, je crois qu’on en a gardé 38 ». Et ces recommandations, dit-il, appellent toutes à la même chose : expliquer l’intérêt des usages, laisser la possibilité de reprendre la main, mesurer les impacts, et installer une gouvernance.
Le comité « numérique éthique » : l’IA comme facteur de déclassement et de responsabilité floue
C’est là que la MAIF pose son dispositif de pilotage. Nicolas Siegler parle d’un conseil de surveillance baptisé « numérique éthique », parce qu’on n’est plus seulement dans « un outil qui fait gagner du temps », mais dans une technologie aux effets « lourds ». Lourd sur l’emploi : « il va y avoir sans doute des emplois qui vont disparaître ». (NDLR À la suite de sa convention salariée, la direction générale a pris la décision qu’il n’y ait pas de licenciement du fait de l’IA générative.) Lourd en termes d’employabilité : quelles compétences demain ? Quels plans de montée en compétences ? Quel reskilling ?
Le comité, explique-t-il, interroge systématiquement trois choses : ce que ça change dans l’organisation, ce que ça change dans les activités, et ce que ça produit sur le plan humain et environnemental. L’exemple qu’il donne est brutal parce qu’il est simple : « si l’IA fait le boulot de quelqu’un qui se contente de relire, peut-être qu’il va se sentir inutile. » C’est là qu’arrive le sentiment de déclassement. Et avec lui, tout ce qui va avec : inquiétudes, perte de repères, tensions managériales.
S’ajoute une question qui, elle, peut casser la confiance : la responsabilité. « Vous faites partir un mail qui a une erreur dedans. Qui est responsable ? Celui qui a relu ? L’IA qui a généré ? Le prompt qui n’était pas bon ? » Tant que cette responsabilité n’est pas claire, l’adoption restera fragile. Et c’est aussi pour cela que Nicolas Siegler revendique une avance « prudente », avec des expérimentations courtes, des retours terrain, et un rythme qui laisse le temps aux métiers de s’approprier sans subir.
Une conclusion qui ressemble à une promesse… et à un avertissement
La scène de cette salariée reste, dans le récit de Nicolas Siegler, un point de bascule. Parce qu’elle montre ce que l’IA fait à des savoir-faire réputés inattaquables. Parce qu’elle met un visage sur un mot trop abstrait : le déclassement. Et parce qu’elle oblige une entreprise à répondre à une question plus difficile que « quel outil choisir ? » : comment protéger la compétence, la progression, et la dignité professionnelle quand la machine « fait mieux » ?
C’est là que la règle prend tout son sens. « On ne donnera pas l’outil aux jeunes qui ne savent pas faire sans » : une phrase qui sonne comme une précaution, mais qui, en réalité, décrit une stratégie. L’IA générative ne vaut que si elle augmente le jugement. Si elle remplace l’apprentissage, elle finira par remplacer le métier.
À LIRE AUSSI :

