Data / IA
Forrester annonce un basculement vers l’ère de l’IA privée : pourquoi les DSI doivent forger leurs propres modèles ?
Par Laurent Delattre, publié le 25 mars 2026
RAG et fine-tuning ont balisé le terrain, mais ils ne suffisent plus dès lors que tout le monde s’appuie sur le même socle. La vraie rupture, pour les DSI, consiste désormais à forger des modèles privés nourris de données propriétaires, de contraintes de souveraineté et d’intelligence métier dès l’entraînement. Selon Forrester, c’est là que se capteront d’ici cinq ans 70 % des revenus de l’IA.
Il y a un peu moins d’un an, à l’occasion de la sortie du numéro 2305 « Spécial IA » d’IT for Business, nous évoquions, dans un article intitulé « Adieu au gigantisme LLM ? Les entreprises misent sur l’IA sur mesure des SLM », la montée en puissance des petits modèles ou SLM, exécutables dans le datacenter de l’entreprise mais surtout aisément personnalisables et faciles à spécialiser. Nous expliquions que ces modèles permettaient de mieux satisfaire les cas d’usage propres aux métiers de chaque entreprise parce qu’ils pouvaient aisément être fine-tunés ou réentraînés pour mieux ancrer l’IA dans leurs données, leurs processus, leur vocabulaire métier.
Déployables en local, simples à personnaliser, adaptés aux cas d’usage spécifiques, les SLM représentaient un vrai levier de différenciation pour les organisations. Nous citions alors Satya Nadella pour qui « toute la valeur est créée par la manière dont vous ancrez et affinez ces modèles avec vos données métier ». Un an plus tard, cette intuition se transforme en prédiction chiffrée par Forrester.
Dans un billet de blog publié la semaine dernière, George Colony, CEO de Forrester, lance une affirmation qui peut sembler bousculer le récit dominant actuel et aller à l’encontre de la remontée récente en puissance des grands modèles frontières publics : « D’ici cinq ans, 70 % des revenus créés par l’IA proviendront de modèles privés, et non de modèles publics » affirme ainsi Forrester.
Autrement dit, la valeur économique de l’intelligence artificielle ne résidera pas dans les ChatGPT, Gemini et autres Claude que tout le monde connaît et utilise, mais dans les modèles que les entreprises construiront elles-mêmes, nourris de leurs propres données, calibrés pour leurs propres métiers, en somme des « IA privées ».
La vraie bataille de l’IA se jouerait donc non pas sur la puissance brute de Gemini, ChatGPT ou Claude, mais sur la capacité des organisations à encapsuler dans des modèles privés leurs données sensibles, leur historique client, leurs règles métier et leurs mécanismes de décision.
Le renversement annoncé par Forrester
Pour George Colony, le récit selon lequel deux ou trois modèles publics finiront par dominer le marché de l’IA – comme Google domine la recherche ou Amazon le cloud – est une illusion. Le patron de Forrester pose des questions simples mais implacables : pensez-vous que votre compte bancaire finira dans un modèle public ? Que la paie de votre entreprise vivra dans ChatGPT ? La réponse est évidemment non. Ces données finiront dans des modèles privés, construits par les banques, les assureurs, les industriels. Et la raison tient en un mot : la confiance. Quand un client voudra « converser » avec son compte bancaire, il utilisera le modèle de sa banque parce qu’il lui fait confiance pour protéger ses données, et parce que cette banque aura injecté dans son IA des décennies de savoir-faire propriétaire.
George Colony illustre son propos par l’exemple de son propre médecin, qui utilise déjà deux modèles privés : OpenEvidence, entraîné sur des revues médicales de référence (New England Journal of Medicine, JAMA…) pour le diagnostic et les recommandations pharmacologiques, et Abstractive Health, qui synthétise les dossiers médicaux des patients pour permettre aux médecins de « converser » avec l’historique clinique de leurs patients. Deux modèles privés qui rendent ce médecin, selon ses propres mots, plus efficace et plus pertinent.
Forrester ne dit pas que les modèles publics vont disparaître. George Colony leur assigne au contraire trois rôles durables : porter l’innovation en premier, rester la meilleure source de connaissance générale, et servir de fondations aux modèles privés (qui dériveront des modèles publics).
Quatre leçons stratégiques pour les DSI
Au-delà du constat, le CEO de Forrester tire quatre leçons stratégiques que les DSI auraient tort d’ignorer.
Premièrement, George Colony dénonce une mauvaise allocation massive du capital : trop d’argent finance les modèles publics, tandis que les modèles privés restent sous-financés. Selon lui, les investisseurs avisés devraient plutôt cibler les entreprises assises sur de grandes masses de données propriétaires (données financières, clients, marketing, supply chain, santé) dont la valeur va décupler une fois converties en modèles privés. Et il formule même ce qu’il appelle avec une modestie toute relative la « Colony’s Law » en clin d’œil à la Loi de Moore d’Intel : « Avec l’IA, la valeur de l’information doublera chaque année. »
Pour les DSI, c’est une invitation à ne pas se focaliser uniquement sur le choix d’un bon LLM mais d’accorder plus d’attention à la préparation et à la qualité des données, aux taxonomies, aux jeux d’évaluation, aux garde-fous et aux pipelines IA qui permettront à un modèle privé de réellement comprendre le contexte de leur organisation.
Deuxièmement, le modèle économique des LLM publics est bien plus fragile qu’il n’y paraît. Oui, ils généreront des revenus en servant les consommateurs et en constituant les fondations des modèles privés. Mais le CEO de Forrester se demande si ce sera suffisant pour rentabiliser les centaines de milliards de dollars d’investissement ? Comme le résume l’analyste Forrester Rowan Curran avec un sens certain de la formule : « Un modèle de langage n’est pas un modèle économique. »
Troisièmement, et c’est peut-être l’hypothèse la plus provocatrice, les leaders des modèles publics pourraient finir par se transformer en hébergeurs de modèles privés. George Colony reprend ici une thèse de l’analyste Ted Schadler : en quête de revenus, les OpenAI et Anthropic pourraient absorber les données propriétaires de leurs clients, personnaliser une version de leur modèle public en modèle privé, et facturer un abonnement pour l’exécuter. Ils finiraient par ressembler aux éditeurs logiciels d’antan comme Microsoft, Oracle ou SAP, facturant un loyer mensuel pour faire tourner le système IA privé sur leurs infrastructures. Un retour vers le futur, en quelque sorte, pour ce qui pourrait être désigné comme du PAIaaS (Private AI as a Service).
Quatrièmement, et c’est davantage un appel à l’action : les entreprises doivent commencer à construire leurs modèles privés dès maintenant. George Colony est catégorique : oui, l’IA aide les organisations à gagner en efficacité et à accélérer leurs processus. Mais tout cela n’est qu’un « sideshow », un spectacle secondaire. Le véritable enjeu de l’IA sera de conquérir, servir et fidéliser les clients. Et c’est là que les modèles privés feront toute la différence.
George Colony rejoint ici très directement ce que nous évoquions l’an dernier. Nous expliquions que la personnalisation de modèles n’était pas un supplément cosmétique, mais le cœur de la création de valeur. En un an les choses ont évidemment évolué. Les fournisseurs de modèles commencent à proposer des outils pour aller bien plus loin que le « Fine-Tuning » de modèles et désormais permettre une véritable fabrication facilitée de modèles sur mesure.
Au-delà du RAG et du fine-tuning : forger ses propres modèles
Jusqu’ici, RAG et fine-tuning ont largement dominé le paysage de la personnalisation de l’IA en entreprise. Ces techniques restent pertinentes, mais elles ont leurs limites. Le RAG se contente d’enrichir le contexte du modèle au moment de la requête, sans modifier le modèle lui-même. Le fine-tuning ajuste les paramètres d’un modèle préentraîné, mais il opère « en surface », sans réécrire les fondamentaux de ce que le modèle comprend. Dans les deux cas, l’entreprise adapte un modèle générique à la marge. Elle ne construit pas le sien.
Or, comme le souligne le CEO de Forrester, la prochaine étape consiste précisément à franchir ce seuil. Les entreprises qui se contenteront d’habiller un modèle public avec un peu de RAG et quelques couches de fine-tuning auront le même modèle que leurs concurrents. La différenciation viendra de ceux qui injecteront leur savoir propriétaire au cœur même du processus d’entraînement, dès les premières étapes de la création du modèle. Autrement dit, les entreprises vont devoir apprendre à « forger » leurs propres modèles privés.
C’est précisément cette promesse que portent deux annonces récentes, quasi simultanées et remarquablement convergentes : Amazon Nova Forge et Mistral Forge.
Nova Forge et Mistral Forge : deux « forges » pour une même vision
Le choix du mot « Forge » par les deux acteurs n’est pas anodin. Il s’agit bien de forger un modèle, comme on forge un outil sur mesure, et non plus de se contenter d’ajuster un outil industriel standard. Les deux plateformes partagent une philosophie commune : permettre aux entreprises d’intervenir dans le processus d’entraînement lui-même, en y injectant leurs données propriétaires à différentes étapes — préentraînement, entraînement intermédiaire, post-entraînement, apprentissage par renforcement.
Lancé lors du re:Invent 2025, Amazon Nova Forge permet aux entreprises de partir de checkpoints précoces des modèles Nova (préentraînés, en cours d’entraînement ou post-entraînés) et de mélanger leurs données propriétaires avec des jeux de données préparés par Amazon. Cette approche de « data mixing » vise à éviter le phénomène d’« oubli catastrophique » qui survient lorsqu’un modèle ré-entraîné perd ses capacités fondamentales de raisonnement et de compréhension. Accessible à partir de 100 000 dollars par an, Nova Forge est intégré à SageMaker AI et Bedrock. Reddit l’utilise déjà pour la modération de contenu, consolidant plusieurs modèles spécialisés en un seul système unifié qui surpasse les LLM génériques sur ses tâches internes. Nimbus Therapeutics l’exploite pour la découverte de médicaments, avec des améliorations de 20 à 50 % par rapport aux modèles publics sur ses benchmarks de prédiction de propriétés moléculaires. Le Nova Forge SDK, lancé en mars 2026, simplifie encore l’accès à ces capacités en gérant la complexité de configuration et d’infrastructure.
De son côté, Mistral Forge a été dévoilé le 17 mars 2026 lors de la conférence GTC de Nvidia. La startup française va plus loin encore dans la rhétorique : là où la plupart des acteurs parlent de fine-tuning ou de RAG, Mistral affirme permettre l’entraînement de modèles depuis zéro. « Forge comble le fossé entre l’IA générique et les besoins spécifiques des entreprises », explique la jeune pousse. La plateforme s’appuie sur la bibliothèque de modèles open-weight de Mistral (dont Mistral Small 4) et couvre le cycle complet : pré-entraînement sur les données internes, post-entraînement pour des tâches spécifiques, et apprentissage par renforcement pour aligner le comportement du modèle. La plateforme inclut aussi des capacités de génération de données synthétiques et le support d’ingénieurs déployés directement chez le client. ASML, Ericsson, l’Agence spatiale européenne ou encore des fonds spéculatifs figurent parmi les premiers utilisateurs. Pour l’Europe et les acteurs soucieux de souveraineté numérique, Forge offre un atout supplémentaire : la possibilité d’exécuter l’entraînement sur ses propres clusters GPU, sans dépendance à un cloud américain.
Ce que cela change pour les DSI français
La convergence entre l’analyse de Forrester et l’émergence de ces plateformes de « forge » dessine un nouveau paradigme. Le centre de gravité de la valeur de l’IA se déplace vers les modèles privés.
Et, en tant que DSI, ce changement de paradigme invite à un recalibrage stratégique.
D’abord, la course aux données propriétaires n’est plus un sujet de gouvernance de la donnée : c’est un enjeu stratégique direct, car ces données constitueront le carburant de leurs futurs modèles.
Ensuite, la question n’est plus seulement « quel modèle choisir ? » mais « quel modèle construire ? », « quelle part de notre intelligence métier voulons-nous coder dans un modèle que nous contrôlons réellement ? ».
Enfin, la souveraineté des données et des modèles prend une dimension nouvelle quand l’avantage compétitif réside dans l’IA elle-même.
Comme le résume Neil Shah, VP recherche chez Counterpoint Research, à propos de Mistral Forge : « Les modèles frontier fine-tunés pour des secteurs spécifiques n’offrent pas le niveau de souveraineté souhaité. Des modèles entièrement personnalisés peuvent fournir des résultats plus précis et pertinents que l’approche RAG. » L’ère de la forge a commencé. Reste à savoir si vous voulez être des premiers DSI à battre le fer.
À LIRE AUSSI :
À LIRE AUSSI :
