@Work

Avec Surface, Microsoft réinvente le PC : de commodité à pilier stratégique de l’IA locale

Par Thierry Derouet, publié le 03 juin 2025

Lors de la conférence Build 2025, Microsoft a présenté sa vision d’un PC transformé en plateforme stratégique pour l’IA. Grâce à des modèles SLM personnalisables, exécutés localement sur des PC Copilot+ , et une plateforme unifiée de développement avec Windows AI Foundry, l’entreprise propose une solution alliant performance, souveraineté et maîtrise budgétaire.

“L’achat d’un PC n’est plus une simple commodité, c’est une décision stratégique », affirme Anne Stoll, Directrice Surface chez Microsoft. Frédéric Wickert, Technical Surface Go-To-Market Manager, précise : « Il s’agit désormais de réfléchir en termes de personas et d’intégrer l’IA locale comme une brique essentielle. »
Cette nouvelle approche permet une planification à long terme, avec une durée de vie visée de 5 à 6 ans. Les nouveaux PC “Surface” disponibles dès la semaine prochaine répondent ainsi pleinement aux enjeux de réparabilité, de durabilité et d’intégration de l’intelligence artificielle.

En effet, avec ses Surface Laptop 13 pouces et Surface Pro 12 pouces estampillés Copilot+ (qui viennent compléter l’actuelle gamme Surface Laptop 7 en 13,8 et 15 pouces ainsi que Surface Pro 11 en 13 pouces), Microsoft ne cherche plus à impressionner par le clinquant mais à redonner du sens à l’objet informatique.

Sous leur design épuré, ces machines ARM accueillent un NPU de 45 TOPS capable de faire tourner localement des fonctions d’IA autrefois réservées au cloud, comme la recherche contextuelle, la traduction instantanée ou l’édition d’image assistée.

Plus intéressant encore : une réparabilité redevenue tangible, avec composants modulaires, documentation publique et promesse de pérennité matérielle. À rebours du jetable, ces Surface misent sur l’endurance et l’autonomie — jusqu’à 20 heures — tout en intégrant des matériaux recyclés et une logique de maintenance pensée dès la conception. Un retour à la durabilité, au service d’un PC redevenu outil, et non simple interface.

Une IA sur poste, au plus près de l’utilisateur

Mais l’essentiel est ailleurs. Avec ses nouvelles Surface, Microsoft affirme une rupture : l’IA ne doit plus vivre uniquement dans le cloud. Elle doit aussi s’exécuter localement, directement sur les machines. Grâce aux puces Snapdragon X de Qualcomm (Microsoft poursuit sa logique initiée l’an dernier de ne proposer au grand public que des machines ARM), ces terminaux Windows sont capables de faire tourner en toute autonomie des modèles d’IA avancés, sans passer par les serveurs distants.

Avec ses nouvelles Surface, Microsoft affirme une rupture : l’IA ne doit plus vivre uniquement dans le cloud.
Avec ses nouvelles Surface, Microsoft affirme une rupture : l’IA ne doit plus vivre uniquement dans le cloud.

Ces PC Copilot+ deviennent ainsi la plateforme d’exécution physique privilégiée de l’IA de Microsoft. L’optimisation des modèles, notamment le modèle maison Phi-Silica, est pensée pour tirer parti des NPU embarqués. Résultat : des cas d’usage tels que la reformulation de mails, la synthèse automatique ou l’assistance contextuelle deviennent accessibles sans appel cloud, avec une latence quasi nulle.

Phi-Silica et Windows AI Foundry : vers des modèles spécialisés

Microsoft ne se contente pas de proposer une IA générique embarquée. Avec Windows AI Foundry, dévoilé à Build 2025, les DSI disposent désormais d’un environnement complet pour sélectionner, adapter, affiner et déployer des modèles SLM, y compris en local.

Les modèles Phi-Silica, conçus par Microsoft Research, incarnent cette volonté de rendre l’IA plus proche, plus sobre, mais aussi plus pertinente. Leur taille réduite permet de les faire tourner directement sur les nouveaux terminaux Surface, sans dépendance au cloud. Mais surtout, leur architecture autorise une forme de personnalisation agile : grâce à une technique appelée LoRA — pour Low-Rank Adaptation —, ces modèles peuvent être ajustés rapidement à partir de données internes, sans devoir tout réentraîner depuis zéro. Quelques dizaines de milliers d’exemples suffisent à les adapter à un jargon, une logique métier, un cas d’usage précis. C’est là que réside leur promesse : des copilotes spécialisés, capables de comprendre le langage d’un assureur, d’un gestionnaire immobilier ou d’un responsable retail, et de travailler avec eux, localement, en toute confidentialité.

Outlook en terrain de démonstration

L’intégration à Outlook est le meilleur révélateur de cette stratégie : dès cette année, certaines fonctions de résumé, reformulation et assistance rédactionnelle seront exécutées directement sur le terminal, grâce aux SLM embarqués. Aucun échange réseau, aucune latence serveur. Et si la charge est trop lourde ou que le modèle local atteint ses limites, la tâche est automatiquement “revascularisée” vers le cloud, via Azure, de façon transparente.

Cette architecture hybride – local-first, cloud-backup – devient le nouveau paradigme pour Microsoft. Elle vise à combiner confidentialité, performance et scalabilité.

ONNX, le ciment de l’universalité

Cette portabilité généralisée s’appuie sur un socle technique discret mais essentiel : ONNX Runtime. Ce moteur d’inférence open source agit comme un interprète universel de l’IA, capable de faire tourner un même modèle, qu’il ait été conçu sous PyTorch ou TensorFlow, sur n’importe quel terminal compatible Windows – qu’il s’agisse d’un processeur Intel, d’une carte graphique Nvidia ou d’un accélérateur IA Qualcomm. Autrement dit, un modèle entraîné une fois peut être déployé partout, sans réécriture ni dépendance à un matériel spécifique. Microsoft en fait ainsi la pierre angulaire de son interopérabilité IA côté client : une brique technique, certes, mais déterminante pour faire passer l’IA du prototype à l’usage industriel.

Une équation budgétaire favorable aux DSI

Enfin, cette IA embarquée se distingue par un modèle économique soutenable. Là où les appels à des API de LLM hébergés (Azure OpenAI, Mistral, etc.) peuvent engendrer des coûts exponentiels par requête ou token, l’exécution locale permet de stabiliser le coût marginal. Une fois le modèle déployé et adapté, l’usage quotidien ne coûte (presque) plus rien.

Les ressources locales sont exploitées, le budget cloud reste maîtrisé, et les données sensibles ne franchissent pas les murs de l’entreprise. L’IA devient un poste d’investissement prévisible, piloté depuis la DSI, et non un centre de coûts explosif délégué au fournisseur.

Et pour les DSI ?

Pour les responsables IT, la démonstration de Microsoft ouvre plusieurs perspectives nouvelles. Elle invite à anticiper dès maintenant les usages de l’IA embarquée sur les futurs Surface Copilot+, qu’il s’agisse de copilotes spécialisés, d’agents internes ou encore d’automatisation intelligente des tâches documentaires. Une invitation essentielle à l’heure où Windows 10 s’apprête à définitivement tirer sa révérence et où les DSI préparent leurs plans de modernisation de leur parc PC avec Windows 11. Si Windows 11 n’est pas un critère suffisant en soit à cette modernisation, le potentiel de l’IA, évoqué par Microsoft depuis deux ans mais qui commence enfin à réellement se dessiner voire se concrétiser, la justifie bien davantage. L’intégration du standard ONNX, quant à elle, représente un levier puissant pour garantir portabilité et performance des modèles sur les infrastructures souvent hétérogènes des entreprises. Par ailleurs, cette approche permet aussi de prototyper localement, à partir des jeux de données internes, des modèles d’IA adaptés aux besoins spécifiques, sans dépendre systématiquement de coûteuses API cloud externes.

Mais au-delà de ces avancées techniques, c’est surtout l’occasion, pour les DSI, de reprendre la main sur leur stratégie en matière d’IA — qu’il s’agisse des choix technologiques, des enjeux de souveraineté ou de la sécurité des données. Reste à voir si Microsoft saura tenir ses promesses sur le terrain : gouvernance des modèles, sécurisation des traitements, suivi des mises à jour, compatibilité logicielle… autant de défis encore loin d’être résolus, en particulier pour les nombreuses applications métiers face à l’architecture ARM. Une chose, toutefois, paraît désormais acquise : l’IA embarquée redevient un enjeu stratégique de l’infrastructure informatique, et Microsoft entend bien faire de cette approche un nouveau standard industriel.


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights