Data / IA
PC IA : le modèle doit encore convaincre
Par Alain Clapaud, publié le 15 août 2025
Tous les constructeurs de PC ont mis aujourd’hui des PC IA à leur catalogue, pour certains avec le label Copilot+ PC défini par Microsoft. Qu’il s’agisse de machines ARM, AMD ou dotées de puissants GPU, elles peuvent faire tourner des IA ou certains LLM en local. Mais pour quels cas d’usage ? Tous les DSI ne sont pas convaincus par la proposition de valeur.
Disposer d’un LLM en local, sans les temps de latence induits par le cloud, c’est la promesse du PC IA. Tous les constructeurs de terminaux communiquent aujourd’hui sur ce nouveau type de machines. AMD, bien positionné sur le marché, se réfère à une étude IDC qui annonce que 82 % des décideurs IT envisagent d’acquérir des PC IA avant la fin de l’année. Lorsqu’on interroge les DSI et responsables IA, l’enthousiasme est beaucoup plus nuancé, et le scepticisme reste de mise.
C’est Microsoft qui a défini le PC IA lors d’une conférence animée à Redmond par Satya Nadella le 20 mai 2024. Le CEO de Microsoft a alors expliqué que les PC avec le label Copilot+ devront afficher une puissance de 40 TOPS (Tera Operations Per Second) pour porter les nouvelles capacités IA de Windows. De nombreux éditeurs tels qu’Adobe, CrowdStrike, VMware, Zoom et bien entendu Microsoft ont annoncé leur intention d’exploiter cette capacité de calcul en local.
L’évaluation de ces machines est en cours dans les DSI. Et tous ne sont pas prêts à sauter le pas. OpenAI a en effet éduqué le marché avec ChatGPT, une solution qui fonctionne dans le cloud, et ce modèle centralisé satisfait beaucoup d’entreprises. Ainsi, les collaborateurs d’Havas ont accès à la version de base de Copilot, accessible sur le cloud, et une partie a accès à Copilot 365 pour des besoins plus avancés. « Aujourd’hui, nous n’avons pas de LLM déployés en local sur nos machines, explique Weilin Ho, son directeur innovation & expérience à Paris. Les données sont sur notre tenant privé et soigneusement séparées client par client. Nous sommes dans un grand groupe avec une logique de centralisation et de partage des data, il est donc plus logique de fonctionner en réseau que de disposer d’une IA locale. »
Pierre Letessier, à la tête de l’IA à l’Institut National de l’Audiovisuel (INA), est plus positif et estime cette nouvelle génération de machines potentiellement intéressante pour les ML engineers. « Cette puissance au niveau des stations de travail donnera plus de souplesse pour les ingénieurs en entreprise qui pourront éviter de partager un cluster de calcul pour n’importe quelle petite tâche. Cela apportera aussi la possibilité pour les labos de monter des clusters de calcul à moindre coût. »
Côté utilisateurs finaux, le responsable reste plus dubitatif : « Je ne vois pas bien ce que l’IA apporte de si intéressant aux utilisateurs en règle générale. À part la confidentialité des données, je ne vois pas le problème à faire les calculs dans les datacenters, là où la puissance est mutualisée, correctement dimensionnée, et où on peut essayer de minimiser les impacts écologiques. »
Corentin Vasseur, staff machine learning engineer chez Decathlon, se montre beaucoup plus enthousiaste : « Je pense que les PC IA vont transformer notre manière de travailler et notre quotidien. Ils ne sont pas seulement plus puissants, ils vont aussi nous permettre d’être plus efficaces et de mieux nous concentrer sur des tâches à forte valeur ajoutée. L’intégration de modèles sur nos appareils ouvre également des perspectives intéressantes pour des usages plus sûrs et personnalisés. »
Chargé d’accompagner les data scientists et ML engineers, l’ingénieur cherche à rendre les équipes data et IA de Decathlon plus autonomes pour travailler et innover rapidement, tout en respectant des exigences strictes en matière de sécurité et d’IA de confiance. « L’IA touche toutes les fonctions métiers, du développeur informatique au collaborateur en magasin, en passant par nos ingénieurs produits. »
Gadget ou must have, l’avenir le dira
Gadget ou « must have » ? Le PC IA divise donc les professionnels pour l’heure et, conscients de cette absence de « killer app », les constructeurs veulent pousser les DSI à investir pour l’avenir et préparer leur parc à l’arrivée des applications futures. Flavien Chervet, prospectiviste analyste de l’IA est critique : « Actuellement, ces PC IA sont essentiellement portés par le marketing et les machines déjà sur le marché n’apportent pas grand-chose en termes de cas d’usage. Il s’agit essentiellement d’ajouter de petites fonctionnalités dans les suites logicielles et au niveau de l’OS pour améliorer les capacités de recherche, la rédaction des e-mails, etc. »
L’intérêt de ces machines reste donc très limité. « C’est un mouvement assez normal, finalement. Dans les moments d’ébullition technologique, tout le monde explore de multiples pistes et ce sont les usages qui, d’une certaine façon, vont faire le tri entre ce qui est utile et ce qui ne l’est pas. »
Nosing Doeuk, directeur du pôle data, IA, cybersécurité et UX chez mc2i, est moins critique sur le concept : « Disposer de PC optimisés pour faire tourner des inférences va dans le sens de l’histoire : il y aura de plus en plus d’intelligences artificielles embarquées dans les applications et exploitées dans le cadre de processus d’entreprise. »
Il rappelle que nous ne sommes encore qu’à la préhistoire de l’IA : « On voit qu’avec Teams, cela fonctionne très bien, mais ce n’est pas suffisant. Les éditeurs doivent encore s’emparer de ces nouvelles capacités. 2025 et 2026 seront des années de transition, mais lorsque le parc installé sera plus large, de multiples cas d’usage vont apparaître. La loi de diffusion veut qu’à partir de 15 % d’un parc équipé, les usages peuvent commencer à s’accroître. »
Côté éditeurs, Mathieu Changeat, cofondateur de Dydu qui développe des IA conversationnelles depuis 2009, voit bien l’intérêt de pouvoir disposer d’un LLM en local : « La latence d’une application vocale doit être inférieure à une seconde, et même si les outils de transcription et de traduction fonctionnent bien, les LLM en ajoutent, et pour des flux temps réel, ce n’est pas idéal. »
Éliminer cette latence due aux échanges avec le cloud permet d’envisager des applications IA réellement temps réel, comme la traduction simultanée vocale.
Parmi les autres avantages à considérer, la mise à disposition d’une IA en local présente aussi un intérêt dans les secteurs de la défense où l’on veut être absolument certains qu’aucune donnée ne transite vers l’extérieur.
Enfin, dans une logique de réduction de l’empreinte environnementale de l’IA, déployer demain des IA plus frugales, des SML, permettra de réduire, ou du moins, contenir la consommation des datacenters et aboutir à des architectures IA moins énergivores.

À LIRE AUSSI :
À LIRE AUSSI :

