Crédit Photo: Sashkin-Adobe Stock

Cloud

Les fournisseurs de cloud veulent leurs puces pour l’IA

Par Jacques Cheminat, publié le 12 juin 2018

Depuis quelques mois, les fournisseurs de cloud travaillent pour créer leur propre puce dédiée à l’intelligence artificielle. Google est en avance, Microsoft recrute et Alibaba planche dessus.

Les serveurs et plus particulièrement les puces sont sans conteste le nouveau terrain de jeu des acteurs de l’IT. Il faut dire que l’intelligence artificielle est passée par là avec des besoins importants en puissance de calcul. Les acteurs IT sont donc partis en quête de la meilleure configuration et pour certains n’ont pas hésité à sauter le pas de la création de puce dédiée.

C’est le cas de Microsoft qui en mars dernier à publier 3 offres d’emploi au sein de sa division cloud Azure pour développer des puces dédiées à l’intelligence artificielle. Le mois suivant, d’autres profils étaient cherchés par la firme de Redmond comme un responsable du programme des puces ou un ingénieur de codesign du hardware/software et spécialisé dans l’optimisation de l’accélération de l’IA.

Répondant aux questions de nos confrères CNBC, un porte-parole de la société américaine a indiqué que ces postes s’inscrivaient dans le cadre du projet Olympus visant à concevoir son propre matériel cloud. Microsoft a déjà une expérience dans les puces via les FPGA (field-programmable gate array ) au sein d’Azure plus connu sous le nom de projet Brainwave.

Une réponse à la concurrence

L’objectif pour Microsoft et de ne pas se faire distancer par Google ou AWS dans ce domaine très prometteur. Google est avance avec la présentation il y a quelques semaines de la troisième itération de sa puce Tensor, 8 fois plus performante que la précédente et un refroidissement à l’eau. Cette puce sert principalement pour l’apprentissage des réseaux neuronaux. Une alternative au GPU de Nvidia qui règne en maître dans le domaine du deep learning. A l’occasion du salon Computex, le fondeur a présenté le SoC Jetson Xavier comprenant un GPU Volta Tensor Core, un processeur ARM64 huit cœurs, des doubles accélérateurs d’apprentissage profond NVDLA, un processeur d’images, un autre pour la vision et un dernier pour la vidéo.

D’autres acteurs s’intéressent aux puces pour l’IA. Le chinois Alibaba a annoncé en avril dernier se lancer dans la création de sa propre puce, baptisée Ali-NPU. Elle devrait prochainement intégrer ses datacenters et être mise à disposition des clients en tant qu’offre cloud. Plusieurs start-ups se positionnent sur ce marché comme Graphcore, société britannique, qui a levé 50 millions de dollars à la fin 2017. D’autres comme Nervana a fait l’objet d’un rachat par Intel pour 400 millions de dollars. Ce marché des puces pour l’IA est en pleine effervescence. Les fondeurs ne veulent pas être dépassés par les nouveaux entrants et les acteurs du cloud veulent réduire leur dépendance par rapport aux fondeurs. Le marché aura certainement besoin d’un standard et des rapprochements sont à prévoir.  

Dans l'actualité

Verified by MonsterInsights