Cloud
L’IA relance la guerre des puces
Par Jacques Cheminat, publié le 16 février 2018
Le monde des processeurs est en ébullition avec l’intelligence artificielle. Google, ARM, Amazon ou le MIT travaillent ou présentent des puces dédiées à l’IA.
Un vent d’innovation souffle dans le domaine des processeurs dédiés à l’intelligence artificielle. En quelques jours, plusieurs acteurs se sont positionnés dans ce domaine.
Amazon pense à sa propre puce IA
Selon The Information, Amazon pourrait créer ses propres puces pour son enceinte connectée, Echo dotée de l’assistant Alexa. Le géant du e-commerce souhaite réduire la latence entre le traitement des questions demandées et les réponses données en maîtrisant la puce.
Aujourd’hui, Alexa envoie sa requête dans le cloud pour être traitée. Avec un processeur dédié, certaines requêtes pourraient être analysées plus rapidement en local. Pour réaliser cette puce, Amazon peut compter sur une équipe de 450 personnes et sur le rachat en 2015 du fabricant de puces israélien, Labs Annapurna et l’acquisition de Blink, spécialiste des caméras de sécurité,à la fin 2017.
ARM finalise le projet Trillium
Amazon n’est pas le seul à travailler sur ce sujet. ARM, maintenant propriété de Softbank, a présenté les éléments de son projet Trillium orienté vers l’IA. Cette initiative comprend 3 composants : un processeur dédié au machine learning, un processeur pour la détection des objets et une bibliothèque de logiciels pour les réseaux neuronaux.
Sur les processus d’apprentissage automatique, ARM a planché sur un système de mémoire intelligente en maintenant les performances de calcul et en maîtrisant la consommation énergétique. En matière de détection des objets, les instructions peuvent traiter des flux vidéo en temps réel à 60 images par seconde et détecter des éléments de 50 à 60 pixels dans l’image. L’ensemble de ces avancées seront disponibles dans le courant 2018 à l’attention d’autres fournisseurs de puces.
Le MIT crée une puce économe et performante pour les réseaux neuronaux
Les constructeurs de smartphone regarderont avec attention les travaux du MIT sur la création d’une nouvelle puce dédiée aux réseaux neuronaux. Elle a la particularité d’accélérer la vitesse de traitement (x3) des données et la forte réduction de la consommation d’énergie (93 et 95%).
Traditionnellement, la donnée est stockée en mémoire et elle est transférée dans une unité de traitement. Le transfert s’effectue via des bus. Les chercheurs du MIT ont trouvé une méthode pour intégrer directement dans la mémoire des capacités de traitement des algorithmes. En déplaçant ce processus en mémoire, la consommation d’énergie est fortement réduite.
Google lance une offre cloud à base de TPU
Enfin, le datacenter n’est pas oublié. Google a annoncé la disponibilité en version beta de ses TPU (Tensor Processing Units) au sein de Cloud Platform. Cette offre s’adresse aux entreprises désirant soumettre et créer des modèles de machine learning. Elle s’articule autour des composants TPU, créés autour de la technologie d’apprentissage automatique TensorFlow, développée par Google. Ces accélérateurs sont présents depuis 2015 dans les datacenters de la firme de Mountain View. Au point pour Sundar Pichai, CEO de Google, de dire lors de la conférence I/O que la société était en train de repenser son architecture autour du concept « datacenter IA first ». Pour bénéficier de l’offre cloud TPU, il en coûtera 6,5 dollars par TPU et par heure. Chaque TPU peut gérer 180 Tflops de capacité de traitement en virgule flottante et 64 Go de mémoire.