Dans une époque massivement « cloud » où la centralisation est reine (souvent à juste titre, d’ailleurs), il serait bon malgré tout de s’intéresser à la prochaine révolution architecturale qui pointe le bout de son nez : l’informatique périphérique.

Par Matthieu Dierick, Tech Evanglist, F5 Networks

Dans ce type d’architectures, plutôt que de transmettre les données à analyser dans le cloud ou à un quelconque datacenter central, le traitement s’effectue à la « périphérie » du réseau, c’est-à-dire au plus près du client ayant réalisé la requête. Ce qui réduit de fait la latence, augmente la bande passante et accélère donc considérablement les temps de réponse.
Une telle architecture s’appuie sur des composants de plus faible capacité hébergés sur différentes plateformes distantes, qui coopèrent ensuite de proche en proche à travers un réseau rapide.

Mais que les entreprises déjà engagées dans leur processus de transformation numérique se rassurent : il ne s’agit pas de tout casser pour embrasser une nouvelle mode informatique ! L’informatique périphérique sera complémentaire, prenant en charge de nouveaux besoins, en particulier pour des applications innovantes qui nécessiteront une latence ultra-faible et/ou une bande passante élevée.

Aujourd’hui, de tels services ne peuvent tout simplement pas être offerts par le biais du cloud public traditionnel.

MATTHIEU DIERICK
Tech Evangelist, F5 Networks

Par exemple, le développement de la réalité augmentée (RA) ou de la réalité virtuelle (RV) intègre déjà certains aspects de l’informatique périphérique, de par la proximité entre le casque et son unité de traitement.

Mais d’autres domaines se bousculent au portillon des promesses de l’informatique périphérique. Ainsi, l’edge-BI (la business intelligence périphérique) pourrait décharger les réseaux encombrés entre de nombreux points de vente et les centres de calculs où des traitements batch sont réalisés chaque nuit, pour permettre à la place une analyse et une prise de décision locale immédiates (avec évidemment une consolidation ultérieure).

De même, l’intelligence artificielle, aujourd’hui très centralisée, aurait tout intérêt à se déporter à la périphérie (edge-AI). Car aujourd’hui la plupart des soi-disant objets intelligents le sont surtout parce qu’ils sont connectés à un cloud ! L’edge-AI pourrait réellement libérer ces « smart devices » en créant des matrices locales de calcul très puissantes.

Passer à l’étape suivante

Dans ce contexte, comment les fournisseurs de services peuvent-ils s’approprier de façon plus proactive ces cas d’utilisation naissants – qui ne sont finalement que le sommet de l’iceberg – pour les transformer en des projets pérennes et rentables ?

Ils auront besoin à la fois de fonctions de mise en réseau intelligentes et de bons outils de gestion du trafic jusqu’au coeur des sites de calcul périphériques, ainsi que des contrôleurs de livraison d’applications (ADC) et de services de sécurité situés devant les applications qui y sont hébergées.

Oui, mais cela change le modèle actuel ! Car jusqu’à présent les services des ADC et de sécurité étaient traditionnellement fournis de manière centralisée sur une infrastructure spécialement conçue à cet effet, en tirant parti de l’accélération matérielle afin de bénéficier d’un effet d’échelle.

Mais les choses sont bien différentes à la périphérie. La plupart des architectures de périphérie seront construites sur la base de serveurs « sur étagère », tout en ayant les mêmes exigences de performance. Heureusement, des innovations récentes telles que la technologie Quick Assist d’Intel permettent aux fournisseurs de services de bénéficier de capacités d’accélération matérielle pour, par exemple, le chiffrement et la compression, même sur des équipements sur étagère.

L’informatique périphérique exige aussi une approche distribuée de la sécurité des couches applicatives. Car l’une des plus grandes erreurs est de supposer que les contrôles de sécurité traditionnels tels que les pare-feu réseau sont suffisants. Les solutions WAF (web applications firewall) avancées d’aujourd’hui sont capables de protéger dynamiquement les applications où qu’elles se trouvent, avec notamment des capacités anti-bot, et de protéger les applications contre le vol d’identifiants en chiffrant les frappes clavier. Il est également possible d’étendre la détection et la défense contre les attaques applicatives par déni de service distribué (DDoS) grâce à une combinaison d’apprentissage machine et d’analyse comportementale, particulièrement efficace même sur des sites distribués.

Et au-delà, ces technologies répondent aussi à d’autres impératifs tels que celui de fournir des services applicatifs natifs cloud pour les applications basées sur les micro-services, ainsi que de faire office de passerelle pour l’interconnexion sécurisée de tiers se connectant à la plateforme de calcul de périphérie à travers des API.

La portée et l’influence de l’informatique périphérique restent relativement embryonnaires, mais progressent très vite, en particulier dans les secteurs automobile et manufacturier. Demain de nombreux autres domaines seront concernés et il faudra avoir défini la stratégie adéquate pour faire fonctionner l’ensemble en toute sécurité.