Les experts Kubernetes d’Alibaba Cloud proposent leur vision des 6 tendances clés de 2021 autour des containers et du développement cloud native. De quoi éclairer les interrogations de certains DSI…

Les experts en développement Cloud natif d’Alibaba Cloud ne sont pas à prendre à la légère. Chaque année, ils permettent au groupe Alibaba de faire tomber des records à l’occasion de l’événement « 11-11 », le festival du e-shopping chinois. En novembre dernier, la célèbre marketplace a ainsi géré jusqu’à 583 000 commandes par seconde. Les services de traitement de flux ont absorbé 4 milliards d’éléments par seconde et la plateforme datawarehouse a traité 1,7 exaoctet de données en une journée.

Autant dire que ces spécialistes de la montée en charge façon cloud ont de l’expérience.

C’est pourquoi la publication de leur dernier rapport a attiré notre attention et devrait aussi attirer celle des DSI d’autant que ces spécialistes y mettent en avant 6 tendances phares pour l’avenir des containers en entreprise.

Voici ces 6 tendances :

1/ Les technologies de containers telles que Kubernetes sont la nouvelle interface du Cloud Computing

Les technologies « cloud natives » sont le meilleur moyen de réaliser la valeur du cloud. Et les containers s’imposent comme l’outil d’agilité du cloud hybride et du placement libre des workloads. Ils permettent un déplacement de l’interne vers le cloud et du cloud vers le Edge. Les containers encapsulent de plus en plus d’éléments d’infrastructures et les évolutions de Kubernetes en font une interface universelle pour le cloud et le edge, accélérant l’adoption des containers à l’Edge mais aussi dans l’IoT et les applications 5G.
Bien évidemment, cette adoption à large échelle des containers soulève de nouveaux défis en matière de gouvernance IT et de cybersécurité encourageant une adoption massive de l’automatisation des opérations et les bonnes pratiques DevSecOps (et Security by Design).

2/ Une automatisation toujours plus poussée des applications Cloud natives

Le concept Kubernetes de « final-state » facilite une haute automatisation des architectures cloud natives. Le développement d’applications cloud-natives peut et doit en tirer pleinement parti, notamment en ce qui concerne le maintien du nombre de répliques, la cohérence des versions, la relance en cas d’erreur et la gestion asynchrone des événements. Nous allons assister à une augmentation significative du niveau d’automatisation dans les domaines du déploiement des applications, de la prévention et du contrôle des risques, et de ce qu’on appelle les « Operators » en Kubernetes. Les opérateurs sont un moyen de packager, déployer et gérer les applications sous Kubernetes. Ce sont des sortes de contrôleurs, spécifiquement créés pour chaque application, qui permettent d’étendre les API Kubernetes pour configurer et gérer les applications (notamment celles complexes s’appuyant sur un ensemble de containers).
L’exécution des opérateurs va gagner en automatisation notamment pour mieux gérer les expansions horizontales des applications au sein des clusters, les mises à jour par phase, l’isolation des tenants, la sécurisation, et l’observabilité.

3/ Des plateformes de haut niveau centrées sur les applications

Kubernetes n’est finalement qu’une brique d’infrastructure de bas niveau. Devenu standard de fait de l’orchestration des containers, Kubernetes se voit enrichi de tout un écosystème de plus haut niveau pour améliorer la valeur métier des containers, sécuriser les infrastructures et les données, optimiser la gestion du stockage et des données, etc.
Pour les experts d’Alibaba Cloud, on va assister à l’apparition de nouvelles plateformes de plus haut niveau centrées sur les applications (et non plus sur la notion technique de containers) avec notamment l’apparition de nouveaux modèles applicatifs qui remplaceront les approches PaaS (Platform-as-a-Service) traditionnelles.
Cette tendance s’étend également à la disparition progressive des Enterprise Service Bus (ESB, concept issu de l’ère SOA) remplacés par les Service Mesh.

4/ Une intégration rapide du Cloud-Edge

Avec le développement de la 5G, de l’IoT, des diffusions en direct (live stream) et du CDN, l’informatique cherche de plus en plus à se rapprocher des sources de données et des utilisateurs finaux pour bénéficier de temps de réponse courts et réduire les coûts. Un nouveau modèle décentralisé se dessine. D’autant que l’edge computing s’impose de plus en plus comme une extension du cloud computing dans les scénarios de cloud hybride.
Ces réalités nécessitent une infrastructure informatique qui favorise la décentralisation et permet des installations autonomes sur la périphérie ainsi que l’hébergement du cloud sur le edge.
La nouvelle frontière du cloud natif n’est autre que le « cloud native edge computing ».

5/ Une transformation des données pilotées par le « cloud natif »

Les données constituent aujourd’hui l’actif le plus précieux d’une entreprise. Les technologies natives du cloud vont imposer toujours plus d’applications pilotées par les données au cours des prochaines années pour soutenir la transformation informatique numérique et intelligente d’une entreprise.
Mais si la plupart des applications IA et ML sont déjà très orientées containers et Kubernetes, il n’en va pas de même des applications traditionnelles Big Data et HPC. Il va falloir permettre leur migration vers les plateformes de Kubernetes. Et c’est un challenge qui reste largement à relever. Pour cela de nouvelles tendances émergent : repenser le Scheduler de Kubernetes (orienté ressources) pour le rendre plus en phase avec des schedulers big data comme Yarn, permettre une planification plus fine des ressources conteneurisées, faciliter l’émergence de nouveaux scénarios de tâches de données élastiques, et redéfinir une base unifiée et cloud native pour l’IA et le Big Data.

6/ La sécurité des conteneurs devient une priorité absolue

À l’ère du « cloud natif », les containers sont la norme pour concevoir et déployer les applications. Mais ces derniers posent et ont toujours posé des problèmes de sécurité et d’isolation. Les multiples containers partagent en effet un même Kernel. Les défis de sécurité soulevés par ce concept fondateur des containers sont encore à relever.
Différentes pistes sont suivies. À commencer par la question du runtime du conteneur et le rôle croissant joué par les technologies de micro-virtualisation telles que KATA de plus en plus employé dans les scénarios multi-tenant pour assurer l’isolation des tenants. D’autres technologies de virtualisation légère explorent comment associer la sécurité de la virtualisation sans perdre l’efficacité et la légèreté des containers à l’instar de gVisor chez Google, de Firecracker chez Amazon ou encore de Daishu chez Alibaba Cloud.
Mais d’autres challenges comme l’isolation réseau, l’isolation disque, l’isolation des images, et l’isolation au niveau des API Kubernetes attendent encore des réponses universelles.

On le voit, les tendances évoquées par les chercheurs d’Alibaba Cloud sont au cœur des questionnements que se posent nombre de DSI ayant déjà adopté Kubernetes. L’orchestrateur de containers s’impose au cœur de nos architectures informatiques. Mais il ne se suffit pas à lui-même. Tout un écosystème de frameworks et de couches de plus haut niveau est en train de se construire au-dessus pour en masquer la complexité et permettre aux entreprises d’en tirer toute la valeur sans compromettre leur cybersécurité et la fluidité de mise en production de leurs applications.


Source : The Development Trends of Six Major Container Technologies in 2021 – Alibaba Cloud Community