Ennio Carboni
Directeur du département gestion réseau chez Ipswitch

Les challenges liés au SDDC (Software Defined Data Center) auxquels feront face les professionnels de l’informatique seront de plus en plus nombreux, puisqu’ils impliquent le problème du facteur humain que la technologie à elle seule ne pourra résoudre.

1- Disposer d’un contrôle de bout en bout. Très peu d’outils permettent de fournir une visibilité de bout en bout d’un système. Le principal problème d’un contrôle compartimenté réside dans le fait que seuls les problèmes en surface seront apparents. Ce phénomène est très souvent dû à une bataille entre les administrateurs de serveurs et les administrateurs réseau qui, au final, se renvoient la responsabilité. Nous attendons tous un outil permettant d’effectuer des contrôles allant du point de vue de l’utilisateur final jusqu’aux systèmes plus techniques d’arrière-plan.

2- Gérer la mobilité géographique des charges de travail. Généralement, la virtualisation fonctionne depuis toujours au sein d’une partie contrôlée d’un réseau. C’est-à-dire que les changements touchant l’environnement virtuel n’ont normalement aucun impact sur le réseau général. Grâce aux améliorations et à une plus grande adoption des technologies permettant la mobilité des charges de travail, comme Metro vMotion et Storage vMotion de VMware qui facilitent leur mobilité géographique, le mouvement rapide des charges de travail peut causer de nouveaux problèmes au réseau de l‘entreprise.

3- Se doter des bonnes compétences au sein de la DSI. Les professionnels de l’informatique doivent d’abord comprendre ce qu’est la virtualisation avant de concevoir quel sera leur rôle. Ajoutez à cela le concept du cross-training (formation polyvalente) : nécessité pour l’entreprise mais qui, dans les faits, ne peut être réelle au sein d’un département informatique. En effet, l’équipe y est très souvent surchargée, on lui demande bien trop de choses afin de maintenir le bon fonctionnement de l’entreprise pour qu’elle puisse être polyvalente. C’est un fait qui n’a pas vraiment évolué, et l’on ne s’attend pas à ce que cela change dans un futur proche.

4- Prendre en compte le stress lié aux impératifs de haute disponibilité. 99,999 % du temps de fonctionnement correspond à 5,26 minutes de temps d’arrêt par an. Nous nous sommes habitués à ce que le réseau soit toujours disponible, un peu comme l’électricité. Le département informatique en subit les conséquences et continue de redouter les « temps d’arrêt » durant les nuits, les week-ends et les vacances. Le problème, ce ne sont pas les mises à niveau, mais plutôt les soucis qui apparaissent quand les utilisateurs commencent à travailler avec ces mises à niveau. Face à ce problème qui existera toujours, le plus important reste l’équilibre des équipes entre vie privée et vie professionnelle afin d’éviter l’épuisement de ses membres.

5- Anticiper les changements induits par la virtualisation. Réseau, stockage, applications et calculs sont tous réunis sous la couche de virtualisation. Alors que la virtualisation est de loin l’élément le plus accompli d’un SDDC, le prochain challenge sera d’aller au-delà des limites des calculs pour trouver le meilleur moyen de gérer et de coordonner les changements et actions en lien avec d’autres domaines technologiques. Au fur et à mesure que la vitesse du changement s’accélère entre toutes les technologies liées, les professionnels de l’informatique qui gèrent la couche de virtualisation ne cesseront d’être cet élément de coordination permettant aux autres équipes de suivre la cadence.

Les administrateurs réseaux et systèmes en première ligne devront être disponibles pour résoudre, au pied levé, les problèmes d’un SDN (Software Defined Networking) afin d’éviter que les utilisateurs mécontents ne se révoltent.