ChannelScope

NetApp harmonise le stockage défragmenté

Par Vincent Verhaeghe, publié le 11 décembre 2025

Lors d’Insight Xtra à Paris, NetApp a présenté une nouvelle vague d’innovations qui redéfinissent son approche du stockage. En mettant l’accent sur la simplicité, la performance et une intégration plus fluide la marque annonce des évolutions majeures d’ONTAP et des services data pour aider les entreprises à mieux exploiter leurs infrastructures dans un contexte où l’IA et les workloads hybrides deviennent la norme.

NetApp a dévoilé une vision ambitieuse lors de l’étape parisienne de son évènement Insight Xtra : transformer le stockage protéiforme en une plateforme unifiée, sécurisée et nativement prête pour l’IA. L’objectif affiché est de transcender la fragmentation des infrastructures (fichiers, blocs et S3) et de rendre les données immédiatement exploitables pour les modèles et pipelines d’IA, sans duplication, sans chaînes d’ETL (Extract Transform Load) et sans architectures superposées. « La complexité est le tueur silencieux de la productivité IT et la multiplication des silos, formats et environnements freine aujourd’hui l’IA plus que les modèles eux-mêmes.», explique Jeff Baxter, Vice-president product marketing de NetApp lors de sa présentation.

AFX, ou la promesse d’un stockage désagrégé pensé pour l’IA

Cette modernisation passe d’abord par la solution AFX. Annoncée en octobre dernier, cette architecture de stockage désagrégée rompt avec les limites traditionnelles des systèmes actuels : tous les contrôleurs peuvent accéder à toutes les unités de stockage via un réseau Ethernet à très faible latence, éliminant la notion d’agrégats et rendant la montée en charge quasi linéaire. « C’est toute la puissance d’ONTAP, mais avec l’échelle massive et les performances nécessaires pour les charges de travail IA d’aujourd’hui », résume Jeff Baxter.

Rien ne se fait aujourd’hui dans l’IA sans l’aval explicite de NVIDIA et la marque américaine a d’ores et déjà validé AFX pour les environnements DGX SuperPOD, la plateforme d’infrastructure de référence de NVIDIA pour le calcul haute performance et donc l’IA. L’autre promesse clé est la simplicité : ajouter un nœud ne demande, selon Jeff Baxter, que de « le connecter au switch Ethernet » avant de laisser ONTAP l’intégrer et rebalance automatiquement les workloads. Là encore, l’idée est de rendre l’extrême échelle compatible avec une exploitation sans spécialisation lourde.

AIDE, la brique manquante pour des données immédiatement prêtes pour l’IA

L’autre pilier majeur annoncé est NetApp AI Data Engine (AIDE), conçu pour transformer le stockage en un moteur opérationnel de préparation et de gouvernance des données pour l’IA. « Avec le NetApp AI Data Engine, les données sont prêtes pour l’IA. Pas d’ETL, pas d’harmonisation, pas de modélisation complexe, pas besoin de copier vos données dans vingt endroits différents. Elles sont prêtes sur place sans réplication inutile. »

Le moteur AIDE indexe, enrichit, nettoie et vectorise les données directement dans l’environnement ONTAP, et expose aux applications IA une interface de type base vectorielle. « On peut comparer AIDE à l’intégration d’une base de données vectorielle en tant que nouveau protocole dans ONTAP. » Cette intégration évite les copies massives, les clusters parallèles multiplicatifs et les pertes de cohérence.

Surtout, elle répond au plus grand écueil identifié dans les études citées sur scène : selon le cabinet d’études Gartner, 60 % des initiatives d’IA échouent faute de données prêtes pour l’IA, un constat qui justifie la priorité donnée à la préparation des données plutôt qu’aux modèles. En gros on met trop souvent la charrue avant les bœufs…

« Beaucoup de systèmes installés ajoutent la sécurité après coup, nous l’intégrons dans la définition même du projet d’infrastructure », Jeff Baxter, Vice-president product marketing de NetApp

Une sécurité nativement intégrée pour protéger les chaînes d’IA

NetApp accompagne ces nouveautés par une couche de sécurité intégrée pour se doter d’une vraie capacité de cyber résilience. Détection comportementale, prévention d’exfiltration, snapshots immuables, environnements de restauration isolés. « Les startups parlent de vitesse. Nous, nous garantissons la pérennité. Beaucoup de systèmes installés ajoutent la sécurité après coup, nous l’intégrons dans la définition même du projet d’infrastructure » explique Jeff Baxter.

Quand les pipelines IA deviendront des cibles d’attaques, le stockage devra devenir une véritable barrière de sécurité, capable d’intercepter les attaques avant chiffrement et de ramener l’entreprise en production sans perte et sans contamination.

Virtualisation : une stratégie pragmatique dans un marché en mutation

NetApp répond aussi de manière pragmatique à la turbulence du marché de la virtualisation. Face aux hausses de prix des hyperviseurs, la marque recommande de commencer par optimiser les environnements VMware existants à l’aide d’outils internes, puis de s’ouvrir à la flexibilité multi-hyperviseur. L’éditeur propose dans cette optique un outil gratuit, NetApp Shift Toolkit, qui permet de convertir des VM installées, passant d’un VMDK (Virtual Machine Disk) à un (Virtual Hard Drive) ou KVM sans recopier de données.

Keystone, le paiement à l’usage qui démocratise AFX et AIDE

Enfin, NetApp renforce sa stratégie de paiement à l’usage en proposant d’emblée les solutions AFX et AIDE dans son offre as-a-Service Keystone. Une approche qui permet selon la marque de démarrer petit, d’absorber des charges imprévisibles et d’éviter des dépenses d’investissement massives alors que beaucoup d’organisations restent en phase pilote. Keystone ajuste automatiquement capacité et performance pour rester dans les SLA définis, offrant une expérience « cloud-like » à l’infrastructure IA locale.

Dans l'actualité

Verified by MonsterInsights