ChannelScope

NetApp place la donnée comme boussole dans la tempête du Flash

Par Vincent Verhaeghe, publié le 23 mars 2026

Tensions géopolitiques, souveraineté des données, cybersécurité, accélération de l’IA et pour couronner le tout un prix de la mémoire sous stéroïdes : les sujets d’interrogation ne manquaient pas lors du NetApp Partner Summit d’Amsterdam. En marge de l’événement, la marque a choisi de regarder la réalité en face plutôt que de noyer le poisson. Message aux partenaires : ceux qui ne s’adapteront pas auront du mal à surnager dans un monde qui change profondément.


Par Vincent Verhaeghe, envoyé spécial à Amsterdam


Près de 150 partenaires de la zone EMEA étaient réunis à Amsterdam le 19 mars pour le NetApp Partner Summit 2026. En marge de cet événement, la marque a réuni la presse spécialisée européenne pour une série de prises de parole qui ont rapidement pris une couleur inhabituelle. Pas de communication soigneusement dosée, pas de slides optimistes déconnectés de la réalité du terrain.

Willem Hendrickx, directeur général de NetApp EMEA et LATAM depuis janvier dernier en provenance de Vectra AI, a mis d’emblée les pieds dans le plat. « L’éléphant dans la pièce, c’est évidemment le prix de la mémoire et l’impact que ça a sur l’ensemble du business. C’est un temps difficile que tout le monde doit affronter. » Le reste des débats ont décliné cette franchise sur tous les registres : technique, commercial et réglementaire. Avec, en filigrane, un message que les revendeurs et intégrateurs ont probablement rarement entendu formulé aussi clairement : la crise actuelle est aussi une fenêtre d’opportunité, pour ceux qui savent s’en saisir.

Car si le contexte est difficile, la stratégie de NetApp en EMEA ne vacille pas. « Notre mentalité est le partner first. Près de 88 % de notre activité en EMEA transite par nos partenaires », a rappelé Willem Hendrickx. Et l‘IA, loin d’être un sujet prospectif, représente déjà 15 % du chiffre d’affaires global de l’entreprise, avec une ambition claire de faire croître cette part en s’appuyant sur le channel.

Supply chain : une crise d’une ampleur inédite

Pour comprendre ce qui se passe sur le marché du stockage, il faut d’abord comprendre la racine du mal. Alastair Edwards, analyste senior chez Omdia, a posé le diagnostic. Ce n’est pas, selon lui, une énième perturbation de chaîne d’approvisionnement. C’est autre chose, d’une échelle inédite. « Nous avons connu quelque chose de similaire pendant la crise Covid, mais quand on évoque le marché actuel de la mémoire nous sommes dans une magnitude complètement différente », a-t-il annoncé en liminaire. En 2025, OpenAI aurait à lui seul verrouillé jusqu’à 40 % de l’allocation mémoire disponible chez SK Hynix et Samsung, deux des trois principaux sinon uniques fondeurs. Les grands hyperscalers ont fait de même, absorbant des volumes considérables de DRAM et de NAND bien en amont de leurs besoins opérationnels immédiats. Le résultat est mécanique : à capacité égale, le stockage flash coûte aujourd’hui vingt-cinq fois plus cher que le disque dur, contre une différence de l’ordre de 10 % il y a encore trois mois. « Je perds mes cheveux depuis longtemps dans cette industrie, mais je n’ai jamais vu ça », a reconnu Willem Hendrickx, sans chercher à édulcorer la situation.

Des cotations remises en question

Les chiffres qu’Alastair Edwards a présentés méritent d’être lus attentivement par quiconque gère un business de revente. Plus de 70 % des fournisseurs ont déjà révisé leurs tarifs. Les délais de validité des cotations se raccourcissent. Certains constructeurs modifient voire annulent des commandes jusqu’au moment de l’expédition, même après validation d’un bon de commande. « Cela a des implications massives sur la capacité d’un partenaire à maintenir une relation crédible avec son client. Et les clients eux-mêmes ne savent plus à quoi s’en tenir sur les prix », a souligné l’analyste d’Omdia.

Pour un partenaire engagé sur un prix ferme auprès d’un client final, les conséquences sont potentiellement dévastatrices. Et si les mois de novembre et décembre ont encore été portés par un phénomène d’achats anticipés, les clients commandant en avance par crainte de nouvelles hausses, le modèle s’inverse progressivement. « Quand les prix deviennent insoutenables, les clients s’arrêtent de commander. Le pipeline commence à se réduire, les carnets de commandes à se vider », a résumé Alastair Edwards. Résultat : plus de la moitié des partenaires s’attendent à une baisse de rentabilité à deux chiffres au premier trimestre. C’est le chiffre qui a retenu l’attention. 

Il reste des raisons d’espérer

Mais Alastair Edwards a aussi refusé de laisser ses interlocuteurs dans le seul registre du pessimisme. Car derrière la crise, les tendances de fond restent intactes. « Nous sommes au début d’un nouveau cycle de vingt ans. C’est l’ère de l’IA », a-t-il affirmé. Le marché IT mondial va croître de plus de 10 % cette année. Et si l’on isole les hyperscalers qui opèrent majoritairement en direct, le channel ne recule pas : il est stable, voire en progression. Mieux encore : 96 % de l’ensemble des transactions dans l’industrie impliquent au moins un partenaire et une entreprise travaille en moyenne avec six à sept partenaires, qu’il choisit pour leurs compétences spécifiques plus que pour leur catalogue. « Ce que les clients recherchent, c’est de l’expertise. Ceux qui savent se spécialiser ont un avantage considérable », a insisté Alastair Edwards.

La cybersécurité illustre bien cette dynamique. Elle constitue l’un des moteurs de croissance les plus dynamiques du channel, avec une progression attendue de 10 à 11 % cette année, quasi intégralement portée par les partenaires. Chaque euro de produit de cybersécurité vendu génère environ deux euros de revenus de services associés. « C’est un modèle extrêmement riche en services », a rappelé l’analyste d’Omdia. Et l’horizon s’étend encore plus loin. « Dans quelques années le channel va vendre des robots », a-t-il affirmé sans détour, en référence directe à la vision exprimée par Jensen Huang lors du GTC qui se déroulait quasi-simultanément à l’évènement NetApp.

L’IA physique, le monde de la robotique autonome, nécessitera une architecture entièrement nouvelle. « Ceux qui se transforment le plus vite s’adapteront le mieux. Mais l’un des plus grands différenciateurs reste le contact humain, parce que c’est ce qui crée la confiance avec le client », a-t-il conclu. Une vérité qui résonne d’autant plus dans un secteur où certains vendeurs ont fragilisé cette confiance en annulant des commandes confirmées.

HDD, tiering, Keystone : transformer la contrainte en conversation

C’est sur ce terrain que Gavin Moore, CTO de NetApp EMEA, a articulé la réponse tactique de la marque. Le message est simple à formuler, mais difficile à assumer pour un constructeur qui a promu le tout-flash pendant des années : les choix technologiques ne sont plus uniquement guidés par des critères techniques, mais par des critères économiques. « Les économies qui justifiaient d’aller sur du flash ont complètement changé. Flash à deux fois le prix du disque, je l’accepte pour la valeur ajoutée. Flash à vingt fois le prix du disque, non. Je peux travailler avec des disques durs. L’expérience sera différente, mais pour cette application, techniquement, ça fonctionnera très bien », a expliqué Gavin Moore. Une approche pragmatique qui sera peut-être difficile à avaler pour certains clients à qui on a vanté depuis des années les mérites du 100 % Flash sans trop se préoccuper des tarifs…

Concrètement, NetApp propose à ses partenaires un argumentaire en quatre temps pour convaincre les clients (partant du principe que les partenaires sont, eux, déjà convaincus). D’abord, l’audit du parc existant : des outils permettent d’analyser l’ensemble de l’infrastructure d’un client, NetApp et non-NetApp, pour identifier les inefficacités et libérer de la capacité sans achat supplémentaire. Ensuite, le tiering intelligent : par exemple une application avec sept ans d’historique n’a pas besoin que toutes ses données soient sur du stockage haute performance.

Troisièmement, Keystone, l’offre Storage-as-a-Service de NetApp, qui permet à un client de dimensionner au plus juste ses besoins immédiats tout en conservant la capacité de monter en puissance progressivement. « Vous prenez un Keystone en sachant que vous pouvez le faire grandir dans le temps. Vous avez de la prévisibilité sur les prix. Et si la disponibilité s’améliore d’ici là, vous ne vous êtes pas surendettés », a résumé Gavin Moore. Enfin, le cloud reste une option réelle pour les workloads qui n’exigent pas de latence ultra-faible, même si les prix cloud augmentent également, quoique beaucoup moins vite que les prix de l’infrastructure physique. Là encore, ceux qui avaient tout basculé dans le cloud au début des années 2010, avant de revenir en arrière pour une approche hybride, vont devoir encore se poser des questions sur l’organisation de leur SI.

Si on s’arrête sur l’offre NetApp, Keystone paraît effectivement cocher plusieurs cases pour faire face à la crise actuelle, avec une approche devant permettre de maîtriser les coûts sur du moyen terme. Sans surprise, l’offre affiche une croissance mondiale de 65 % au quatrième trimestre 2025, signe d’une adoption accélérée dans un contexte où les entreprises cherchent à éviter des engagements Capex trop lourds. En Allemagne, Keystone pèse déjà pour plusieurs dizaines de millions d’euros de chiffre d’affaires. En France, le marché a pris plus de temps à décoller, mais les signaux changent : Atos vient de signer un projet avec un grand organisme de santé, une référence qui pourrait faire bouger les lignes dans un secteur historiquement frileux face aux modèles de consommation à l’usage.

AIDE et EF-Series : ce que le GTC change pour les partenaires

Quelques annonces récentes reprises lors du Partner Summit  ont aussi permis de remettre de la perspective dans ce contexte chahuté. La première, et probablement la plus structurante, est celle de NetApp AI Data Engine, AIDE. Pour comprendre ce qu’elle résout, il faut partir du problème réel auquel font face les équipes data aujourd’hui : avant de pouvoir utiliser une donnée dans un pipeline IA, il faut la préparer, la nettoyer, l’enrichir en métadonnées, la formater, la copier. Ce processus génère en moyenne six à sept copies successives avant qu’elle soit considérée comme AI-ready. « Chaque copie est un coût de stockage, un délai, et un risque de sécurité. Et dès que vous faites une copie, elle commence à se périmer parce que la source continue d’évoluer », a expliqué Gavin Moore. AIDE résout ce problème en opérant directement au niveau du stockage : dès qu’une donnée arrive dans l’infrastructure NetApp, le moteur l’analyse, l’enrichit sémantiquement et la maintient à jour en temps réel. La donnée est AI-ready sans avoir été déplacée.

Ce n’est pas un détail technique. C’est ce qui explique un chiffre Gartner cité à plusieurs reprises : 60 % des projets IA initiés en cloud et arrivés au stade du POC sont abandonnés au moment du passage en production. La cause principale n’est pas la qualité des modèles. C’est l’incapacité à mettre les données à disposition dans les bonnes conditions. « Si vous avez des millions d’euros de GPU qui ne peuvent pas accéder aux données, ils ne servent à rien. C’est ce qu’on appelle la GPU starvation. C’est exactement le problème qu’AIDE résout », explique Kirsty Biddiscombe Business Lead for AI, Machine Learning and Data Analytics chez NetApp. AIDE et AFX sont intégrés dans l’offre Keystone, ce qui permet de les proposer sans contraindre le client à un investissement initial massif. Et la version logicielle standalone d’AIDE, prévue pour juin, permettra des déploiements sur n’importe quelle infrastructure, ouvrant le champ bien au-delà du parc NetApp existant. Les intégrations avec Microsoft Azure, Google Cloud Vertex AI et LangChain compléteront le tableau cet été.

« Si vous avez des millions d’euros de GPU qui ne peuvent pas accéder aux données, ils ne servent à rien. C’est ce qu’on appelle la GPU starvation », Kirsty Biddiscombe Business Lead for AI, Machine Learning and Data Analytics chez NetApp

La seconde annonce, les systèmes EF50 et EF80, adresse les workloads HPC et IA à très hautes exigences de latence. La nouvelle génération affiche plus de 110 Go/s de débit en lecture et 5 Go/s en écriture, soit une progression de 250 % par rapport à la génération précédente, avec 1,5 Po de stockage en 2U. « C’est notre E-Series existante, mais plus grande, plus rapide, plus puissante. C’est un rafraîchissement complet de la plateforme », a résumé Gavin Moore. Ces systèmes ciblent les environnements où la latence est une contrainte absolue, comme les simulations HPC associées aux systèmes de fichiers parallèles Lustre ou BeeGFS, ou les clouds IA souverains en cours de construction dans plusieurs États européens. Mais quid de leur tarification ? Avec une mémoire au rythme inflationniste inédit, quels clients seront prêts à se procurer ces baies ultra performantes ? Bien malin qui peut y répondre.

Souveraineté et cybersécurité : le terrain où NetApp joue une carte unique

Autre sujet sensible abordé par NetApp, celui de la souveraineté. Tout un programme quand on est une marque américaine qui veut montrer patte blanche en Europe. « Dans une zone EMEA traversée par des tensions géopolitiques, le Cloud Act américain, l’entrée en vigueur de DORA pour le secteur financier et la montée en puissance de l’AI Act européen, la question de la souveraineté des données n’est plus un sujet de prospective. C’est une contrainte opérationnelle » a expliqué Adam Gale, Field CTO for AI & Cybersecurity chez NetApp. Willem Hendrickx a confirmé : « Vous pouvez être souverain, mais vous devez aussi être sécurisé. Les deux vont ensemble. Une plateforme qui vous permet d’être sécurisé est aussi importante qu’une plateforme qui vous permet d’être souverain. »

NetApp avance sur ce terrain avec un argument fort : zéro accès aux données client, dans aucune circonstance, sauf demande explicite du client lui-même. « Vous achetez un coffre chez nous. Vous en fournissez la combinaison. Nous ne la connaissons pas. Peu importe qui nous demande d’ouvrir ce coffre, nous ne pouvons pas le faire », a formulé Adam Gale. Des clients font aujourd’hui tourner des infrastructures NetApp en dark site complet, sans connexion au support, sans télémétrie, avec pour seul recours un appel téléphonique en cas de problème. C’est une capacité que très peu de constructeurs peuvent revendiquer sérieusement. Gavin Moore l’a confirmé sans détour : « Nous n’avons aucun accès à ce qui se passe dans nos équipements une fois qu’ils sont dans le datacenter du client. La donnée leur appartient. L’infrastructure leur appartient. »

« La question de la souveraineté des données n’est plus un sujet de prospective. C’est une contrainte opérationnelle », Adam Gale, Field CTO for AI & Cybersecurity chez NetApp

Sur le front de la cybersécurité, Adam Gale a présenté trois innovations ancrées dans le cadre réglementaire européen. La protection autonome anti-ransomware, alimentée par l’IA, apprend les comportements normaux d’un environnement et détecte les anomalies en temps réel. « C’est l’avenir de la cybersécurité. Pour la première fois, j’ai l’impression qu’on est en avance sur les attaquants », a affirmé Adam Gale. La breach detection surveille ensuite les flux d’IOPS pour identifier une exfiltration lente et silencieuse, le type d’attaque qui passe inaperçu pendant des semaines avant que les données volées ne soient monétisées. Enfin, la restauration isolée répond précisément aux exigences de l’article 17 de la directive DORA, qui oblige les établissements financiers à maintenir un environnement de récupération déconnecté de la production. Plus prospectif, le chiffrement post-quantique est quant à lui déjà intégré dans les dernières versions d’ONTAP, en anticipation d’attaques de type « récolter maintenant, déchiffrer plus tard » déjà documentées sur des données de l’aviation, de la finance et de la santé.


À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights