Secu
Louis Blanchot (Etix Everywhere) : « La souveraineté, c’est la liberté d’action »
Par Laurent Delattre, publié le 08 avril 2026
Au Forum InCyber 2026, Louis Blanchot, Group CEO d’Etix Everywhere, défend le modèle du data center EDGE, face aux hyperscalers et plaide pour un rééquilibrage entre cloud public et infrastructure de proximité.
Invité sur le plateau d’IT for Business à l’occasion du Forum InCyber 2026, dont le thème central était « Maîtriser nos dépendances numériques », Louis Blanchot, Group CEO d’Etix Everywhere, livre une vision très concrète et pragmatique de ce que signifie opérer un réseau de centres de données de proximité dans un marché un peu trop fasciné par les gigawatts des hyperscalers.
Pour les DSI qui s’interrogent sur l’équilibre entre cloud public et maîtrise de leurs infrastructures, son témoignage éclaire un modèle alternatif qui, de nouveau, remonte en puissance.
Un modèle de marketplace, pas un projet immobilier
Etix Everywhere revendique le leadership français du data center EDGE, avec 13 sites répartis sur six régions. Les capacités sont volontairement contenues – entre 1 et 5 mégawatts par site, soit 1 000 à 2 000 baies informatiques – mais le positionnement est radicalement différent de celui d’un campus hyperscale. Là où un datacenter géant sert un ou deux clients majeurs dans une logique avant tout immobilière, Etix héberge entre 50 et 200 clients par site. « Hyperscalers, NeoClouds, datacenters Edge… ce sont des produits différents qui adressent des usages différents », pose Louis Blanchot.
Le modèle Etix repose sur une logique de marketplace : l’opérateur fait cohabiter des entreprises dont l’IT n’est pas le cœur de métier (banques, assurances, industriels, collectivités locales) avec des acteurs IT qui montent dans les couches de service et proposent des prestations complémentaires à cette même clientèle. Il en résulte un écosystème local de services, une proximité géographique avec le centre de décision, et surtout la possibilité de garder la main sur ses infrastructures critiques.
L’IA change la conception technique, pas le business model
La déferlante de l’IA générative ne bouleverse pas le positionnement d’un acteur comme Etix, mais impose une refonte en profondeur de l’ingénierie des sites. Les niveaux de densité énergétique par baie ont été, selon les cas, été « multipliés par 10, par 100 » pour accueillir des charges de type GPU. Pour autant, le cœur de l’activité reste le run IT quotidien, sur lequel les puissances n’ont pas connu la même explosion. Toute la difficulté consiste à faire coexister ces deux réalités sans que l’une n’impacte l’autre. « L’infrastructure en amont doit être ultra flexible, c’est ça la difficulté de notre métier », résume Blanchot, « et c’est de le faire en étant performant énergétiquement, performant financièrement, tout en ayant la souplesse nécessaire pour pouvoir accueillir des besoins très variés. »
Pour un DSI qui envisage de faire tourner des modèles IA en localn pour des raisons de conformité, de latence ou de coût, la question de la capacité d’accueil du datacenter hôte est loin d’être anecdotique. Etix y répond par le concept de campus multi-usages, où des zones à haute densité cohabitent avec des espaces de colocation classique.
L’autonomie numérique en mouvement de fond
En écho au thème central de ce Forum InCyber 2026, la discussion rebondit forcément sur les sujets de dépendance aux hyperscalers et leurs services ultra-intégrés, et à une tendance qui se dessine depuis plusieurs mois en faveur d’un rapatriement d’infrastructures depuis le cloud public dans un contexte de budget sous pression et de quête de visibilité. Louis Blanchot évoque un phénomène massif : « Un business case sur deux que nous recevons émane d’organisations historiquement hébergées dans le cloud public qui décident de rapatrier leurs infrastructures ».
Le premier moteur est financier, le coût récurrent du cloud public finit par peser lourdement sur le run. Le second est stratégique : « Le contexte géopolitique fait que c’est quand même un enjeu majeur », observe notre invité, avant de livrer sa définition de la souveraineté : « La liberté d’action. C’est ne pas être soumis à une loi extraterritoriale qui fait que je mets à risque mes données et donc mon entreprise. »
Le CEO ne verse pas pour autant dans le discours anti-cloud. Il reconnaît volontiers que les hyperscalers « font très bien leur métier » et que le cloud public reste incontournable pour les charges nécessitant beaucoup de flexibilité ou les POC IA. Mais il note un rééquilibrage structurel : « Je ne suis pas en train de dire que tout va revenir on-premise, mais c’est en train de se rééquilibrer. Il y a dix ans, on m’a prédit la mort des data centers de proximité parce que tout allait passer dans le cloud public. » La réalité du terrain donne aujourd’hui raison à des acteurs comme Etix, portée par un double impératif de maîtrise financière et de contrôle de la chaîne de dépendances.
Recruter à l’ère de l’IA : le défi des soft skills
Autre volet abordé dans l’entretien, et pas le moins intéressant : le recrutement dans un secteur en tension. La pénurie de talents est réelle, mais Louis Blanchot insiste sur un critère qui prime sur les compétences techniques pures : l’engagement. « On est dans un métier où il faut être ultra engagé. On héberge l’infrastructure critique de nos clients : Tout impact de notre côté est directement répercuté chez nos clients. On ne peut pas dire : bon, c’est samedi, j’interviendrai lundi sur les machines. C’est impensable. »
L’irruption de l’IA dans les processus de recrutement complique aujourd’hui la détection de ces qualités humaines. Quand CV et lettres de motivation sont générés par ChatGPT, le risque est de « niveler tout le monde » et de ne plus distinguer le candidat authentiquement motivé de celui qui a sous-traité sa candidature à un modèle de langage. La parade d’Etix ? Des business cases en temps réel et une attention renforcée à « l’énergie qu’on fait transpirer pendant l’entretien ». Un défi qui parlera à tout DSI confronté aux mêmes difficultés dans ses propres équipes.
De quoi nous rappeler au final que le paysage du data center français est plus nuancé que ne le laisse croire la course aux gigawatts qui semblent désormais tant préoccuper les hyperscalers et les géants de l’IA. Le cloud public n’est pas une fatalité, pas plus que l’ultra dépendance aux géants américains. La souveraineté se construit aussi par le choix de l’hébergement physique. Les data centers de proximité constituent une alternative crédible pour concilier performance, maîtrise des coûts et réduction des dépendances. Dans un contexte géopolitique qui pousse chaque organisation à revoir sa chaîne de confiance numérique, une maturité nouvelle émerge, peut-être inattendue, celle où l’infrastructure redevient un choix de pilotage, et non un simple réflexe de marché.
À LIRE AUSSI :
À LIRE AUSSI :
À LIRE AUSSI :
À LIRE AUSSI :
