Connexion

Connexion à votre compte

Identifiant
Mot de passe
Maintenir la connexion active sur ce site
La rédaction

La rédaction

Les données représentent l’un des actifs majeurs de toute entreprise. Mais sont-elles sujettes à une dépréciation comme tout actif ? Ou bien prennent-elles de la valeur à l’instar d’une oeuvre d’art ? Aussi étonnant que cela puisse paraître, la réponse est oui aux deux questions.

Pour mesurer la valeur des données, nous pouvons appliquer certains principes économiques simples. Par exemple, nous savons, d’après les prévisions dans le secteur de l’informatique, que le volume des données numériques produites est bien supérieur à l’espace de stockage acheté.

Pourquoi cette situation ? En termes simples, certaines données sont produites, mais non stockées. L’application d’une simple courbe d’offre et de demande (source : IDC Digital Universe, Recode) fournit une partie de l’explication.

La courbe « offre » représente la capacité de stockage. Cette capacité est disponible à différents niveaux de tarifs, mais il existe un seuil minimal de prix. La courbe « demande » correspond aux données produites. Ces données créent une demande de capacité de stockage. Elles sont conservées tant que leur valeur reste supérieure à leur coût de stockage et d’accès. Ce qui peut se traduire par l’équation suivante : Valeur des données (t) ≥ (Sc + Mc + Ac)/Go/an × Duree de conservation

En clair, la valeur des données en fonction du temps doit être supérieure à la somme du coût des infrastructures réseau, de traitement et de stockage (Sc), du coût de maintenance des données et de l’infrastructure (Mc) et du coût d’accès aux données (Ac). Par souci de normalisation entre les environnements IaaS cloud et non-cloud, toutes les mesures sont calculées par unité (Go) et par an. Ce coût est lui-même fonction du temps, comme le mesure la durée de conservation des données.

Bien entendu, dans le monde réel, l’équation n’est pas tout à fait aussi simple. Le coût de stockage et de maintenance des données dépend de leur durée de conservation obligatoire, de la nécessité ou non de les protéger et de les sécuriser, etc. La conservation des données présente également un risque accru d’atteinte à leur sécurité ou encore de perte ou de dégradation dans le temps.

Problème : comment définir la valeur des données ? Il s’agit en fait de la valeur que celles-ci génèrent pour l’entreprise à la suite de leur utilisation ou de leur analyse, d’une manière ou d’une autre. En outre, il existe une corrélation entre le volume des données conservées, leur niveau d’accessibilité et leur valeur. Par exemple, une grande quantité de données leur donne plus de valeur si leur utilisation dépend d’une tendance historique, ou si, dans le cadre du machine learning, elle rend les algorithmes d’apprentissage plus performants.

La zone située sous la courbe représente le volume des données créées, mais non stockées, car leur valeur est jugée inférieure au coût de leur conservation. Si nous partons de l’hypothèse que les utilisateurs conserveraient la totalité des données numériques qu’ils produisent s’ils en avaient la possibilité, alors l’objectif est d’éliminer cette zone sous la courbe. Dans ce but, il nous faut faire baisser le coût de stockage et de maintenance des données et/ou augmenter leur valeur.

Que faire ensuite de cette mesure de la valeur des données ? En ce qui concerne l’infrastructure, je propose de focaliser les solutions sur l’optimisation de la mesure de valeur des données, plutôt que sur une mesure plus spécifique à l’infrastructure, par exemple le prix au gigaoctet, l’efficacité énergétique ou le coût mensuel d’interconnexion. Cela favorisera l’innovation dans les solutions d’infrastructure, dans deux directions distinctes : la réduction du coût total de possession (TCO), d’une part, et une plus grande facilité d’accroissement de la valeur des données, d’autre part. Les fonctionnalités en jeu peuvent porter sur l’indexation et la recherche, des interfaces analytiques intégrées, le transfert des données, etc.

Je pense que les entreprises doivent commencer par appliquer leurs propres critères de mesure afin d’établir la valeur de leurs données. Traditionnellement, elles ont surtout procédé ainsi pour pouvoir en mesurer l’évolution dans le temps, en partant du principe que les données plus anciennes ont moins de valeur, car faisant l’objet d’accès moins fréquents. Or ce principe n’est plus valable et la fréquence d’accès aux données n’est pas le critère le plus pertinent de leur valeur : mieux vaut prendre en compte le produit de leur analyse.

Ryan Taylor, Director ActiveScale EMEA, Western Digital
Une version de cet article a été publiée en anglais dans Network World from IDG

 

La succession des vagues technologiques de rupture s’accélère. Celle de l’informatique quantique s’annonce plus rapide que prévu. Un de nos récents rapports évalue son marché à plus de 50 milliards de dollars d’ici 2030. Inspiré de la physique nucléaire, le calculateur quantique, dont la puissance se mesure en qubits, démultiplie la vitesse de traitement d’applications complexes et offrira, demain, des solutions à des problèmes aujourd’hui insolubles. Embarquées dans la course de l’innovation digitale, les entreprises ont tout intérêt à s’emparer dès maintenant du sujet, à évaluer ses débouchés et à se positionner. En effet, les leaders de l’informatique réalisent aujourd’hui des percées significatives. Très actifs sur le marché, Google, IBM, Microsoft, Intel en partenariat avec des chercheurs du MIT ou de Yale réalisent des prouesses techniques et mettent au point des processeurs et des simulateurs quantiques de plus en plus rapides. Les immenses défis à relever avant que cette technologie ne se stabilise et atteigne sa maturité exigeront sans doute un peu plus de deux décennies. Mais l’utilisation des premières générations d’ordinateurs quantiques déjà disponibles ou attendues permet aux entreprises d’acquérir le savoir-faire, les langages de programmation, les méthodes propres à ce nouvel environnement et, surtout, d’explorer ses applications en R&D ou commerciales. Cet apprentissage précoce fera la différence au moment de l’adoption massive de cette nouvelle technologie. Or, on le sait, être le premier à déployer une innovation de rupture digitale représente un avantage concurrentiel déterminant.

Google et Intel ont organisé des communautés, déployé des outils, des simulateurs et d’autres services sur le cloud. En s’appuyant sur cet écosystème, les entreprises devraient faire émerger des systèmes hybrides qui combinent l’approche traditionnelle et l’approche quantique. D’ores et déjà, l’exploitation d’algorithmes quantiques est possible. Les industries chimique et pharmaceutique mènent les premières expérimentations de modélisation en se servant de la vitesse de simulation quantique. On estime que les découvertes de médicaments pourraient augmenter de 5 % à 10 % et que les délais de développement seraient raccourcis de près de 20 %. Autre champ investi par l’informatique quantique, les applications du machine learning. En effet, la puissance des calculateurs débloque la création de valeur des données issues de l’inépuisable sphère de l’Internet des objets.

Si votre entreprise opère une gestion intensive de données ou si son activité implique des modélisations complexes, vous avez tout intérêt à vous y préparer aujourd’hui. Même si nous n’en sommes qu’aux prémices de l’ère de l’informatique quantique, les progrès techniques, nous l’avons vu, s’accélèrent et apporteront rapidement un avantage concurrentiel. Le groupe chimique BASF, le constructeur automobile Volkswagen ou encore l’aéronauticien Airbus mobilisent des ressources pour développer leur expertise quantique. Des éditeurs comme QxBranch, QCWare ou 1Qbit travaillent sur des applications quantiques. Ces entreprises pionnières commencent ainsi à créer leurs propres écosystèmes en y intégrant des centres de recherche comme celui du MIT. Certaines initiatives vont déjà assez loin et concrétisent le potentiel de l’informatique quantique. IBM a ainsi réussi à modéliser, avec précision, la plus grande molécule connue à ce jour. Enfin, au sein des industries intéressées par cette nouvelle révolution technologique, les départements de R&D doivent rester en veille et repérer les avancées techniques de près. Les entreprises doivent également encourager la montée en compétences de leurs data scientists. Dans une économie de la connaissance marquée par des vagues d’innovation rapprochées, il faut se tenir prêt à exploiter le formidable potentiel de l’informatique quantique.  

Antoine Gourévitch, directeur associé senior BCG

Pour tous les DAF, DSI... dont l’entreprise ne serait pas encore complètement conforme avec le RGPD, cet ouvrage présente une méthode, des outils et des exemples sur le sujet. L’ouvrage décrit comment mettre en place un système opérationnel de management des données à caractère personnel, notamment les mesures de sécurité techniques et organisationnelles. Le contrôle de la CNIL ainsi que les sanctions applicables en cas de violation du règlement font l’objet de chapitres dédiés.

Dominique Renaud, Jacques Foucault, Loïc Panhaleux et Pierre Begasse, éditions ENI, 160 pages, 45 €

Pour la quatrième année consécutive, ce guide dresse un panorama des tendances technologiques en informatique. Destiné aux professionnels, DSI, chefs de projets..., il couvre la totalité des domaines IT au travers de 120 chapitres. Cette édition zoome en particulier sur la 5G, l’IoT, la fédération des identités, la sécurité, l’Edge Computing, la virtualisation des réseaux, les micro-services et Java 9, et enfin la migration en cours vers le cloud et l’hybride.

Ouvrage collectif dirigé par Claude Marson, Éditions CMC, 500 pages, 270 €

La conception et la gestion des villes sont aujourd’hui confrontées, comme de nombreuses autres activités, au remplacement de décisions humaines par des décisions algorithmiques, un enjeu industriel, économique ... mais aussi, politique. Ces villes-services numérisées, proposées notamment par les GAFA et les milliers de start-up qui gravitent autour, promettent à la fois un « salut par la technologie » et un Big Brother. Les citoyens oscillent entre les deux. L’auteur donne des pistes d’avenir à conquérir, illustrées par des expériences de démocraties locales.

Jean Haëntjens, Editions Rue de l’échiquier, 160 pages, 15 €

Cet ouvrage est avant tout destiné aux DSI, mais intéressera également les dirigeants et, plus largement, tous les utilisateurs impliqués dans un projet d’outsourcing. Ces projets impactent la flexibilité et la qualité de service, réduisent les risques et simplifient la gestion quotidienne, mais demeurent souvent complexes à mettre en œuvre. À partir d’exemples concrets, l’auteur décrit les bonnes pratiques, les outils adéquats et les erreurs à éviter.

Pierre-Jean Esbelin, Éditions Gereso, 221 pages, 25 €

Accessible à tous, en dehors de quelques passages techniques, cet ouvrage décrit d’abord les domaines d’applications de l’intelligence artificielle, les différents types de données et leur utilisation. Il détaille ensuite les processus cognitifs et, par extension, précise ce qu’est le ≪Cognitive Business ≫. Un chapitre est consacré à la transformation digitale des entreprises. L’auteur illustre son propos par des exemples concrets de cette digitalisation. La conclusion évoque des scénarios futuristes de l’intelligence artificielle.

 

Jean-Michel Rodriguez, Éditions ENI, 344 pages, 45 €

Depuis ses débuts dans l’aéronautique, avec ses systèmes embarqués et temps réel, jusqu’à son rôle de DSI actuel chez le spécialiste de l’assurance-crédit, Michel Grot a toujours poursuivi la même quête : comprendre les exigences du client – et aujourd’hui les métiers – pour les satisfaire par le biais de la technologie.

Sorti de l’ISEP en 1989, Michel Grot a commencé sa carrière dans l’aéronautique par une filiale de Thomson qui réalisait des radars et des systèmes de télécommunications critiques. « Une école où le niveau d’exigence sur la qualité du logiciel produit a toujours été élevé », retient-il de ces années. Après près d’une décennie dans ce secteur, et un glissement progressif – fait avec plaisir ! – vers des fonctions de management de projet, il franchit les portes d’Atos. Il y restera au total onze ans.

« J’ai d’abord travaillé sur des logiciels réseaux, au niveau des couches OSI, dans la lignée de mes connaissances en embarqué. Mais progressivement, je me suis intéressé à l’informatique de gestion, en menant des projets dans des environnements Java, JEE ou SAP, entre autres », décrit-il. Parallèlement, la taille des équipes encadrées augmente. Michel Grot acquiert une stature de directeur de projet qui va l’amener, lorsqu’il rejoint IBM, à se voir notamment confier des missions d’intervention « en pompier » (en anglais recovery of trouble project), sur des situations complexes : en clientèle avec des projets à l’arrêt ou presque. Le libellé du poste comprend l’objectif de « delivery excellence », ce qui va s’avérer quasi prémonitoire. Car ce positionnement, qui l’engage au moins autant sur des problématiques relationnelles et économiques que technologiques, est usant. « De plus, il n’est pas toujours couronné de succès », reconnaît le directeur de projet qui rêve alors de passer de l’autre côté : celui d’une DSI où il pourrait « travailler sur du long terme, et voir les effets positifs d’efforts d’organisation ou de qualité, ce que ne permet pas la position ponctuelle d’intervenant extérieur ».

Continuous Delivery, une étape naturelle

Le rubicond est franchi d’abord chez Axa, alors en pleine réinvention digitale. Il consacre trois années à peaufiner notamment la stratégie cloud de l’assureur et à mettre en place les premières briques d’une stratégie Continuous Delivery qui commence à dire son nom. Au menu notamment, la rationalisation du provisionnement des plateformes pour le développement comme pour le test, en mode PaaS.

C’est aujourd’hui à la Coface, où il est arrivé fin 2016 comme DSI adjoint avant de prendre la DSI Groupe à l’été 2017, qu’il poursuit sa quête de satisfaction des exigences. « Ma nomination est intervenue dans un double cadre. À la fois celui d’une affirmation de la transformation digitale pour l’entreprise par la nouvelle direction, et aussi en prévision du départ à la retraite de mon prédécesseur dans le poste », explique notre homme. Une intégration en douceur donc, qui lui a laissé le temps de prendre la mesure d’une DSI qui compte pas moins de 450 personnes (internes et externes) sur environ 4 500 collaborateurs à la Coface, avec un ratio qui n’est pas sans évoquer celui rencontré dans les banques.

« Nous avons d’ailleurs une informatique legacy, sur laquelle il nous faut évoluer pour continuer de produire un service de qualité, mais aussi beaucoup d’attentes de la part des métiers, pour une approche renouvelée de la gestion de leurs besoins ou, si l’on préfère, de leurs exigences », souligne Michel Grot. Rendez-vous est donc pris avec les clients internes. La première étape, déjà en cours, consiste à fusionner les équipes informatiques et la direction de l’organisation sous une même bannière. « C’est un moyen d’affirmer que la DSI est apporteuse à la fois de réponses techniques et de solutions organisationnelles aux besoins de réduction des coûts et d’agilité de l’ensemble de l’entreprise », conclut Michel Grot.

FRANÇOIS JEANNE

Arnaud Vandesmet est promu directeur protection des données de Ramsay Générale de Sante. Âgé de 44 ans, il a débuté à la Générale de santé en 2010 en tant que DSI pour la région Nord-Normandie- Bretagne. Il a ensuite occupé des postes similaires jusqu'à devenir, en 2016, directeur du département Projets et Méthodes de la direction des systèmes d'information.

Dan Lousqui est nommé directeur de la sécurité informatique de Seald. Après une formation d’ingénieur réseaux et télécommunications a l’INP de Grenoble, il entre en 2012 chez CGI comme consultant.

Page 1 sur 490

ABONNEMENT NEWSLETTER

LE MAGAZINE IT FOR BUSINESS

Découvrir

Créer votre compte

S'abonner


Pour toute question, merci de nous contacter

NOUS SUIVRE

AGENDA

Aucun événement