Pierre Formosa
Directeur innovation, Umanis
 

Quand on parle de big data, il est intéressant de se poser la question de savoir ce que l’on entend par rapport à la façon dont l’entreprise exploite habituellement ses données, ses « small data ». Contrairement aux small data, le big data est une notion qui intègre aux données de l’entreprise des données générées à l’extérieur de l’entreprise à partir de sources hétérogènes (médias sociaux, capteurs, logs complexes, matériels mobiles, médias…). Le processus d’analyse de ce volume de données s’en trouve donc complexifié et les pratiques de la Business Intelligence (BI) doivent évoluer pour s’y adapter. Les grands éditeurs de la BI dite « traditionnelle » (bases de données, requêtage…) se sont tous lancés sur ce nouveau marché afin d’apporter chacun leur pierre à cet édifice, en développant notamment des solutions de type « appliances », à savoir des serveurs préconfigurés, prêts à l’emploi, dédiés à l’analyse de grands volumes de données.

On peut citer IBM (Netezza), Microsoft (Fast Track V3 et PDW2), Oracle (Exadata, Exalytics, et Exalogics), SAP (Sybase IQ et Hana) et les acteurs de niche tels que EMC (Greenplum), Actian, Kognitio, Vertica, qui se partagent le reste du marché.

Sur le principe, ces appliances offrent aux utilisateurs la puissance nécessaire pour se concentrer sur l’analyse et l’exploitation en temps réel des données sans être assujettis aux problématiques de performance. Plus besoin donc de se focaliser sur la construction des composants de cette analyse ! Finies les extractions partielles et formatées dans lesquelles les utilisateurs étaient nécessairement contraints. Et bienvenue à la « data discovery » ! Cette nouvelle approche permet à l’utilisateur métier d’exploiter les différents gisements d’informations disponibles, à l’intérieur comme à l’extérieur de l’entreprise, afin d’en extraire des « pépites d’informations » et de les visualiser sous forme de graphiques ou tableaux interactifs. Enfin de la valeur !

Si le problème de la performance semble réglé par les appliances, la réduction des coûts annoncée par tous les éditeurs reste toutefois encore à démontrer. En effet, le marché du big data ne dispose pas à ce jour d’un recul suffisant pour évaluer et anticiper réellement les impacts de ce type de projet au sein des entreprises. Les projets qui vont dans ce sens sont récents, et davantage vus comme des laboratoires sur la manière d’aborder la gestion, au sens large, du big data. En effet, l’évolution des infrastructures nécessaires engendre un investissement financier important, alors que la valeur dégagée par le big data est encore floue sur plusieurs plans, au premier desquels la data elle-même !

Avoir plus de données ne signifie pas avoir plus d’informations et, encore moins, plus d’informations à forte valeur ajoutée – capables par exemple d’influencer significativement le ROI ou le TCO de telles solutions. De fait, à l’heure où tout le monde se targue d’embrasser le big data, les chiffres avancés par certains sur les gains générés sont pour le moins étonnants et à coup sûr irréalistes ! Ce qui est certain en revanche, c’est que la rupture induite par le big data va favoriser l’émergence de nouveaux métiers et de nouveaux usages dans le traitement de la donnée et la consommation de l’information ! Rendez-vous dans 5 ans, à l’âge de la maturité, pour savoir si les promesses d’aujourd’hui seront tenues demain ! En attendant, le big data aura au moins permis de sensibiliser les entreprises à la nouvelle dimension de la donnée, en la replaçant au centre du processus décisionnel.