La santé des entreprises dépend de plus en plus de la qualité de leurs données. Et elles sont de plus en plus nombreuses à se pencher sur le phénomène du big data, considéré comme le pétrole du xxie siècle. Certaines voient même dans la donnée le graal inespéré pour sortir de la crise. Le big data entre toutefois dans des critères de volume, de variété et de vélocité (3V) bien précis et tellement importants (voire hors norme) qu’ils ne concernent finalement qu’une partie des projets d’exploitation de données. Les réflexions ont pourtant fait naître une multitude de projets d’analyse qui, sans pour autant être de type big data, ont beaucoup de valeur. Il est donc aujourd’hui nécessaire d’introduire un nouveau niveau d’analyse qui comprend toutes les autres données – quels que soient leurs volume, fréquence ou format – qui se situent entre les données décisionnelles et le big data, et que j’appelle l’over data. Il s’agirait de l’exploitation d’informations plus souterraines (small black data) pour analyser, par exemple, les processus de production et de sécurité via l’activité des systèmes embarqués tels que les badgeuses, les centres d’appels et les solutions domotiques. Cela pourrait également porter sur la gestion des ressources humaines ou encore sur l’activité Web comme l’analyse d’une page fan, les citations sur les réseaux sociaux, les visites sur un site Internet B to B, le positionnement d’une application sur l’App Store, etc.

Parmi les cas d’usage les plus célèbres, on retiendra l’exemple de Google avec la mise en place de son projet Google M&Ms. Soucieuse de la santé de ses salariés, l’entreprise a rassemblé des données telles que les distances parcourues ou les aliments consommés à la cantine pour mettre en place des solutions visant à freiner la consommation excessive de M&Ms au bureau. Ou encore, l’initiative d’un constructeur automobile qui a analysé le trajet réalisé et les démarches effectuées par le salarié depuis l’entrée du site jusqu’à la chaîne de production pour optimiser l’arrivée de ressources temporaires en cas d’absence ou de retard d’un ouvrier. Le champ des possibles est donc infini. Il nécessite toutefois des compétences techniques distinctes. L’approche est certes moins orientée vers l’enjeu de volume – et donc vers les technologies de rupture de type Hadoop – mais la capacité à collecter cette « over » donnée où elle se trouve, à garantir sa qualité et à savoir l’injecter dans des outils opérationnels de l’entreprise, demande un travail complexe et minutieux. Finalement, les méthodes projets sont assez proches de celles des big data, mais les technologies de récolte utilisées ressemblent davantage à celles de la business intelligence (tableaux de bord, bases relationnelles, voire tableaux Excel…). Un entre-deux qui devrait satisfaire, pour commencer, bon nombre d’acteurs, leur permettant ainsi de faire, en douceur, leurs premiers pas vers le big data.