Les technologies du big data sont disponibles, il n’y a qu’à les utiliser. Tel est le message simple que souhaite faire passer Microsoft en rappelant qu’il est un acteur très actif dans ce domaine.


« Bienvenue dans l’océan numérique et les objets connectés qui permettent de collecter les données et alimenter ainsi le cloud ». C’est ainsi que Bernard Ourghanlian, directeur technique et sécurité de Microsoft France, introduisait cette présentation sur le big data. Le big data transforme toutes les activités humaines et en particulier la recherche scientifique en la dotant d’un outil puissant qui change la manière d’aborder les problèmes.

Fort de ces nouvelles technologies, les activités de recherche entrent dans une quatrième phase qualifiée par Jim Gray de « centrée sur la donnée » grâce à la révolution du big data (The Fourth Paradigm). Une nouvelle étape qui n’est pas sans poser de problèmes, notamment la relation entre corrélation et causalité et les interprétations que l’on peut tirer de certaines observations. Le directeur de la recherche de Microsoft France cite l’exemple un peu trivial de la corrélation entre le nombre de fautes d’orthographe commises et la pointure des chaussures.

En conclure qu’avoir des grands pieds est une garantie pour faire moins de fautes est évidemment absurde. L’explication est autre et toute simple : les adultes, qui ont en moyenne des pieds plus grands que les enfants, font moins en général moins de fautes. « Mais finalement d’un point de vue pratique, est-ce si grave que l’on sache pas expliquer un phénomène », questionne Bernard Ourghanlian.

Dans le domaine des entreprises, le big data commence à avoir un impact important. IDC a publié récemment une étude sur la différence d’impact entre ce qu’il appelle l’usage standard et l’usage avancées des données. Avec comme conclusion – assez prévisible – que les entreprises qui mettent en pratique des usages avancés ont de meilleurs résultats que les autres. IDC définit les usages avancées grâce à plusieurs critères : utilisation de données variées (réseaux sociaux, capteurs…), de nouvelles approches (outils, méthodes…), pour de nouveaux destinataires et au bon moment.

Le cabinet s’aventure sur un terrain plus glissant en allant jusqu’à chiffrer la création de valeur par l’utilisation des big data : pas moins de 54 milliards en France sur les quatre années à venir. Si l’on ne peut qu’être très circonspect sur des tels résultats, on constate que cette création de valeur touche en priorité les fonctions centrales des entreprises et la réduction des coûts.

Améliorer l’addiction au jeu ou l’efficacité énergétique


Cette utilisation du big data peut être très diversifiée. Témoin, ces deux exemples très différents : l’utilisation des données pour améliorer les jeux que développe la société adictiz et celle par GDF-Suez pour optimiser l’efficacité énergétique des bâtiments. Quoi de plus simple en apparence qu’un jeu comme Paf le chien ? Et pourtant, insiste Alexis de Charentenay, directeur marketing d’adictiz créateur du jeu qui revendique 1 million de joueurs par jour, « les données que nous collectons en permanence nous servent à poursuivre nos objectifs principaux : acquérir de nouveaux joueurs, les fidéliser et les faire passer au stade payant ».

Avec la plate-forme Vertuoz, GDF-Suez poursuit une démarche plus traditionnelle consistant à optimiser l’efficacité énergétique des bâtiments. La société collecte et analyse les données issues de plus de 45 000 bâtiments. Elle valorise ces données en proposant des services à ses clients : comparaison par rapport au parc, faire de la prévision sur la consommation en fonction de données extérieurs, fournir des informations permettant d’améliorer l’efficacité énergétique des bâtiments.

« On est entré dans le big data pour trois raisons, explique Thierry Bouzignues, responsable de la plate-forme Vertuoz: le volume des données traitées, les algorithmes (dont ceux utilisés  dans d’autres disciplines comme la biochimie, ou la finance) et optimisation de l’existant ».

Pour preuve de cet implication dans le développement de ces technologies, Microsoft rappelle les annonces faites ces trois derniers mois dans la BI et le big data, la frontière entre les deux domaines étant plus que ténu : Power bI qui introduit le langage naturel dans les outils de bureautique traditionnel, la version SQL Server 2014 qui incorpore la technologie In-memory, la disponibilité d’hadoop 2.2 dans Azure, l’intégration de SQL Server et hadoop grâce à la plate-forme Analytics Platform Systems et enfin la disponibilité d’Azure Intelligent System Service (AISS) destiné à faciliter l’accès à l’Internet des objets.

Mais Microsoft se veut aussi aux avant-postes de la recherche dans ce domaine du big data. En France, l’éditeur vient de signer pour la troisième fois un partenariat avec Inria dont un des chercheurs illustrait un des voies d’utilisation de cette technologie pour mieux comprendre les phénomènes génétiques. « On ne connait pas le chemin qui fait passer du fonctionnement des neurones à l’explication de la pensée humaine, commente Gaël Varoquaux, chercheur au laboratoire de Neuro-imagerie du laboratoire de recherche. Cet exemple illustre bien cette démarche du big data. Faute d’avoir la capacité à décrire et comprendre un phénomène, les chercheurs observe les réactions à des stimuli sur le fonctionnement du cerveau par le biais des images d’IRM fonctionnelle. Avec comme ambition de répondre à des questions du type : Y a-t-il des facteurs génétiques dans le phénomène de l’addiction ?

« Nous en sommes au tout tout début, conclut Bernard Ourghanlian, et ce sujet devrait alimenter la science et l’innovation pour les 20 années à venir ». Le concept de machine learning, qui devrait surmonter les désillusions généré par l’intelligence artificielle, est considéré comme plus prometteur. « En tous cas, dans les années, il sera incorporé à tous nos produits ».

Egalement sur InformatiqueNews :

Vers une nouvelle bulle Internet ?

Les MVNO ne sont plus rentables