La technologie d’accélération des accès aux données de SAP amène au décisionnel accélération des traitements et simplification des architectures selon Charles Parat, directeur du pôle recherche et innovation de Micropole.


Une nouvelle corde à l’arc des utilisateurs de BI. C’est ainsi que Charles Parat, directeur du pôle recherche et innovation de Micropole (SSII qui a réalisé 120 M€ de CA en 2011), voit l’arrivée de Hana, l’appliance d’accélération des accès aux données de SAP. S’exprimant dans le cadre du BI Summit, organisé à Paris par l’éditeur allemand début juillet, le dirigeant explique : « Dans la BI, c’est une réponse à la pression sur les traitements en mode batch, pour lesquels les besoins en termes de performances sont en augmentation constante, et à l’attente de liberté exprimée par les utilisateurs. »

En effet, « monter » toutes les données en mémoire – la caractéristique majeure de Hana – débouche à la fois sur la suppression des agrégats de données aujourd’hui utilisés dans le décisionnel (datawarehouse, datamarts), d’où une plus grande flexibilité de la BI par la simplification de l’architecture, et sur une accélération des traitements. La lecture et l’écriture des données sur les disques durs étant, dans les systèmes actuels, le goulet d’étranglement handicapant les performances. « Sur le papier, passer du disque à la mémoire permet d’atteindre un facteur de gain de l’ordre du million », note Charles Parat.

En réalité, les gains de performances dans le requêtage atteignent des facteurs allant de 1 000 à 100 000 fois. « Et il ne faut pas perdre de vue que, pour l’instant, on ne tire pas encore pleinement parti des capacités logicielles de Hana. Il y a là un important facteur de progression pour les futures applications », analyse Charles Parat.

Hana + IQ : de nouvelles possibilités


« A noter que, via l’acquisition de Sybase, SAP possède une autre corde à son arc, avec le serveur de base de données décisionnel IQ, qui propose des facteurs de gain de l’ordre de la centaine de fois », ajoute-t-il. Les deux technologies peuvent d’ailleurs fonctionner de concert, IQ servant par exemple à stocker sur disque des données offrant une profondeur historique aux applications décisionnelles, tandis que Hana prend en charge les informations les plus fréquemment manipulées, donc les plus récentes.

« Cette accélération des traitements est la clef du succès de ce qu’on peut qualifier de Big Data interne, consistant à analyser de gros volumes de données peu variées », reprend le directeur du pôle recherche de Micropole. Une étape nécessaire avant de s’attaquer au « vrai » Big Data. Avant tout un enjeu business et non technologique, selon Charles Parat : « il faut commencer par appréhender quelles sont, sur le Web, les données qui ont de la valeur pour l’entreprise. L’enjeu du Big Data consiste à faire le tri entre le bruit et l’information pertinente. »

 

Egalement sur le MagIT :

Réseaux sociaux : Digg se vend pour 500 000 $ 

Tablettes, smarthpones : Microsoft reconnaît les défis qui l’attendent