Pour Donald Farmer, vice-président de QlikTech en charge de l’innovation, le buzz qui entoure le Big Data masque les vrais enjeux de la gestion de l’information : l’autonomie des utilisateurs et la flexibilité des solutions.


Désormais coté en bourse, Qliktech, éditeur spécialiste de BI, fondé en Suède en 1993 tenait la semaine dernière une conférence à Paris, réunissant clients et partenaires à la Mutualité. L’occasion de s’entretenir avec Donald Farmer, le très atypique vice-président en charge de l’innovation au sein de cet éditeur.

Considéré comme le père fondateur du Power Pivot de Microsoft, Donald Farmer a quitté le premier éditeur mondial pour rejoindre QlikTech en 2011. Il y affirme une vision originale de la gestion des données.

LeMagIT : Le marché aujourd’hui ne parle plus que de Big Data. Comment les entreprises doivent-elles aborder ce chantier ?

Donald Farmer : C’est vrai que le buzz autour des Big Data est considérable. Le marché aime parler de nouvelles tendances, des nouvelles technologies. Mais le Big Data reste avant tout un phénomène marketing. La plupart des entreprises ne gèrent déjà pas correctement leurs processus au quotidien, des problèmes simples très éloignés des analyses complexes que suppose le Big Data. La priorité réside dans la résolution de ces problèmes de tous les jours, pas dans le Big Data.

Ce constat ne signifie toutefois pas que le phénomène est sans intérêt pour les organisations. La piste la plus intéressante consiste à exploiter de nouvelles sources de données, la plupart du temps externes. Mais la réponse la plus courante à cette problématique – faire appel à un Data Scientist – me semble peu appropriée dans la plupart des cas. En quoi ce dernier pourrait-il aider les utilisateurs métier à améliorer leurs pratiques ? C’est pourquoi QlikTech prône une approche différente via la technologie QlikView Direct Discovery que nous venons d’annoncer. Cette dernière permet de connecter de très grands jeux de données, y compris venant de bases non SQL, à des applications existantes. L’enjeu ? Permettre aux utilisateurs métier d’explorer par eux mêmes ces nouvelles sources de données, sans avoir à écrire des requêtes dans un langage informatique. Par exemple, avec cette technologie, une organisation peut mettre en relation ses clients dans tel ou tel pays avec leurs flux Twitter.

LeMagIT : Plusieurs études soulignent pourtant la pénurie de profils de Data Scientist sur le marché. C’est selon vous une fausse piste ?

D.F. : Les Data Scientist sont utiles bien sûr, ils sont capables de comprendre des problèmes complexes sur de vastes volumes de données. Mais il faut simplement constater que la plupart des entreprises ont des problèmes bien plus simples à résoudre. Ce sont ces derniers qui devraient avoir la priorité.


LeMagIT : L’un de ces problèmes ne réside-t-il pas dans le remplacement d’Excel, qui reste de loin l’outil de manipulation de données le plus utilisé en entreprise ?

D.F. : La flexibilité et la puissance d’Excel sont indiscutables. Ce sont les atouts majeurs de cet outil… et aussi ses principales lacunes. Tout simplement parce que l’organisation dans son ensemble – et particulièrement sa DSI – ne sait pas ce que les utilisateurs font des données. C’est la raison pour laquelle nous avons enrichi la démarche de QlikView – qui vise également à donner un maximum de capacités aux utilisateurs – d’une couche de gouvernance, via le rachat en juin dernier d’Expressor Software. Ce dernier nous a apporté une couche sémantique qui permet à l’IT de garder le contrôle sur tous les documents QlikView et sur la manière dont les données sont utilisées, y compris si ces données proviennent d’autres sources externes à nos outils. L’arrivée de cette technologie a renforcé l’intérêt des DSI pour nos offres.


LeMagIT : QlikTech est un des pionniers du In-Memory, des analyses de données en mémoire vive. Aujourd’hui tous les grands fournisseurs, IBM, Oracle et SAP, ont adopté cette approche. Qu’est-ce qui fait encore votre différence ?

D.F. : QlikTech possède 19 ans d’expérience dans le domaine, notre moteur est hautement optimisé pour le fonctionnement en mémoire. Nous sommes toujours nettement devant en termes de technologies. Par exemple, Direct Discovery permet d’explorer des jeux de données externes, de les intégrer à des jeux de données gérés In-Memory, tout en tirant profit des optimisations techniques de notre moteur.


LeMagIT : Quelle réponse apportez-vous aux entreprises qui veulent déployer dans le Cloud ?

D.F. : Nous travaillons avec une cinquantaine de partenaires sur ce sujet. En large partie, nous complétons des offres transactionnelles (CRM, ERP…) en mode Cloud avec nos outils. Il s’agit donc d’équiper des entreprises dont les données transactionnelles sont déjà dans le Cloud. Or, en matière de BI, c’est bien cette question du transfert des données qui ralentit la transition vers le modèle Cloud. Place-t-on les données dans le Cloud ? Seulement les résultats ? Il y a là à la fois des problèmes technologiques et de confiance. Nos laboratoires de Londres, spécialisés sur la recherche fondamentale et les sujets de fond, travaillent beaucoup sur ces questions.


LeMagIT : Dans votre esprit, à quoi ressemblerait la solution BI idéale ?

D.F. : Cette solution aiderait les utilisateurs métier à résoudre les questions qu’ils se posent aujourd’hui, mais surtout à résoudre celles qu’ils se poseront demain. La flexibilité est donc essentielle, afin d’accompagner la croissance des activités de l’organisation mais aussi afin de répondre à des questions que les utilisateurs ne sont même pas capables de se poser au moment où ils achètent la solution. On en est loin. Aujourd’hui, un projet de datawarehouse prend en moyenne une année, période au cours de laquelle le cabinet Gartner estime que 40 % des besoins de l’organisation sont modifiés.

 

Egalement sur le MagIT :

Facebook rassure enfin les investisseurs

Résultats : pas de crise pour ARM, CA en hausse de 20% au T3