L’analytique augmentée et l’intelligence artificielle, sont avec l’intelligence continue, les trois technologies qui vont bouleverser le secteur du traitement et de l’analyse des données au cours des trois à cinq prochaines années, explique Gartner dans un rapport publié en marge de son Data & Analytic Summit qui se déroule en ce moment à Sydney (une session européenne se déroulera à Londres du 4 au 6 mars).
Rita Sallam, vice-présidente de la recherche chez Gartner, estime que les responsables des données et de l’analyse devaient examiner l’impact commercial potentiel de ces tendances et ajuster les modèles commerciaux et les opérations en conséquence, sous peine pour leur entreprise de perdre son avantage concurrentiel. « L’histoire des données et des analyses évolue sans cesse, allant du soutien à la prise de décision interne à l’intelligence continue, aux produits d’information et à la nomination de responsables des données », explique-t-elle dans un communiqué. « Il est essentiel de mieux comprendre les tendances technologiques qui alimentent cette histoire en évolution et de les hiérarchiser en fonction de leur valeur commerciale. »
Pour Donald Freinberg, vice-président et analyste chez Gartner, la grande quantité de données, associée aux capacités de traitement de plus en plus puissantes activées par le cloud, permet de développer et d’exécuter des algorithmes à grande échelle, nécessaires pour exploiter pleinement le potentiel de l’intelligence artificielle. « La taille, la complexité, la nature distribuée des données, la rapidité d’action et l’intelligence permanente requise par le commerce numérique signifient que les architectures et les outils rigides et centralisés s’effondrent. La survie de toute entreprise dépendra d’une architecture agile, centrée sur les données, qui répond au degré de changement constant. »
Gartner recommande aux responsables des données et de l’analytique de discuter avec leurs supérieurs hiérarchiques de leurs priorités commerciales et d’expliquer comment celles-ci peuvent être atteintes grâce aux principales évolutions technologiques. Le cabinet en recense dix.
La principale d’entre elles est l‘analytique augmentée qui combine des techniques d’apprentissage automatique et d’intelligence artificielle pour transformer la manière dont le contenu analytique est développé, utilisé et partagé. « D’ici 2020, l’analyse augmentée constituera la principale motivation des achats d’outils d’analytique et de BI, de plateformes de science des données et de machine learning, et d’analytique intégrée. »
Autre tendance forte : la gestion des données augmentée. Celle-ci exploite les capacités de machine learning et les moteurs d’intelligence artificielle pour développer des catégories de gestion des informations, notamment la qualité des données, la gestion des métadonnées, la gestion des données maîtres, l’intégration de données ainsi que les systèmes de gestion de bases de données auto-configurables et auto-ajustables.
« Elle convertit les métadonnées utilisées jusqu’à ce jour pour l’audit, la traçabilité et la génération de rapports, en systèmes dynamiques. De passives, les métadonnées deviennent actives et le principal moteur de toutes les intelligences artificielles et de tous les systèmes de machine learning. »
Troisième tendance clé identifiée : l’intelligence continue. D’ici 2022, plus de la moitié des nouveaux systèmes d’entreprise majeurs intègreront une intelligence continue qui utilise des données de contexte en temps réel pour améliorer les décisions estime Gartner. L’intelligence continue est un concept dans lequel des analyses en temps réel sont intégrées à une opération commerciale, traitant des données actuelles et historiques pour prescrire des actions en réponse à des événements. Elle exploite plusieurs technologies telles que l’analyse augmentée, le traitement du flux d’événements, l’optimisation, la gestion des règles métier et le machine learning.
Gartner parie également beaucoup sur l’IA explicable, estimant que les modèles d’IA avancés sont des boîtes noires complexes qui ne peuvent expliquer pourquoi ils ont abouti à une recommandation ou à une décision spécifique. « Dans certains scénarios, les entreprises doivent justifier la manière dont ces modèles prennent leurs décisions. Pour créer un climat de confiance avec les utilisateurs et les parties prenantes, les responsables des applications doivent rendre ces modèles plus interprétables et explicables. » L’IA peut notamment générer automatiquement une explication des modèles en langage naturel.
Autre tendance montante ; l’analyse des données graphiques. « Les magasins de données graphiques peuvent modéliser, explorer et interroger des données avec des relations complexes entre les silos, mais le besoin de compétences spécialisées a limité leur adoption à ce jour », explique Gartner. Selon le cabinet, l’analyse des graphes augmentera au cours des prochaines années « en raison de la nécessité de poser des questions complexes sur des données complexes, ce qui n’est pas toujours pratique ni même possible à grande échelle à l’aide de requêtes SQL ».
Gartner identifie également comme tendances montantes la Data Fabric, le langage naturel et l’analyse conversationnelle, l’abandon de l’open source au profit de solutions commerciales pour les solutions d’IA et de machine learning, ainsi que les serveurs à mémoire persistante.
Ses analystes sont en revanche plus réservé sur la Blockchain. « Il faudra plusieurs années avant que quatre ou cinq technologies majeures de la blockchain deviennent dominantes. Jusqu’à ce que cela se produise, les utilisateurs finaux de technologies seront obligés de s’intégrer aux technologies et normes de la Blockchain dictée par leurs clients ou réseaux dominants. Cela inclut l’intégration avec votre infrastructure de données et d’analyse existante. Les coûts d’intégration peuvent compenser tout avantage potentiel. Les Blockchains sont une source de données, pas une base de données, et ne remplaceront pas les technologies de gestion de données existantes. »