La montée en puissance de l’IA explicable devrait fortement réorienter les investissements autour de l’IA générative dans les deux prochaines années. Le cabinet Gartner prévoit qu’en 2028, les investissements dans l’observabilité des grands modèles de langage (LLM) représenteront 50% des déploiements GenAI, contre 15% aujourd’hui.

Gartner définit l’IA explicable comme un ensemble de capacités permettant de décrire un modèle, d’en faire ressortir les forces et les faiblesses, d’anticiper son comportement et d’identifier ses biais potentiels. L’enjeu est d’éclairer le fonctionnement du modèle pour renforcer l’exactitude, l’équité, la responsabilité, la stabilité et la transparence des décisions algorithmiques.

Dans le même temps, les solutions d’observabilité des LLM sont appelées à prendre plus de poids dans les architectures GenAI. Gartner explique qu’elles ne se limitent pas aux métriques IT classiques comme le temps de réponse, mais suivent aussi des indicateurs propres aux modèles, tels que les hallucinations, les biais ou l’usage des tokens. Ces outils sont déjà utilisés par les équipes qui développent et industrialisent les systèmes d’IA, ainsi que, de plus en plus, par les équipes d’exploitation ou chargées de leur performance en production.

« À mesure que les entreprises déploient l’IA générale à grande échelle, les exigences en matière de confiance augmentent plus vite que la technologie elle-même », déclare Pankaj Prasad, analyste principal chez Gartner. « L’IA explicable permet de comprendre pourquoi un modèle a réagi d’une certaine manière, tandis que l’observabilité LLM valide la manière dont cette réponse a été générée et sa fiabilité. »

Cette évolution s’inscrit dans un marché en forte expansion. Gartner anticipe que le marché mondial des modèles d’IA générative dépassera 25 milliards de dollars dès 2026, avant d’atteindre 75 milliards de dollars en 2029. À mesure que les déploiements se multiplient, le besoin d’outils capables d’apporter davantage de transparence sur les réponses générées par les modèles et sur les facteurs qui les influencent devrait donc s’intensifier.

« Sans des fondements solides en matière d’IA explicable et d’observabilité, les initiatives d’IA générale se limiteront à des tâches internes, non critiques ou à faible risque, où la vérification des résultats est facile à gérer ou sans conséquence, ce qui limitera considérablement le retour sur investissement potentiel », souligne Pankaj Prasad.