Mistral AI a dévoilé lundi Magistral, son premier modèle de raisonnement. La startup française le présente comme un modèle « optimisé pour la logique en plusieurs étapes, améliorant l’interprétabilité et fournissant un processus de pensée traçable dans la langue de l’utilisateur ». C’est sa réponse aux modèles déjà lancés par ses concurrents, tels que les « o-series » d’OpenAI, Gemini 2.0 Thinking Experimental de Google, Claude Sonnet 3.7 d’Anthropic ou encore R1 du chinois Deepseek.
Magistral se veut polyvalent dans ses usages (recherche juridique, prévisions financières, développement logiciel, écriture créative), d’autant que l’explicabilité et le caractère traçable de ses raisonnements le rend adapté aux exigences des secteurs réglementés. Il l’est aussi par le nombre de langues supportées, notamment l’anglais, le français, l’espagnol, l’allemand, l’italien, le russe et le chinois simplifié.
Le nouveau modèle est décliné en deux variantes. Magistral Small est une version open source de 24 milliards de paramètres. Disponible sous licence Apache 2.0, elle peut être téléchargée depuis huggingface. Magistral Medium est une version d’entreprise plus puissante. Elle peut être testée depuis l’interface conversationnelle « Le Chat » (voir illustration) ou pour les développeurs, via l’API de « La Plateforme ».
Même si les modèles à raisonnement fonctionnent plus lentement que les modèles traditionnels, Mistral AI promet des réponses particulièrement rapides depuis Le Chat avec « un débit de jetons jusqu’à 10 fois supérieur à celui de la plupart de ses concurrents ».