La licorne française Mistral AI a lancé le 24 juillet son nouveau modèle d’intelligence artificielle générative Mistral Large 2 (ML2). Succédant à Mistral Large, lancé en février dernier, il franchit un nouveau pallier en termes de performances et montre les efforts de Mistral pour rester dans la course sur les modèles de fondation les plus performants.
Mistral Large 2 est un modèle de 123 milliards de paramètres et disposant d’une fenêtre contextuelle de 128 000 jetons, contre 32 000 pour son prédécesseur. Il prend en charge plusieurs dizaines de langues, dont le français, l’allemand, l’espagnol, l’italien, le portugais, l’arabe, l’hindi, le russe, le chinois, le japonais et le coréen, ainsi que plus de 80 langages de codage, dont Python, Java, C, C++, JavaScript et Bash.
Le lancement intervient au lendemain de celui Llama 3.1 de Meta, qui avec ses 405 milliards de paramètres devient le plus vaste modèle LMM en open source du marché. Avec des moyens bien plus limités que les géants américains, Mistral met l’accent sur l’efficience et considère que les caractéristiques de son dernier LMM apportent une réponse largement suffisante (« large enough ») sur ce point. Plus compact, il a aussi l’avantage de pouvoir fonctionner sur un seul nœud [GPU Nvidia H100] à l’inférence.
Les premiers benchmarks sont prometteurs avec des performances qui se rapprochent dans plusieurs tests du modèle phare d’OpenAI (GPT-4o). Selon son concepteur, Mistral Large 2 excelle tout particulièrement dans les tests de code et raisonnement où il fait quasi jeu égal avec GPT-4o, Claude 3 Opus et Llama 3 405B.
Le modèle a par ailleurs été affiné pour minimiser les hallucinations et reconnaitre clairement lorsqu’il n’a pas les informations pour répondre ou apporter une solution. Ses capacités de suivi des instructions et de conversation ont également été améliorées pour assurer des échanges qui conservent leur pertinence au fil des interactions et sans verbiage. Ses capacités multilingues sont un autre point différenciant.
Le modèle est disponible via « La Plateforme » de Mistral mais aussi sur les plateformes Vertex AI de Google Cloud, Azure AI Studio de Microsoft, Bedrock d’Amazon et watsonx.ai d’IBM. Il est aussi accessible via l’interface conversationnelle « Le Chat ». Sa tarification (2,7€ pour 1M jetons en entrée et 8,2€ pour un 1M jetons en sortie) est moins élevée que celle de ses concurrents. À noter que le LLM est disponible sous forme commerciale et sous forme ouverte mais limitée aux usages de recherche IA non commerciaux (licence Mistral Research).