Mistral Ai a dévoilé lundi Mistral Large, le plus avancé de ses grands modèles de langage (LLM). Après avoir gagné un succès d’estime avec ses modèles légers open source Mistral 7B et Mixtral 8x7B, la licorne française veut cette fois rivaliser plus frontalement avec les grands modèles d’OpenAI et autres ténors du marché. D’après les premiers benchmarks qu’elle a publiés pour mettre en exergue ses capacités de raisonnement, Mistral Large semble se approcher les performances de GPT-4 d’Open AI et devancer Claude 2 d’Anthropic AI ou encore Gemini Pro de Google.

Mistral décrit le nouveau modèle comme pouvant « être utilisé pour des tâches de raisonnement multilingue complexes, en particulier en compréhension et en transformation de texte, ainsi qu’en génération de code ». Il prend en charge des fenêtres contextuelles de 32 000 tokens et maitrise 5 langues : le français, l’anglais, l’espagnol, l’allemand et l’italien.

Pour accélérer la mise sur le marché, Mistral AI a conclu un partenariat stratégique pluriannuel avec Microsoft afin de mettre ses modèles à disposition des clients sur Azure. Ils intègrent ainsi le catalogue de modèles en tant que service Azure AI Studio. Dans le cadre de l’accord, le géant américain prend une participation minoritaire dans Mistral AI, dont le niveau n’a pas été divulgué.

« Grâce à l’infrastructure d’IA de pointe d’Azure, nous franchissons une nouvelle étape dans notre expansion, propulsant nos recherches innovantes et nos applications pratiques vers de nouveaux clients partout dans le monde », déclare Arthur Mensch, le PDG de Mistral AI dans un communiqué.

Mistral AI lance parallèlement Mistral Small, « un nouveau modèle optimisé qui surpasse et a une latence plus faible que Mixtral 8x7B ». Il se positionne ainsi en offre intermédiaire et plus abordable que Mistral Large.

L’entreprise française lance enfin en béta « Le Chat », un service d’assistant conversationnel à la ChatGPT, qui permet d’interagir avec ses modèles et qui sera également décliné dans une version dédiée aux entreprise.