Beaucoup d’espoirs reposent sur Mistral AI, la startup d’intelligence artificielle lancée en avril dernier par Arthur Mensch, Guillaume Lample et Timothée Lacroix, anciens de Google et Meta. Après avoir levé 105 millions d’euros en amorçage un mois seulement après sa création, elle est déterminée à vite faire ses preuves et dévoile en avance sur sa feuille de route son premier large modèle de langage (LMM).

Baptisé Mistral 7B, en référence à ses 7,3 milliards de paramètres, il est présenté comme « un modèle petit et puissant ». Son ambition n’est pas de concurrencer les modèles généralistes aux centaines de milliards de paramètres comme ceux d’OpenAI ou Google mais de parvenir à des modèles les plus puissants pour leur taille. Ce qui est aussi synonyme d’infrastructures moins gourmandes en calcul et moins onéreuses à exploiter.

Mistral AI se positionne en prônant une approche ouverte de l’IA générative. « Nous sommes convaincus qu’en formant nos propres modèles, en les publiant ouvertement et en favorisant les contributions de la communauté, nous pouvons construire une alternative crédible à l’oligopole émergent de l’IA », fait-elle valoir sur son blog. La startup s’engage donc à publier ses modèles et ses outils sous licences open source. Mistral 7B est proposé sous licence Apache 2.0, le rendant utilisable partout sans restriction.

Face à la concurrence, il se rapproche le plus de la famille de modèles Llama de Meta, eux aussi open source et c’est donc face à eux que Mistral AI a fait tourner ses benchmarks. Selon les résultats de la startup Mistral 7B « surpasse tous les modèles ouverts actuellement disponibles jusqu’à 13B de paramètres sur tous les tests de référence standard en anglais et en code ». Le modèle a aussi été affiné pour le chat (Mistral 7B Instruct) parvenant là encore à égaler les modèles 13B concurrents.

De premiers résultats prometteurs que Mistral AI devra confirmer sur des modèles beaucoup plus grands sur lesquels elle dit déjà travailler. Il lui faut en même temps parvenir à fédérer une communauté solide autour de son projet et poser les fondations d’une offre commerciale. « Nous travaillons activement sur des solutions hébergées et un déploiement dédié pour les entreprises », précise la startup qui promet « des modèles propriétaires optimisés pour le déploiement sur site et cloud privé » et « distribués sous forme de solutions boîte blanche ».