Après avoir dévoilé Gemini 1.5, la dernière version de son grand modèle de langage (LLM) multimodal, Google agrandit la famille de ses modèles d’IA générative avec Gemma, une nouvelle génération de modèles présentés comme étant légers et ouverts. Les premières variantes sont déclinées en deux tailles : Gemma 2B et Gemma 7B, soit avec 2 et 7 milliards de paramètres.

Ces modèles plus légers sont conçus pour fonctionner sur tous les environnements, du cloud au poste de travail, même sur des PC portables. Google entend ainsi démocratiser leur usage et leur appropriation par les développeurs d’applications d’IA. Ils sont d’ailleurs fournis avec, ou optimisés pour les outils qui permettront aux développeurs d’affiner les modèles.

Bien qu’ouverts, les modèles Gemma ne sont pas des modèles open source, dont le code source serait publié. Ce sont toutefois des modèles avec des variantes pré-entrainées que les entreprises et les particuliers pourront utiliser en local avec leurs propres données. Ils sont aussi accessibles via la plateforme de modèles Vertex AI de Google et peuvent être exécutés sur l’environnement de déploiement d’applications containerisées Google Kubernetes Engine (GKE).

Les modèles Gemma reprennent une partie des briques technologiques de Gemini. S’ils ne sont pas multimodaux, Google présente des benchmarks de Gemma 7B, qui le comparent avantageusement aux modèles Llama-2 7B, et même 13B de Meta, sur des tests de raisonnement, de mathématiques ou de code.

Comme sur les LLM, la concurrence s’annonce rude cette année sur ces modèles légers et les modèles Gemma vont devoir convaincre face à des rivaux, comme Mistral 7B du français Mistral AI ou encore le nouveau modèle Phi-2 à 2,7 milliards de paramètres de Microsoft.