La startup espagnole Multiverse Computing a bouclé une levée de 189 M€ en série B pour poursuivre le développement de sa technologie de compression de modèles d’IA. Le tour de table à été conduit par le fonds d’investissement Bullhound Capital avec la participation d’investisseurs internationaux tels que HP Ventures, SETT, Forgepoint, CDP VC, Santander Climate VC ou encore Toshiba. Après 25 M€ en série A en mars dernier, cela porte le total des fonds levés à plus de 220 M€ ou 250 M$.
Fondée en 2019 et basée à Saint-Sebastien, la société a mis au point une technologie de compression des grands modèles de langage (LLM). Baptisée CompactifAI, elle suit une approche inspirée de la physique quantique et vise à simplifier le fonctionnement des réseaux de neurones.
« Nous sommes capables de profiler le fonctionnement interne d’un réseau de neurones afin d’éliminer des milliards de corrélations parasites et d’optimiser véritablement toutes sortes de modèles d’IA », explique dans un communiqué Román Orús, directeur scientifique de Multiverse.
Selon Multiverse Computing, sa technologie est capable de réduire jusqu’à 95% la taille des modèles, avec une exécution 4 à 12 fois plus rapides et avec des coûts d’inférence pouvant être réduits de 50% à 80%. Le tout avec une perte de précision maitrisée de seulement quelque pour-cent.
La société propose déjà des versions compressées de plusieurs LLM open source de Meta (Llama 4 Scout, Flamme 3.3 70B, Lama 3.1 8B), Mistral AI (Mistral Small 3.1) et DeepSeek (R1). Ils sont commercialisés via AWS ou par licence sur site. La société revendique une centaine de clients dont Iberdrola, Bosch et la Banque du Canada. Avec cette importante levée de fonds, elle a l’ambition d’accélérer l’adoption des LLM, espérant prendre sa part du gâteau sur un marché de l’inférence évalué à plus de cent milliard de dollars.