OVHcloud fait évoluer ses infrastructures pour répondre à la demande croissante de charges de travail IA et mieux rivaliser avec les hyperscalers américains. Quelques jours après qu’Iliad ait annoncé l’acquisition d’un supercalculateur de Nvidia, la société roubaisienne annonce à son tour investir pour intégrer à son portefeuille les dernières gammes de GPU Nvidia. Aux Nvidia V100 et V100S d’ancienne génération viendront ainsi s’ajouter  les H100, A100, L40S et L4.

Immédiatement disponibles, les Nvidia A100 appuient de nouvelles instances cloud public, dédiées au calcul haute performance, à l’entrainement en apprentissage profond et l’inférence. La configuration de base, qui comprend 1x A100, 15 vCore et 180 Go de RAM, peut être doublée, triplée ou quadruplée, soit jusqu’à 4x A100, 60 vCore et 720 Go de RAM.

Arriveront pendant l’automne des instances sur base du très recherché H100 (architecture Hopper), encore plus puissant et qu’OVH positionne pour les modèles IA (LMM) les plus exigeants. La puissance de calcul par GPU atteint 26 petaFLOPS en PCIe. OVH proposera par la suite et sur devis personnalisé des solutions basées sur les NVIDIA H100 SXM avec une puissance de calcul atteignant 67 TFlops.

D’autres instances GPU seront basées sur les GPU d’architecture Ada Lovelace, également proposés sur des serveurs bare Metal. Polyvalent, le L4 avec 24 Go de mémoire se prête aussi bien aux charges de travail légères d’IA, au graphisme, à la vidéo, à l’analyses de données et à la simulation. Le nouveau L40S, avec ses 48 Go de mémoire, s’oriente plutôt vers l’inférence des petits modèles d’IA.

Les instances basées sur les Nvidia A100 sont facturées entre 2,75€/h (A100-180) et 11€/h (A100-720). Les instances L4 et L40S seront disponibles en octobre et les serveurs Bare Metal suivront cet automne. Les tarifs ne sont pas communiqués. OVHcloud lance par ailleurs les pré-réservations pour ses instances H100 PCIe.