Les entreprises continuent de sur-provisionner leurs ressources cloud, notamment leurs clusters Kubernetes, selon une étude annuelle effectuée sur 4.000 clusters par l’entreprise d’optimisation du cloud Cast AI. Ainsi, dans les clusters de 50 CPU et plus, seuls 13% des processeurs et 20% de la mémoire seraient utilisés en moyenne.

Quelques raisons sont évoquées : d’une part, les équipes DevOps souhaitent éviter de manquer de mémoire et d’avoir recours à des instances ponctuelles, d’autre part, il est difficile de savoir à l’avance la quantité de ressources nécessaires.

Cast AI estime que le pourcentage de mémoire inutilisée est pratiquement le même sur les trois plus grandes plateformes de cloud que sont AWS, Azure et Google Cloud. Quant à l’utilisation de CPU, elle varie de 11% en moyenne avec des clusters sur AWS et Azure, à 17% sur ceux de Google Cloud.

« Google Kubernetes Engine (GKE) donne accès à des instances personnalisées qui permettent un ratio CPU/mémoire plus précis que les deux autres clouds », remarque l’étude.

Dans le cadre de grands déploiements, c’est-à-dire de ‘mega-clusters’ de 30.000 CPU et plus (moins de 1% du panel représentatif), les ressources sont bien mieux optimisées – à 44% – constate Cast. L’équipe de recherche attribue cette différence au fait qu’une plus grande équipe IT est mieux à même d’accorder de l’attention à la gestion des ressources cloud.

« Les entreprises qui exécutent des applications sur Kubernetes n’en sont encore qu’aux prémices de leur parcours d’optimisation et restent aux prises avec la complexité de la gestion manuelle de leur infrastructure cloud », commente dans un communiqué, Laurent Gil, cofondateur et chef de produit de Cast AI, qui espère bien évidemment que les entreprises feront appel à ses services.