À la conférence annuelle Linley Tech sur les processeurs qui se déroulait mercredi et jeudi derniers, au Hyatt Regency de  Santa Clara, le vice président de Microsoft, Kushagra Vaid, a déclaré que Microsoft étudiait de près des contrôleurs FPGA et la virtualisation des réseaux pour tenter de résoudre les problèmes de ses 15 datacenters qui gèrent désormais plus d’un million de serveurs.

Kushagra Vaid, qui est vice-président de l’ingénierie de serveurs chez Microsoft dans la division Cloud and Enterprise, est un ancien chercheur de chez Intel et un habitué de cette manifestation qui révèle, chaque année, les grandes tendances autour des microprocesseurs. Selon Vaid, Microsoft étudie la possibilité de mettre un FPGA dans chacun de ses serveurs dans ses 15 centres de données pour résoudre les problèmes de débits applicatifs.

Les FPGA (Field Programmable Gate Arrays ou « réseaux logiques programmables ») sont des composants très intégrés, des VLSI que l’on installe à proximité des processeurs ou sur des cartes « filles » afin d’accélérer les processus mais cela complexifie, en général, l’ensemble. Cette adoption future devrait, a priori,  faire plaisir à Oracle qui a toujours mis en avant ces fonctions dans ses serveurs spécialisés de base de données. Oracle a même inclus dans ses tout derniers processeurs Sparc des extensions programmables. Pour Microsoft qui a toujours mis en avant, du moins à l’époque de Bill Gates, l’avantage du « bare metal », celui qui consiste à faire fonctionner tout dans le cœur du processeur, sans intermédiaire, ce serait une petite révolution intellectuelle. Tout comme annoncer que Microsoft connaît des problèmes de réseaux, mais depuis le départ de l’ex-PDG,  Steve Ballmer, le géant parait nu… 

Pour justifier la création d’un vrai contrôleur SDN ?

Mais cette annonce un peu inhabituelle paraît pour certains observateurs une manière détournée d’annoncer qu’elle aurait besoin d’un vrai contrôleur hardware pour gérer la virtualisation de ses réseaux. La situation pourrait se résumer ainsi : « il faut que l’on fabrique aussi un contrôleur hardware (SDN ?) pour nous en sortir ». Au vu de la part grandissante du story telling dans la communication de Microsoft, c’est peut-être de ce côté qu’il faut regarder pour comprendre cette intervention d’un proche de Satya Nadella, le PDG actuel de Microsoft. Le discours : « On rencontre des problèmes, on essaie de les résoudre » n’est peut-être qu’une première étape.

La prochaine communication devrait être : « ça y est, on a une solution et si vous voulez, vous pouvez profiter de notre expérience ». Ce qui rend l’histoire sympathique et tout à fait crédible pour les observateurs. Elle donne au moins un fil directeur à suivre, cela permet d’éviter de se poser trop de questions. Sur le fond, on ne peut que le croire car entre cent serveurs et mille serveurs, les problèmes ne sont plus les mêmes et Microsoft gère désormais plus d’un million de serveurs, et selon Kushagra Vaid, la firme voit poindre dans son réseau un goulot d’étranglement à venir dans le courant des trois prochaines années.

«Nous sommes maintenant dans une position où aucun des fournisseurs de silicium ne peut plus suivre le rythme du changement de nos 200 charges de travail dans Azure, surtout dans nos plus grands des centres de données. Les réseaux ont besoin de « nouvelles fonctions » pour une nouvelle programmation, le contrôle de flux et des commutateurs virtuels. Cela change si vite que les composants réseaux ne sont plus en phase ce qui nous pousse à étudier l’utilisation de FPGA. Et d’API ouvertes pour les accélérateurs de FPGA et d’autres concepts du même genre. »

Le trafic en augmentant sans cesse génère de nouveaux soucis

Au cours des quatre dernières années, les serveurs dans les 15 centres de données de Microsoft (photo )ont vu leur nombre augmenter dans un rapport de 1 à 10 et les derniers modèles intègrent désormais des interfaces 40 Gbits/s. Tous les nouveaux serveurs en rack que la société achète utilisent maintenant quatre puces de 10Gbits/s pour envoyer des données à des débits 40G vers un commutateur haut de rack, un débit que l’on croyait justement réservé aux seuls les commutateurs dit haut de rack pour converser avec les réseaux. Par ailleurs pour sécuriser et chiffrer le trafic, Microsoft a réalisé qu’il ne lui fallait pas moins de 16 de 24 cœurs dans un serveur à base de processeur Intel Ivy Bridge. « Ce n’est pas très économique. Il nous faut un nouveau niveau type de matériel » a précisé Kushagra Vaid.

Pour les fonctions d’équilibrage de charge, encore… Lire la suite sur InformatiqueNews

Egalement sur InformatiqueNews :

Le Top100 mondial des logiciels et services IT

HP veut se délester de sa filiale H3C Technologies