La virtualisation des réseaux va modifier les réseaux mais aussi les serveurs et les applications. En attendant l’offre de Cisco, les premiers commutateurs SDN sur le marché méritent un coup d’œil.

Au lieu de systèmes centralisés conçus avec des routeurs très coûteux, la virtualisation des nouveaux réseaux de data center permet une meilleure répartition des charges entre plusieurs nœuds pilotés par des serveurs banalisés. Cette souplesse de répartition en terme de machines virtuelles correspond à l’amélioration que l’on connaît déjà pour le stockage et la puissance de calcul à l’intérieur même des serveurs.

Pour le cloud, c’est bien sûr la possibilité de délester, de manière automatique, un nœud surchargé au Concrètement, au niveau plus élevé des applications, la virtualisation garantit des temps de réponses prévisibles à l’intérieur d’un même data center où sont interconnectés les différents racks qui hébergent les applications. C’est d’ailleurs ce que réalise Google sur ses propres serveurs de bases d’informations depuis des lustres. Ne pas pouvoir, par exemple, répondre immédiatement à une requête sur un produit précis, disponible en stock ou pas, peut remettre en cause des ventes, synonymes de milliers d’euros en période de stress d’un site commercial. Une réponse instantanée dans ce cas entre  le serveur web, le middleware et souvent une ou deux bases de données, n’est pas un luxe.

Un objectif poursuivi par les opérateurs


Pour relier des dizaines de sites et faire une sorte de load balancing sur de longues distances, au niveau des opérateurs de cloud et de services, la démarche est similaire mais plus complexe, les temps de connexions de session s’allongeant. Sur des réseaux fibres privées, Orange, BT, Verizon ou Tata Communication, par exemple, proposent déjà des services avec des temps de réponse garantis de ce type.


Mais les prix de ces services restent élevés, ce qui incite à l’utilisation de formules de clouds applicatifs « tout en un, clés en main », comme ceux que propose Amazon. La formule« application dans le cloud avec temps de réponse garantie », devrait  aussi se banaliser chez tous les opérateurs d’ici la fin de la décennie, si l’on croit Deutsche Telekom et Telefonica qui participaient au SDN World Congress en Allemagne la semaine passée. L’infrastructure SDN, sous-jacente du cloud, synonyme de virtualisation, progresse chez les opérateurs mais pas aussi vite que dans les data centers.


Une évolution attendue des data centers

Si l’économie d’énergie, de personnel d’administration et l’exploitation maximale du matériel en place justifient à eux seuls la virtualisation de tous les éléments du réseaux, il reste que la virtualisation prend au moins deux formes différentes : le principe de la surcouche (l’overlay) proposée par VMWare et son NSX ou des commutateurs intégrants la virtualisation au cœur même de leurs systèmes. Dans les deux cas, il faudra mesurer de prés, la simplicité d’utilisation et l’intégration aux applications existantes. Au niveau matériel, suivant les constructeurs, l’intégration d’équipements plus anciens sera très différente.

Le véritable début de l’offensive du SDN sera marqué par le lancement, le 6 novembre, chez Cisco, d’un serveur-commutateurs,  a priori appelé Nexus 40 G. Il devrait annoncer une rupture : outre la banalisation définitive du 40 Gbits, c’est bien l’intégration des passerelles vers le cloud, les systèmes d’exploitation et les hyperviseurs (Xen, Vmware, KVM, HyperV) que l’on surveillera.

En attendant la sortie de ce « Monster Switch », tous les équipements récents profitent de la versatilité des derniers chips broadcom Trident II qui permettent, eux aussi, sans plus dépenser d’avoir 40 Gbits ou 4 fois 10 Gbits sur une même carte.


Dell et Juniper fourbissent leurs premiers switch SDN


C’est le cas chez Dell avec son Switch S6000 qui propose depuis septembre une plate-forme de commutation 10/40 Gbits dite de « double densité » tout en utilisant moins d’énergie. Le S6000 appelé aussi Active Fabric peut être déployé avec 32 ports 40 GbE ou 96 ports 10 GbE et huit ports 40 GbE dans seul 1U, tout en offrant 2,56 Tbps de débit, soit le double du switch S5000 lancé en avril passé.


Pour économiser l’énergie, il utilise la technologie de refroidissement d’air déjà en place chez dans les serveurs Dell. C’est un switch dit « top of the racks » dans la mesure où il va concentrer les différents flux de données serveurs et des commutateurs primaires présents dans la même armoire (rack). Grâce à ses fonctions intégrées de niveau 2, il pourra profiter de la présence du contrôleur VMware NSX, piloté par l’outils d’administration AFM 2.0 (Active Fabric Manager). Il s’ouvre donc aux environnements NSX de VMware. Le S6000 supporte le protocole OpenFlow. Dell vend son switch dans une démarche globale d’analyse des coûts d’exploitation sur 3 ans (TCO) et de retour sur investissement. L’intégration des serveurs et des outils d’administration et en particulier son Active Fabric Manager font la différence pour contrôler l’ensemble serveurs et commutateurs. L’offre Dell intègre aussi le stockage et l’administration de commutateurs plus anciens.

Juniper joue la carte de l’ouverture logicielle


Fin octobre, Juniper Networks a dévoilé un tout nouveau commutateur, « une fabrique »,  le QFX150 qui se destine aussi aux data centers, ainsi qu’une nouvelle architecture optimisée pour la virtualisation. Celle-ci repose sur les caractéristiques du QFX150 associées à celles des routeurs MX et des plates-formes de sécurité SRX.

Le QFX5100 et les commutateurs récents de Juniper prennent en charge les surcouches de virtualisation de réseau, comme VXLAN (Virtual eXtensible LAN), la technologie de tunneling de Cisco/VMware avec les contrôleurs logiciels SDN, comme Juniper Contrail et VMware NSX. La version actuelle de son OS Junos, la version 13.2, se distinguerait par ses temps de réponses fulgurants, synonymes de bonnes performances pour les applications.

La nouvelle architecture de Juniper appelée « Virtual Chassis Fabric » (VCF) permet de configurer, le réseau selon un modèle  dit leaf and spine (feuilles et colonne principale) et le modèle classique de routage de niveau 3. Le VCF peut exploiter de manière « extensive » jusqu’à 768 ports 10 gigabits en combinant les différents connecteurs de 1G/10G/40Gbits des autres commutateurs  juniper. Les ports des switch QFX5100, QFX3500, QFX3600 et EX4300, grâce à la virtualisation, seront réunis au sein d’un seul commutateur logique. A titre indicatif, un simple QFX5100-48S, avec une capacité de 48 x 10G, (l’entrée de gamme !) devrait être proposé au prix de 30 000 $ dés la fin novembre, autant dire que les PME ne sont pas visées directement.


Juniper a aussi présenté une autre solution de virtualisation appelée MetaFabric. Elle combine les QFX et les commutateurs EX, routeurs MX, systèmes de sécurité SRX avec le contrôleur Contrail SDN (qui sera aussi vendu en mode open source pour favoriser les investissements d’intégrateurs spécialistes d’applications réparties). Selon Juniper, MetaFabric va faciliter la fourniture rapide d’applications au sein des datacenters utilisant déjà des équipements de la firme.

Le partenariat  avec de nombreux partenaires est l’un des objectifs de la firme


Les commutateurs fonctionneront déjà en harmonie avec les systèmes de stockage d’EMC, les VMAX and VNX. Depuis les premiers commutateurs QFabric, crées en 2011, les ventes auraient été  décevantes selon les cabinets d’études marché IDC et Dell’Oro, la faute à un surdimensionnement en terme de capacité de gestion de trafic.

Le fait d’avoir différentes techniques de virtualisation pour s’adapter aux équipements déjà en place devrait faire la différence avec la démarche radicale de rupture proposée par Cisco pour son nouveau super Switch, du moins sur la base des informations dont nous disposons.

On attend avec impatience le projet Insieme de Cisco, du nom de sa filiale, créée pour mettre au point ce commutateur. Il exploite lui aussi une architecture Leaf and Spine qui permet de raccorder autour d’une branche centrale autant de feuilles « de serveurs » que l’on veut, une perspective rassurante.

 

Egalement sur InformatiqueNews :

Cloud et virtualisation, même combat sécuritaire

Mythes et réalités du SaaS