L’arrivée de la nouvelle baie flash de Netapp, le deuxième constructeur de  système de stockage derrière EMC, selon IDC, a remis de l’huile sur le feu  sur  la question de la meilleure méthode  pour améliorer les performances des applications. 

C’est la première fois que Netapp met autant en avant un produit issu d’un rachat extérieur, en l’occurrence Engenio,  firme rachetée en mai 2011. Cette annonce  de baie flash faisant suite à celle d’EMC qui se distinguait avec sa solution XtremeIO, elle aussi issue d’un rachat souligne la capacité de recherche sur le stockage d’avant garde dans ces deux grandes structures, même si Netapp a énormément transformé le contrôleur de son nouveau modèle. Netapp et EMC ne sont pas les  seuls. L’environnement concurrentiel a beaucoup évolué depuis septembre  avec, par exemple  le rachat de Whiptail par Cisco pour 415 millions de dollars. Dans le même domaine, IBM s’est offert  Texas Memory Systems, Dell a investi dans Skyera (après le rachat de Compellent, il y a deux ans), EMC s’est offert  XtremIO et  HP  dispose de 3PAR. Même Western Digital, l’un des trois deniers fabricants de disques magnétiques (avec Seagate et Toshiba) vient  d’annoncer qu’il serait prêt à payer 685 million de dollars en numéraire pour s’offrir Virident Systems, qui fabrique actuellement des mémoire flash pour les  serveurs.

S’il ne subsiste que trois gros fabricants de disques classiques, c’est une bonne cinquantaine de fabricants de baies SSD qui se bat pour survivre. Les plus connues s’appellent  GreenBytes, Kaminario, Nimbus Data, Pure Storage, Skyera, SolidFire, Violin Memory et la dernière startup Whiptail, désormais avalée par l’ogre Cisco pour nourrir ses serveurs UCS. Toutes ces firmes ont mis au point des baies de stockage SSD avec un système d’exploitation « éclair » qui prend soin des lectures et des écritures pour les modules flash, de l’intégrité des données flash, du « wear-leveling « propre à ces composants, de la gestion de l’alimentation et plus encore. Leur intérêt est, bien sûr, de doper les temps de réponse des applications en intervenant au cœur des réseaux ou sous forme de caches entre les serveurs et les systèmes de stockage plus lents. A l’heure de la virtualisation galopante et du cloud, la répartition entre  «  stockage » et « compute » ne cesse d’être modifiée. La distribution des machines virtuelles s’effectuant sur différents appareils, c’est presque la gestion  des machines virtuelles et la localisation des données qui  paraît dominer la problématique des administrateurs. Même si les données se répartissent, elle aussi sur différents disques et sont masquées par des caches en tous genres.

La fin justifie les moyens

En préambule, Eric Antibi, le directeur technique De NetApp, nous rappelait que tout dépend toujours des applications et que la multiplication des systèmes distribués, des bases de données et du cloud réclame toujours plus temps de réponses immédiats, la lenteur des sites web de commerce étant par exemple , un handicap fondamental. « Chaque milliseconde gagnée, ce sont des milliers d’euros gagnés », n’hésitait pas à avouer, il y a déjà plusieurs années le responsable informatique de ventes privées .com. Chaque type d’application réclame des atouts spécifiques.« On utilise dans le secteur vidéo, par exemple,  beaucoup de systèmes flash dans des  systèmes combinés à base de disques SAS. On fournit un service fiable ou la protection des données évite tout saute d’image. Pour Hadoop, nous proposons des solutions spécifiques avec des entrées-sorties de près de 400 000 IOPS, une latence inférieure à la milliseconde et des débits de 6 Gbps (12 Gbps sur le dernier E550)».

Netapp  ne fera pas de serveur dédié

Interrogé sur la montée en puissance de serveurs dédiés, en particulier pour l’ERP SAP, désormais sur une base de données in Memory et l’envie de créer un vrai serveur, Eric Antibi précisait qu’effectivement l’association hardware/software était l’élément critique. Mais Netapp s’est fait une spécialité de l’optimisation des temps de réponses. « Il n’y a pas que les baies flash qui répondent souvent à des volumétries limitées. Selon l’architecture en place et les applications, les baies flash ne sont pas toujours la meilleure réponse  pour le stockage car les temps de réponse dépendent de plus en plus des serveurs et du réseau . Nos baies de stockage plus classiques sous notre OS traditionnel cluster « on tap » répondent à la plupart des demandes classiques. On a quand même plus de 650 000 baies en fonctionnement actuellement et nos ventes en OEM, chez Oracle, IBM, HP et Teradata représentent 15% de nos ventes annuelles ». Sur les serveurs, le directeur technique de NetApp rappelait le partenariat avec la firme Fusion IO pour la fourniture de carte flash au format PCI express et son logiciel, Flash Accel. Celui-ci permet d’étendre l’optimisation des caches, le VST (Virtual Storage tier) au niveau du serveur. Selon la documentation, les données seraient automatiquement placées par défaut sur un support le plus rentable (le plus souvent des disques SATA haute capacité), le VST limitant la surconsommation minimale d’E/S et de CPU. Flash Accel s’accorde avec les fonctions de gestion intégrées à tous les systèmes FAS et V-Series.

Du flash depuis 2009 La firme NetApp disposait déjà de système de caches et de flash Pool depuis 2009, dans le stockage partagée. Mais cela ne représente que quelques millions de dollars sur les  6, 332 milliards de dollars de ventes de sa dernière année fiscale. Interrogé sur la course à l’armement que représentait le nouveaux modèle E 550 qui remplaçait l’EF 540, pourtant lancé il y a moins d’un an. Eric Antibi expliquait que sa plus grande compacité et sa moindre consommation électrique étaient réclamées par des clients hébergeurs. Ceux-ci veulent limiter leur facture électrique et augmenter leur capacité à louer plus de puissance dans un même espace.

La fiche technique L’ EF 550 est un système  compact en rack d e2U avec 24 disques SSD de 2,5 pouces et peut être raccordé à 4 tiroirs d’extension complémentaires, soit au maximum, un ensemble de 120 disques et de 96 To de capacité brute. L’ancien modèle, l’EF540 se limitait  à 48 disques et 38 To de capacité. NetApp a remis au goût du jour les autres baies d’Engenio, les E2600 et E5500en  augmentant leur capacité de stockage et en troquant leur interface Fibre Channel 8 Gbits/s par des interfaces à 16 Gbits/s.  Interrogé sur l’absence de déduplication et de compression sur l’EF 540, Eric Antibi précisait que ce type d’OS centricity, quasi temps réel, ne le permettait pas mais qu’elle autorisait les snapshots, la réplication synchrone et asynchrone.

Le meilleur est à venir

Pour  atteindre des fonctions qui rassembleraient les fonctions traditionnelles  d’un OS « on tap » et le côté fulgurant de l’OS centricity, il faudra attendre l’arrivée des nouvelles baies flash ray prévues pour janvier 2014. Elles disposeront, comme les Xtreme-IO d’EMC, de la compression et la déduplication des données en ligne avec  surtout le support multiprotocoles NAS et SAN, ce qui avait fait le succès de la firme jusque-là.

Egalement sur InformatiqueNews :

HP : la fin d’un modèle ?

HP remplace Verizon pour le site de l’ObamaCare