Des données de plus en plus volumineuses, des choix pas toujours adaptés en termes d’infrastructure… Et c’est la saturation. Scott Cleland de LSI fournit ici une solution, LA solution selon lui à ce problème, avec un angle revendeurs de surcroit…
Par Scott Cleland, responsable marketing senior chez LSI (Milpitas, Californie).
La virtualisation s’efforce d’optimiser les ressources, notamment la puissance des processeurs actuels à plusieurs cœurs, éliminant ainsi quasiment les limites associées aux machines physiques. Un même boîtier peut héberger plusieurs machines virtuelles, afin d’exploiter toutes les ressources disponibles au niveau des processeurs et de la mémoire. Conséquence directe : la disparition des connexions physiques, désormais virtualisées. Le nombre total de câbles utilisés pour faire circuler les données diminue, et les intégrateurs doivent donc comprendre comment une solution de ce type peut alors créer des goulets d’étranglement ailleurs dans le chemin de données.
« Les services informatique qui consolident les serveurs et utilisent la virtualisation pour simplifier les environnements […] arrivent à des rapports de consolidation moyen de 20 à 1 avec VMware et les serveurs à plusieurs cœurs, mais pouvant aller jusqu’à 100 pour 1. […] Supprimer un serveur physique revient aussi à supprimer des ports réseau. Les machines virtuelles créées sur un même serveur sont alors en concurrence pour ses ressources, ce qui engendre souvent des goulets d’étranglement au niveau des E-S (source : Dell Whitepaper, 10GbE, Servers, Storage and Virtualisation – Interoperability Review and Highlights, juin 2009).
En consolidant des dizaines de serveurs physiques sous-utilisés sur un seul serveur physique, un revendeur utilise plus intensivement les processeurs, mais augmente aussi les besoins en E-S au niveau du stockage. Associer des charges de travail indépendantes sur une même machine augmente considérablement le caractère aléatoire des E-S et renforce donc la nécessité d’un stockage performant, ce qui crée un problème pour l’utilisateur.
Inefficacité des disques durs
Dans les modèles traditionnels de stockage, les disques durs sont souvent synonymes de goulets d’étranglement. Si un cache en DRAM sur le contrôleur RAID peut améliorer les performances globales, elles restent limitées par la performance du disque en rotation. L’une des solutions a donc été d’acheter des disques durs en surnombre et de les configurer pour n’utiliser que les secteurs les plus externes (les plus rapides). Cette méthode dite « Short Stroking » peut toutefois s’avérer coûteuse et souvent inefficace.
Faire évoluer le chemin de données
En local, le 10 GbE apporte de nombreuses réponses au niveau du front end, et le SAS dans ses versions à 6, et depuis peu 12 Gbit/s, aide à répondre aux besoins du back end. Mais les revendeurs disposent de bien d’autres solutions pour aider leurs clients à maintenir une circulation équilibrée des données. Les fournisseurs de solutions RAID au niveau de l’hôte constatent ainsi actuellement une migration rapide des produits SAS à 3 Gbit/s vers des solutions à 6 Gbit/s, qui semble coïncider avec l’essor de la virtualisation de serveur et la migration vers le 10 GbE.
Passage à la commutation SAS
Elle s’appuie sur le SAS actuel à 6 Gbit/s pour répondre aux besoins des réseaux de stockage (SAN) et faire face à l’augmentation de capacité. Un commutateur SAS peut tirer profit du SAS 6 Gbit/s de bout en bout et l’étendre à travers la mise en œuvre de canaux SAS regroupés dans le cadre de ports SAS wide, dont les performances cumulées améliorent les échanges entre un serveur et ses racks externes de stockage JBOD.
Des disques durs SSD certes, mais plus intelligents
Les disques SSD restent très coûteux par rapport aux disques durs classiques, d’où leur utilisation intensive pour de très petites quantité de données, les célèbres « hot data ». On estime que « dans bien des cas, 90 % des données conservées restent inchangées pendant trois mois. Au delà, on considère que 70 à 80 % des données sont inactives ou inutilisées » .
La solution consistant à créer des ensembles de stockage constitués de disques SSD pour accéder rapidement une petite partie des données semble un investissement difficile à justifier au regard du prix au Go encore très élevé des disques SSD.
La solution intermédiaire
Les revendeurs devraient s’orienter vers la solution intermédiaire basée sur les logiciels d’optimisation, dynamiques et intelligents permettant de convertir un petit nombre de disques SSD en un pool de mémoire cache réservé à la lecture et à l’écriture des données critiques. Cette alternative offre aux revendeurs une excellente opportunité commerciale. Mais elle peut également améliorer suffisamment les performances pour gérer l’augmentation conséquente des débits réseau au niveau front end, passant de 1 à 10 Gbit/s. Dans certains cas, les performances ont été multipliées par 13, en adéquation avec les gains apportés par le 10 GbE.
Ces logiciels de mise en cache dynamique et intelligente peuvent être associés à un stockage SSD via une interface de disques ou bien être installé directement au sein d’un connecteur PCIe. Certains logiciels utilisent un contrôleur RAID spécialement conçu pour mettre en cache les données critiques, dans un modèle de stockage en liaison directe (DAS). D’autres fonctionnent au niveau du serveur et mettent en cache, de façon dynamique, les données critiques pour tous les volumes et toutes les machines virtuelles hébergés.
Selon moi, les progrès actuels – et ceux à venir – de l’interface SAS, couplés aux options disponibles autour du stockage SSD et des logiciels d’accélération, sont d’excellents compléments aux performances apportées en frontal par le 10 GbE. Et vous, qu’en pensez-vous ?