En effet, depuis une dizaine d’année, la montée en puissance de la virtualisation du monde ouvert, VMWare et HyperV plus récemment, pousse à une restructuration du datacentre au niveau de ses infrastructures réseau, serveur, et bien entendu stockage.
On passe d’un environnement où chaque ressource était quantifiée et cloisonnée, avec des silos applicatifs dédiés à base de serveurs, stockages et accès disjoints. A présent, un serveur physique accueille une multitude d’environnements dissimilaires, avec ses propres contraintes et exigences, et si la quantification côté serveur (RAM, CPU…) est bien maitrisée, le stockage des données doit lui aussi apporter une flexibilité et une agilité sans faille, adaptées aux contraintes de production. La mobilité et l’aptitude au changement des données doit donc devenir la règle sur le stockage.
La mobilité des données : une notion nouvelle ?
On retrouve pourtant cette notion, dans l’informatique professionnelle, depuis longtemps : les serveurs mainframe disposaient déjà à l’époque de mécanismes de migration de données, de disques vers bandes, en fonction de l’âge et de l’accès aux données. Les systèmes ouverts supportent également des logiciels permettant la mobilité des informations au sein de différents tiers de stockages, mais ces fonctionnalités sont pratiquement toutes basées sur une granularité fichier, et sur une mobilité par accès des données. Ce modèle suffit dans une optique de rationalisation des coûts et d’optimisation des sauvegardes, mais ne répond pas aux enjeux de la virtualisation.
La faculté d’adaptation du stockage : un point critique de l’infrastructure
Prenons par exemple un datastore VMWare. Il est porteur de machines virtuelles possédant plusieurs profils d’accès différents, que ça soit en termes de planning, de taille et type de requêtes, mais également de criticité pour la production utilisateur. Il est donc nécessaire de qualifier et d’apporter une réponse pour que les différentes machines virtuelles n’entrent pas en interaction les unes avec les autres. Bien sur, VMWare Storage IO Control apporte un début de réponse à cette problématique, mais tous les acteurs de la virtualisation ne proposent pas ces mécanismes, et cette fonctionnalité ne gère pas les évolutions dans la durée des sollicitations des machines virtuelles : en effet, le rôle et les exigences d’une machine virtuelle évoluent dans le temps.
EMC FAST Suite : la réponse à toutes les problématiques
Grâce aux gammes EMC VMAX et VNX, EMC fournit une architecture adaptée à ces contraintes, tout en apportant une suite logicielle capable de les gérer efficacement dans le temps. En effet, les moteurs de stockage VNX et VMAX sont directement dimensionnés pour supporter à la fois la gestion, et les flux de données intrinsèques liés à la mobilité. Cette puissance de traitement est épaulée par des systèmes embarqués 64 bits, donc capables de gérer de nombreux sous-ensembles, d’une taille inférieure aux luns des systèmes de stockages standards.
Examinons l’offre logicielle FAST Suite, disponible sur la baie VNX. Elle propose les fonctionnalités suivantes :
– FAST Cache : combine l’utilisation de disques Flash haute performance, en RAID 1 pour agrandissement du cache de la baie.
– FAST VP : permet la création de pool de disques hétérogènes (mix Flash, SAS et NLSAS), et la mobilité des données au sein du pool, de manière ordonnancée.
– Unisphere Quality of Service Manager: permet l’affection, par Lun ou ensemble de Lun, d’une limite ou d’un objectif à atteindre, sur les critères bande passante, entrées/sorties par seconde et temps de réponse. Il est possible, de plus, de filtrer par type d’accès (taille de bloc, lecture ou écriture), et par plage horaire.
– Unisphere Analyser : permet l’analyse et l’historisation des performances, pour tous les éléments participant au trafic de données au sein de la baie (ports, cache, disques, luns…).
Cette suite cohérente répond donc aux exigences énoncées ci-dessus : FAST VP va permettre aux données d’être accédées de manière optimales, les blocs les plus sollicités étant redirigés vers un tier de stockage Flash, et les moins sollicités vers du stockage NL-SAS, tout en permettant la modification du profil des machines virtuelles dans le temps, l’algorithme apprenant au fur et à mesure les sollicitations, et les appliquant au cours de plages horaires programmées, afin de ne pas pénaliser la production par des mouvements de données ponctuels.
Il est également possible de forcer (par interface, ou par script en ligne de commande) l’affinité d’un environnement avec un tier de stockage, comme par exemple, en fin de mois, pour privilégier les accès à une base de données comptable ou à une gestion de stock.
FAST Cache, en complémentant le cache de la baie jusqu’à un maximum de 2 To, va à la fois :
– Lisser les entrées/sorties,
– Décharger les disques sous-jacents, le travail étant effectué dans le cache,
– Permettre des temps de latences de l’ordre de 1ms, inatteignables avec des disques classiques.
Cette fonctionnalité permet donc la réponse à des sollicitations imprévues, de manière totalement automatisée et transparente, tout en fournissant un accès simple et rapide à la puissance des disques Flash.
Unisphere Quality of Service Manager va autoriser la gestion de classe de service entre différents environnements, pour par exemple privilégier certains serveurs sur des plages horaires définies, ou pour limiter des environnements de développement par rapport à des serveurs de production.
EMC fournit donc une plate-forme pensée et dimensionnée pour gérer cette mobilité de donnée, et apporte un accès aux disques les plus rapides.
La généralisation du Flash : la révolution actuelle
La prochaine révolution est, finalement, déjà présente : un disque SAS ou FC actuel délivre entre 150 et 180 entrées/sorties aléatoires par seconde, les disques Flash de l’ordre de 3000 à 5000 entrées/sorties par seconde. Nos amis américains l’appelleraient « game changing innovation ». Les baies EMC sont déjà, grâce aux mécanismes évoqués, prêt pour cette révolution et la propose depuis 4 ans déjà. Les concepts d’architecture du VNX et du VMAX s’appuient grandement sur les complémentarités entre disques classiques et Flash, et proposent donc le bon type de stockage au bon moment, à la bonne donnée, au sein de la même baie.
Virtualisation de l’infrastructure, du serveur au segment de la donnée au sein d’une baie, voici ce que propose l’offre EMC.
L’intégration des solutions Splunk sur la plateforme Microsoft Azure ouvre de nouvelles opportunités pour les…
Une tribune libre de Jan Gabriel, Directeur Alliances & Marketing, ITS Integra 2024 est malheureusement une…
Le marché de la cybersécurité continue de se transformer à un rythme effréné, poussé par…
Barracuda, spécialiste des solutions de cybersécurité « cloud-first », lance sa Partner Sales Engineer Community.…
La plupart des entreprises continuent de remplacer leurs équipements (ordinateurs, tablettes, smartphones) selon des cycles…
Westcon-Comstor poursuit sa transition vers un modèle basé sur des revenus récurrents, s'appuyant notamment sur…