En 2012, les systèmes de stockage devront se transformer en ordinateurs de stockage…
Par Hu Yoshida, Vice-Président et Chief Technology Officer (CTO) de Hitachi Data Systems
Les systèmes de stockage devront se transformer en ordinateurs de stockage dans la mesure où davantage de fonctions leur sont assignées. Les anciennes architectures de stockage dotées de contrôleurs à caractère général qui assurent toutes ces nouvelles fonctions—avec la charge de travail E/S standard— ne répondront pas aux besoins nécessaires en termes d’extensibilité. Les nouvelles architectures de stockage munies de pools de processeurs séparés seront nécessaires pour gérer ces fonctions supplémentaires.
Au départ, les systèmes de stockage ont été conçus pour traiter des commandes de lecture et d’écriture en vue de stocker et de récupérer des données à partir d’adresses de bloc ad hoc sur des partitions de disque, qui étaient identifiés par un numéro d’unité logique (LUN) associé à un contrôleur et à une ID cible. Après l’introduction de la protection RAID, les systèmes de stockage ont également eu à réaliser des calculs de parité RAID lors de l’écriture des données ainsi que des reconstructions RAID en cas d’échec d’un disque dans un groupe RAID. L’étape suivante a consisté à ajouter la continuité des activités, ce qui a nécessité des systèmes de stockage visant à soutenir les copies du système, ainsi que la réplication synchrone et asynchrone. Toutes ces fonctions ont été ajoutées à la charge de travail des processeurs qui, à l’origine, étaient uniquement conçus pour prendre en charge la lecture et l’écriture des données dans le système de stockage.
Aujourd’hui, les systèmes de stockage doivent faire beaucoup plus. Le « Thin Provisioning » (allocation granulaire) est devenu un standard pour une meilleure utilisation des capacités de stockage, associée à une hiérarchisation dynamique. Pour ce faire, l’espace de stockage doit être décomposé et géré en petits unités (chunk/chunklet) ou bien en pages. Les processeurs de stockage doivent faire un travail beaucoup plus important pour traiter les métadonnées associées à ces petits incréments de stockage. En outre, la taille des systèmes de stockage a augmenté jusqu’à atteindre le niveau du pétaoctet, alors que leur taille n’était que de quelques mégaoctets quand ces types de processeurs de stockage ont été conçus au départ. De plus, les hyperviseurs acheminent plus de travail vers le système de stockage avec des API pour le formatage, la copie, le déplacement et le thin provisioning de disques virtuels.
Alors que certaines de ces tâches supplémentaires peuvent être traitées par des processeurs multi-core plus rapides, il est temps de repenser les systèmes de stockage afin de traiter plus efficacement ces différents types de charges de travail. Au cours de cette année, plusieurs fournisseurs ont tenté de résoudre ce problème de différentes manières. Hitachi a introduit VSP avec une nouvelle amélioration de leur architecture de commutation interne qui a été développée pour optimiser la consolidation dans les configurations SAN. L’amélioration a consisté à compléter la configuration de commutation interne par un pool séparé de processeurs globaux (VSP), de manière à ce que les processeurs frontaux et dorsaux puissent se concentrer sur les E/O pendant que VSP traite les fonctions générales—comme le thin provisioning, la hiérarchisation, la réplication, etc. De cette façon, VSP peut prendre en charge des fonctions supplémentaires sans nuire au débit et aux performances E/S de base.
L’acceptation de VSP depuis son annonce le 27 Septembre 2010 a prouvé la nécessité de ce type d’informatique de stockage. Nous prévoyons que la demande pour ce type d’architecture se poursuivra en 2012 et que d’autres fournisseurs suivront avec leurs versions d’ordinateurs de stockage.