Pour gérer vos consentements :
Actualités: ENTREPRISE

Les priorités d’investissement IT et stockage pour 2010

Par Hu Yoshida, CTO d’Hitachi Data Systems

La virtualisation du datacenter

La virtualisation est un facteur clé du datacenter dynamique de demain et présente de nombreux avantages, ainsi que de nouveaux défis. La consommation d’énergie globale va diminuer tout en variant énormément. Nous verrons moins de serveurs dans le data center mais chacun d’eux sera plus crucial et nécessitera plus que jamais davantage de ressources de stockage. Les applications peuvent être réattribuées dynamiquement à la demande et l’infrastructure devra être en mesure de faire de même. 

L’encombrement du datacenter sera réduit, mais l’efficacité globale pourrait bien demeurer sous-optimale. Bonne nouvelle : il existe des moyens pratiques et abordables de relever ces défis et d’améliorer par la même occasion l’efficacité du datacenter.

Alors qu’un nombre croissant de charges de travail sont virtualisées sur des processeurs multicœurs et que les bandes passantes réseau augmentent pour atteindre jusqu’à 8 Gbps sur l’interface FC et jusqu’à 10 Gbps sur le réseau Ethernet, la pression sur l’infrastructure de stockage de base se renforce, tant en termes de capacité que de performance. Il est important que l’infrastructure de stockage qui sous-tend l’environnement virtualisé puisse évoluer de manière flexible selon les besoins de performance et de capacité.  Un tel système de stockage permettant d’ajouter plus de puissance de traitement, de ports d’accès, de caches et de baies de disques pour une meilleure performances grâce à l’utilisation d’accès massivement parallèles permet de répondre aux exigences les plus hautes des virtualisations de serveurs d’envergure. L’optimisation des capacités sert à diminuer les coûts et à minimiser les interruptions liées à l’ajout de nouvelles capacités ou aux mises à niveau vers de nouvelles technologies. En 2009, nous avons pu observer une tendance vers le stockage modulaire à faible coût intégrant l’optimisation des capacités, couplé à une technologie de commutation comme Ethernet ou RapidIO. La lacune principale du stockage modulaire intégrant l’optimisation des capacités est son incapacité à fournir une amélioration des performances. Pour 2010, nous nous attendons à une hausse de la demande en systèmes de stockage intégrant l’amélioration des performances associée à l’optimisation des capacités. Ces systèmes pourront répondre à la demande croissante en matière de réseaux et processeurs plus rapides et en systèmes d’exploitation virtuels comme vSphere et Hyper V.  

 

Le stockage sur le Cloud

L’expression « Cloud Computing » est souvent utilisée comme une métaphore pour Internet. Le stockage sur le Cloud permet de masquer la complexité de l’infrastructure informatique et d’accéder à la capacité de stockage en tant que service à la carte (« pay as you grow »). En 2010, le Cloud ne va cesser de progresser en termes de sensibilisation, l’accent étant mis par les créateurs de Clouds privés et les fournisseurs de services de Clouds publics sur la flexibilité, la fiabilité, la mutualisation et la sécurité. La clé du succès des fournisseurs de Clouds, comme ce fut le cas pour les fournisseurs de services Web auparavant, sera leur capacité à exploiter leurs ressources et à améliorer leur efficacité en termes de gestion de la croissance du stockage par rapport à leurs utilisateurs. La virtualisation du stockage et la capacité dynamique d’amélioration des performances et d’optimisation des capacités représenteront des vecteurs clés de cette adoption. Nous nous attendons à une adoption croissante du stockage sur le Cloud puisque l’on observe des progrès en matière de sécurité, de mutualisation et de modèles de paiement, qui en représentent certains aspects clés.

Le stockage par classe automatisé

Alors que l’écart entre prix et performance s’accentue avec le lancement des lecteurs flash et des disques TB SATA, adopter le stockage par classe devient plus intéressant. L’apport de la gestion du stockage par classe automatisé supprime les coûts importants associés aux ressources humaines nécessaires au déplacement et à la copie de données. Il permet en outre de réduire les coûts liés aux lecteurs de disques haut de gamme, les coûts de stockage liés aux données et copies inactives, et d’optimiser l’utilisation du stockage haute performance de classe 1. De nombreux départements informatiques se tournent vers l’automatisation de la gestion du stockage par classe à base de règles pour atteindre une efficience économique tout en maintenant des objectifs de niveau de service pour leur activité. Allier la gestion du stockage par classe automatisé, la virtualisation du stockage et l’allocation dynamique des ressources permet de réduire de manière optimale les dépenses d’investissement et les coûts d’exploitation.  

 

Les services managés

La gestion d’une infrastructure de stockage des données nécessite un personnel à plein temps qualifié et coûteux. Les ressources internes auparavant affectées à ces tâches courantes ne le sont plus. Désormais au sein des départements informatiques les nouvelles applications ou le reporting de la performance SAN sont pris en charge par des services managés.
L’essor de cette demande devrait entraîner l’adoption de nouvelles offres de services comme une alternative efficace et rentable offrant une expertise stockage managée 24/7, évitant ainsi les lacunes en termes de compétences des ressources ou des contraintes en termes d’effectifs. L’utilisation de ces services permet également de concentrer les collaborateurs chevronnés sur des activités à valeur ajoutée.

Une informatique durable

Les agendas des départements informatiques sont déjà pleins, en particulier du fait des charges de travail supplémentaires liées au contexte économique. Mais les cadres et responsables devraient rester prudents et ne pas retarder leur engagement avec la direction générale dans des projets de développement durable. Des pratiques informatiques viables se traduisent par des opportunités majeures de création de valeur ajoutée et d’avantage concurrentiel. 2010 sera l’année d’une rationalisation renforcée des projets informatiques dits « écologiques ».

Les responsables informatiques font face à une concurrence interne du fait d’un investissement disponible limité, et vont constater que les projets informatiques écologiques sont soutenus dans le cadre des programmes d’entreprise. Nous devrions voir apparaître un nouveau poste au sein des services informatiques, celui de responsable de l’informatique durable, qui sera en charge de l’identification et de la gestion des programmes informatiques écologiques. En outre, les responsables des datacenters vont très certainement se concentrer davantage sur la consommation d’énergie. Grâce à une analyse plus précise des mesures de l’énergie, davantage de responsables informatiques vont s’assurer que les procédures appropriées sont mises en place pour documenter la consommation d’énergie. Au niveau technique, ceci va résulter en une focalisation accrue sur la virtualisation des serveurs, du stockage et des datacenters ainsi que sur le Cloud.

 

La sécurité

Les responsables informatiques doivent trouver un équilibre entre réduire les risques et fournir les meilleures infrastructures en termes de débit, de disponibilité, d’évolutivité, de coût et de complexité. Chaque entreprise doit gérés ses propres
compromis suivant sa situation (par exemple, l’infrastructure déployée, les exigences légales et réglementaires et les attentes en matière de vigilance) et la criticité de ses données. Les responsables informatiques prévoyant des investissements en matière de stockage ou une utilisation de services de prestataires tiers en 2010 devront prendre en considération les priorités clés dont la confidentialité des données, les données personnelles, le nettoyage/la destruction et la sécurité.

La convergence Ethernet dans le datacenter (FCOE/DCIB)

L’informatique se tourne vers un modèle d’infrastructure réseau dynamique qui recourt largement à des serveurs exploitant de nombreuses machines virtuelles et qui utilise des liaisons à bande passante élevée pour communiquer avec le stockage virtuel et les réseaux virtuels. Avec le temps, cette technologie devrait permettre de réduire :
•    les dépenses d’investissement grâce à une utilisation accrue des serveurs, du stockage et du réseau et des infrastructures convergentes (ce qui signifie moins de câblage et une consolidation du matériel de type HBA et NIC)
•    les coûts d’exploitation par une meilleure utilisation de l’espace des datacenters
•    la consommation d’énergie 
L’adoption au niveau du serveur avec une interface de commutation FCoE sera la première évolution puisque les tarifs des CNA et des infrastructures 10 Gbps diminuent. Nous nous attendons à ce que l’adoption au niveau du stockage se répande, de nouvelles normes métier étant établies afin de permettre la création de chemins multiples et une décongestion du réseau. Nous observons également un énorme investissement dans l’infrastructure Fibre Channel (FC) qui va évoluer vers un débit allant jusqu’à 8 Gbps. La transition en 8 Gbps FC présentant moins de problèmes que la transition en 10 Gbps FCoE, nous nous attendons à ce que l’adoption à grande échelle des FCoE au niveau du stockage prenne plus de temps.

Une performance accrue avec les lecteurs flash ou les disques SSD
Alors que les lecteurs flash sont considérés comme inabordables par rapport aux lecteurs de disques classiques, ils offrent des avantages en termes de performance, en particulier une latence très faible et des E/S très rapides. Ils sont en outre éminemment efficaces en matière d’énergie. Alors que la perception des clients et la demande potentielle se renforcent, nous nous attendons à observer une augmentation de l’intégration des technologies flash dans les gammes de solutions, mais les futurs utilisateurs devraient se renseigner sur la sécurité additionnelle des fonctions de chiffrement des données au niveau du lecteur SSD avant d’adopter ces technologies.

 

La croissance continue des plates-formes d’archivage de contenu

Le cabinet d’analystes IDC estime que les données de contenu vont représenter le segment enregistrant la plus forte croissance, soit une croissance annuelle cumulée de 121 %. En effet, il s’agit de données qui se sont cumulées année après année. Outre les données de contenu, ce sont près de 60 à 80 % des données structurées et non structurées d’un datacenter qui peuvent devenir inactives et déplacées vers un archivage de contenu afin de réduire les ensembles de données actives à gérer quotidiennement. Alors que les données de contenu sont celles enregistrant la plus forte croissance, elles peuvent être celles les plus faciles à gérer étant donné leur nature statique. Une fois stockées sur une plate-forme d’archivage de contenu, il n’est plus nécessaire de les sauvegarder tant que vous possédez au moins deux copies et leur cycle de vie peut être géré automatiquement. Lors de leur stockage, elles peuvent être indexées pour un accès direct, compressées, dédupliquées et enregistrées sur des disques de grande capacité et à faible coût, tout en étant chiffrées afin d’assurer leur confidentialité. Comme ce type de données enregistre la plus forte croissance, une plate-forme de contenu doit être en mesure d’évoluer jusqu’à des dizaines de pétaoctets et de gérer de nombreux formats de données. Nous nous attendons à enregistrer une demande croissante en plates-formes d’archivage de contenu répondant à ces exigences.

L’adoption accrue de l’allocation dynamique

L’outil le plus adapté à la réduction des coûts opérationnels est l’allocation dynamique des ressources. L’allocation dynamique des ressources est en mesure de :
– supprimer le gaspillage de l’espace inutilisé
– réduire le coût lié au déplacement et la copie de gros volumes en supprimant l’espace inutilisé
– récupérer jusqu’à 40 % ou plus de la capacité des gros volumes existants
– réduire la durée de l’allocation du stockage d’heures en minutes
– améliorer les performances en distribuant très largement les accès sur davantage de disques

Étant donné tous ces avantages, nous nous attendons à ce que la technologie d’allocation dynamique de ressources devienne une priorité d’investissement pour les entreprises, avec des fonctions telles que la récupération des pages vides, le rééquilibrage dynamique des pools de stockage lors de l’ajout de capacité, la gestion de systèmes de stockage hétérogènes, tout en renforçant la performance.

Retrouvez les commentaires de Hu Yoshida sur son blog : http://blogs.hds.com/hu/

Gérard Clech

Articles récents

[Partenariat] Splunk et Microsoft Azure : une alliance stratégique pour les revendeurs IT

L’intégration des solutions Splunk sur la plateforme Microsoft Azure ouvre de nouvelles opportunités pour les…

2 jours années

[Tribune] Les ESN asphyxiées par les hausses des coûts de l’IT ?

Une tribune libre de Jan Gabriel, Directeur Alliances & Marketing, ITS Integra 2024 est malheureusement une…

3 jours années

« Apporter des solutions simples à des menaces complexes » : Entretien avec Benoit Juvin, Responsable Channel de Barracuda

Le marché de la cybersécurité continue de se transformer à un rythme effréné, poussé par…

4 jours années

Avec sa Partner Sales Engineer Community, Barracuda entend fédérer la communauté des revendeurs et MSP

Barracuda, spécialiste des solutions de cybersécurité « cloud-first », lance sa Partner Sales Engineer Community.…

4 jours années

Les déchets électroniques augmentent 5 fois plus vite que la quantité de déchets recyclés.

La plupart des entreprises continuent de remplacer leurs équipements (ordinateurs, tablettes, smartphones) selon des cycles…

4 jours années

Distribution : Westcon-Comstor en croissance de 16% sur le 1er semestre 2024

Westcon-Comstor poursuit sa transition vers un modèle basé sur des revenus récurrents, s'appuyant notamment sur…

4 jours années