Par Philippe Elie, Directeur des ventes Europe du Sud, Riverbed Technology
… Quelques années auparavant, déplacer en permanence une telle quantité de données via le réseau était tout simplement impensable, aujourd’hui, c’est quasiment indispensable.
En effet, une stratégie de reprise après sinistre impose un stockage redondant de toutes les données, à plusieurs endroits. Si une catastrophe détruit les données présentes en un lieu, un autre site disposera toujours d’une copie de secours. Une telle stratégie garantit que les données d’une entreprise ne seront jamais totalement détruites par une catastrophe ou par un acte terroriste.
Dans le contexte actuel, la méthode classique commence vraiment à dater : on procède à des sauvegardes nocturnes, sur bande ou tout autre support physique, puis on les transporte vers un site sécurisé. La quantité de données a tellement augmenté qu’une nuit ne suffit pas toujours à la sauvegarde. Et de toute façon, beaucoup d’entreprises ne peuvent se permettre de perdre même quelques heures de données, sans parler du risque d’égarer les bandes pendant le transport. On a donc fait appel à des sauvegardes incrémentales effectuées dans la journée, en cours d’activité.
Mais ce nouveau mode de gestion du stockage des données apporte ses propres complications. En effet, s’il n’est pas géré correctement, le stockage largement distribué via le réseau peut dépasser les possibilités des liaisons WAN. Le transfert de fichiers devient alors très lent, tout comme les protocoles de réplication et les applications qui en dépendent. En outre, un réseau WAN surchargé par une sauvegarde en cours risque de ne pas offrir les performances nécessaires au bon fonctionnement des autres applications.
Pour ne rien arranger, l’utilisation de services de stockage dans le cloud pour la sauvegarde et la restauration rend encore plus important d’utiliser efficacement la capacité du réseau car ils s’appuient sur Internet. De ce fait, ils sont encore plus sensibles aux encombrements et à la latence que les applications d’entreprise via le WAN.
Une bonne nouvelle cependant : il existe des solutions à ces problèmes. L’optimisation du WAN peut ainsi extraire le maximum de performances de la bande passante réseau disponible. Souvent, cette optimisation est mise en œuvre via un appliance, c’est-à-dire un appareil placé sur le réseau et configuré à l’avance pour exécuter le logiciel qui effectuera les tâches d’optimisation. Dans le cadre d’environnements largement virtualisés et de cloud computing, elle peut être assurée via une appliance virtuelle, un logiciel susceptible de fonctionner dans une machine virtuelle comme une application standard.
Le choix du mode de déploiement dépend certes des préférences, mais certains appliances haut de gamme apportent des avantages qui dépassent les possibilités d’un logiciel, par exemple des coprocesseurs pour accélérer le chiffrement SSL.
L’optimisation du WAN s’appuie sur la compression, la déduplication des données et des optimisations spécifiques à chaque protocole.
À l’instar de nombreuses applications d’entreprise, les systèmes de fichiers réseau tels que le CIFS (Common Internet File System) de Windows ont évolué à partir des réseaux locaux. Autrement dit, ils ont été conçus pour transférer des fichiers dans le cadre d’un bâtiment ou d’un campus, mais pas au niveau mondial. Ils sont donc souvent inutilement « bavards », c’est-à-dire que le client et le serveur conduisent une « conversation » soutenue au moindre transfert de bloc de données. Un tel fonctionnement est acceptable pour un LAN, où chaque transmission et accusé de réception ne prend que quelques millisecondes, mais il ne convient plus lorsque ces échanges se font sur de longues distances et que les délais s’additionnent.
Ce problème peut être contourné en installant un appliance d’optimisation à chaque extrémité de la liaison WAN. Il élimine en toute transparence ces conversations liées aux transferts de fichiers, et limite l’impact des délais du réseau. Les plus performants de ces appareils peuvent éliminer de 65 à 98 % des allers-retours sur le réseau.
Privilégiez les produits compatibles avec une large gamme de systèmes de fichiers réseau et de protocoles de réplication, y compris ceux qui gèrent des produits particuliers de stockage réseau. Par exemple, si vous utilisez des systèmes de stockage Symmetrix V-MAX et DMX d’EMC, assurez-vous de la compatibilité avec son protocole SRDF/A. Ce protocole de réplication asynchrone de fichiers sert souvent à la réplication entre centres de donnes ou vers des sites de reprise après sinistre.
Outre cette amélioration des protocoles, les systèmes d’optimisation du WAN réduisent considérablement la quantité de données effectivement envoyées, ce qui accélère la transmission et allège la charge du réseau. La bande passante requise pour transmettre un fichier peut souvent être réduite de 60 à 95 %.
Le système associe pour cela la compression des données et leur déduplication. Par exemple, supposons que vous deviez sauvegarder un répertoire de fichiers de traitement de texte, comprenant plusieurs brouillons d’un même communiqué de presse. Votre appliance WAN peut détecter qu’un bloc de données est le même qu’un bloc déjà transmis. Dans ce cas, au lieu d’envoyer de nouveau les données elles-mêmes, il envoie une référence que l’appliance à l’autre bout de la connexion utilisera pour extraire ces données de sa mémoire cache. Par conséquent, si chaque brouillon d’un document est à 95 % identique au précédent, l’optimisation du WAN vous permettra de ne transmettre que la petite partie qui diffère. Mieux encore, si des documents différents contiennent une section identique, elle ne sera transmise qu’une fois. Enfin, les données qui ne sont pas dupliquées peuvent encore être compressées (généralement d’un facteur 100) grâce à des algorithmes classiques comme Lempel-Ziv (LZ).
L’association de toutes ces méthodes (optimisations de protocoles, déduplication et compression) rend souvent 250 fois plus rapide le transfert d’un fichier via le WAN. Au final, la copie d’un répertoire entier de fichiers peut prendre 20 fois moins de temps et réduire de 98 % la bande passante nécessaire.
Les avantages sont évidents, chaque fois qu’un employé dans un bureau distant télécharge un manuel de procédures depuis le centre de données ou qu’une application de planification de fabrication extrait les dernières prévisions de ventes émises par le siège. Et si un serveur critique tombe en panne et doit être restauré à partir d’une sauvegarde hors site, l’optimisation du WAN montre tout son intérêt en accélérant considérablement la récupération des données sauvegardées et donc la reprise de l’activité. Comment bénéficier de tous ces avantages ? Il suffit de planifier de manière appropriée les stratégies réseau et stockage.
L’intégration des solutions Splunk sur la plateforme Microsoft Azure ouvre de nouvelles opportunités pour les…
Une tribune libre de Jan Gabriel, Directeur Alliances & Marketing, ITS Integra 2024 est malheureusement une…
Le marché de la cybersécurité continue de se transformer à un rythme effréné, poussé par…
Barracuda, spécialiste des solutions de cybersécurité « cloud-first », lance sa Partner Sales Engineer Community.…
La plupart des entreprises continuent de remplacer leurs équipements (ordinateurs, tablettes, smartphones) selon des cycles…
Westcon-Comstor poursuit sa transition vers un modèle basé sur des revenus récurrents, s'appuyant notamment sur…