Stéphane Duproz, directeur général de TelecityGroup France s’intéresse aux coûts et aux performances des applications cloud
Nous connaissons tous les avantages du Cloud Computing. L’entreprise loue un service applicatif et ne paie, en théorie, que ce qu’elle consomme en puissance machine et besoins logiciels. On oublie pourtant un peu vite le talon d’Achille de ce mode de consommation : la performance réseau.
Avant le Cloud, l’entreprise accédait à son application située dans un centre de données interne ou externe, au travers de son propre réseau Lan ou Wan. La capacité de bande passante était alors garantie. Tout l’inverse de la configuration cloud public d’aujourd’hui où, lorsque l’entreprise se connecte au logiciel de son prestataire en passant par Internet, elle doit se frayer un passage au milieu des autres utilisateurs pour accéder à ses données. Elle se retrouve soumise aux aléas du trafic réseau.
Une disponibilité des applications aléatoire
La performance de son application fluctue en fonction des téléchargements et des sollicitations du réseau planétaire. L’accès aux données devient encore plus incertain dès lors que plusieurs services Cloud doivent dialoguer : un logiciel de gestion de la relation client avec un système de messagerie, par exemple. Un certain nombre d’observateurs estime d’ailleurs que nous pourrions, à brève échéance, nous retrouver confrontés à un risque de saturation d’Internet en France. En particulier avec l’émergence de services très gourmands en bande passante comme la vidéo à la demande.
Si l’entreprise s’en tient à ce schéma, elle bénéfice alors partiellement des avantages de l’informatique à la demande : un accès à bas coût et l’absence de frais récurrents. Mais elle subit les désagréments d’une connectivité de piètre qualité. Une alternative existe qui consiste à demander à un opérateur de réserver une capacité de bande passante. Une option évidemment bien plus coûteuse. Car l’entreprise se trouve alors confrontée au paradoxe de payer des frais fixes pour un accès au réseau qu’elle n’utilisera que ponctuellement. Ce cas de figure s’avère, qui plus est, antinomique avec le principe du Cloud Computing où l’on n’est censé payer que ce que l’on consomme.
Finalement les entreprises sont contraintes de choisir soit un modèle correspondant aux principes de l’informatique à la demande mais soumis à des fluctuations de performance – sur Internet – soit, si elles veulent se prémunir de ce désagrément, un système incluant la réservation d’une ligne dédiée, au budget bien plus élevé. Curieusement, cette dichotomie entre coût et performance à laquelle sont confrontées la plupart des entreprises demeure un sujet majeur peu évoqué aujourd’hui.
Disposer d’une multitude d’opérateurs et de points d’échange
Il est pourtant possible de garantir un accès performant à ses applications Cloud sans débourser un loyer permanent correspondant à une bande passante réservée. Certains acteurs sont désormais capables de s’engager dans cette voie intermédiaire : les opérateurs de datacenters dits « neutres ». Ils disposent pour cela de quelques atouts. D’abord de la capacité à rassembler dans un même espace un écosystème composé des fournisseurs de Cloud et de leurs clients potentiels, hébergés dans un grand nombre de centres de données reliés par un réseau privé, géré par l’opérateur de datacenters lui-même.
L’autre avantage réside dans l’offre d’accès privilégié aux points d’échange Internet (IXP) qu’ils hébergent. Rappelons que, contrairement à l’idée véhiculée dans l’imaginaire collectif, Internet n’est pas un réseau monolithique. Il s’agit d’un ensemble de réseaux privés gérés par différents opérateurs qui s’interconnectent au niveau de points d’échange, véritables carrefours de circulation entre les flux des opérateurs. En Europe, les plus connus sont le London Internet Exchange (Lynx) à Londres, l’AMS-IX à Amsterdam, le DE-CIX à Francfort et France-IX dans l’Hexagone. Par nature, les opérateurs se regroupent dans des endroits neutres pour interconnecter leurs réseaux et ainsi s’échanger du trafic. Ce qui explique la grande concentration de ces points névralgiques dans des centres de données indépendants, n’appartenant à aucun opérateur télécom. Cette concentration d’opérateurs optimise nécessairement les échanges entre les acteurs en présence.
En hébergeant son informatique dans ces centres, l’entreprise dispose donc d’un accès direct à une multitude d’opérateurs et évite, au passage, les frais souvent onéreux de raccordement au réseau ou frais d’accès « au dernier kilomètre ».
Des connexions dédiées, en mode « à la consommation »
On peut également compter sur de nouvelles solutions de connexions privées, mises à disposition par les grands acteurs du Cloud, pour offrir un accès à leurs services en mode « à la consommation ». Amazon donne ainsi accès à ses solutions Cloud au travers de son offre Direct Connect et Microsoft Azure au travers d’XpressRoute : des alternatives permettant de s’affranchir des performances aléatoires d’Internet, à moindre coût. Mais encore faut-il que ces solutions de connexions privées, hébergées dans quelques datacenters à travers le monde, soient elles-mêmes accessibles en mode « à la consommation ». Pour ce faire, certains datacenters neutres ont également développé des solutions de raccordement « à la consommation » vers les solutions Cloud hébergées dans leur réseau de datacenters. Ce nouveau mode de raccordement a pour avantage d’offrir un accès au Cloud qui réconcilie 3 des piliers fondateurs du modèle : la sécurité, la performance et le paiement à la consommation.