par Dominique Morvan, Directeur Général de Internet Fr, hébergeur et infogérant
… Après le Web 2 qui n’a pas succédé au Web 1, inconnu au bataillon de la notoriété, le SaaS qui a effacé l’ASP, venu un peu tôt, le Network Computer, mort juste après avoir été baptisé, le CC est-il une révolution qui a un avenir ou une simple évolution mise en lumière, faute d’avoir un autre sujet ?
Comme toujours, c’est le futur qui apportera la réponse quand la mémoire de la majorité aura oublié l’effet d’amplification du moment. Mais il est intéressant de se pencher sur le phénomène et de le disséquer pour mieux le comprendre. En effet, des révolutions ont eu lieu qui lui ressemblent, et qui sont passées relativement inaperçues. Des constructeurs informatiques, autrefois célèbres, ont disparu, (Control data, Compaq,…) parce que les prix du hardware ont baissé et que des standards techniques se sont imposés. D’autres sont apparus parce qu’ils ont su prendre le sillage de ces standards et adopter d’autres modèles économiques (Dell, Acer). Les constructeurs leaders ont continué de grossir (IBM, HP) parce qu’ils ont ajouté la maîtrise des services à leurs prestations.
Il est légitime de se poser la question pour ce métier « d’hébergeur Internet » vieux de tout juste 10 ans, alors que des géants d’autres métiers annoncent qu’ils vont venir sur ce terrain avec des moyens gigantesques. Sur le marché français, les leaders sont des sociétés de petites tailles qui ont su à la fois créer une infrastructure performante et répondre aux attentes des clients locaux, par des produits et des services adaptés. Les poids lourds étrangers spécialisés s’y sont cassés les dents les uns après les autres.
La nouvelle vague qui s’annonce avec les trompettes du Cloud Computing est déjà présente sur ce marché, avec d’autres offres (Microsoft, Google, Amazon, …). Elle ne recommencera pas les erreurs d’analyse de la première vague et au-delà du concept, les produits mis à disposition des clients français vont répondre aux attentes d’aujourd’hui. On peut, donc, légitimement se poser des questions sur le devenir du métier de l’hébergement Internet. Et ce à plusieurs titres. En effet, les nouveaux offreurs vont apporter progressivement (cela va prendre 2 à 3 ans encore, avant d’être suffisamment compétitif) des produits innovants, relativement bon marché au départ, avec des capacités infinies.
Mais si des acteurs qui n’avaient rien à voir avec cette activité, jusque là, y viennent, il faut se poser la question du pourquoi. Très vite, on dépasse l’écran de fumée de l’excès de capacité pour leurs besoins propres, la moralisation de la mutualisation de grosses surfaces d’hébergement pour rester en phase avec la bonne conscience du green IT, tout en déversant des tonnes de CO2 dans l’atmosphère, pour comprendre que fournir des solutions d’hébergement d’applications web ou des solutions Saas à des entreprises et à des particuliers, c’est pouvoir surveiller les comportements et les besoins des acheteurs que constituent ces catégories socio professionnelles.
Disposer d’armées de visiteurs, c’est pouvoir attirer les budgets publicitaires qui sont en train de quitter les médias traditionnels. Mais disposer d’informations sur leurs comportements, leurs attentes, leurs goûts, c’est pouvoir inventer d’autres services à l’intention des annonceurs, tel que le fameux marketing one to one : aussitôt un besoin découvert, aussitôt un produit brandi.
Les particuliers vont bien évidemment adhérer à ces nouveaux services innovants et gratuits dans un premier temps. Mais les entreprises, en particulier celles qui ont une activité originale à protéger, se poseront toujours la question de la sécurité et de la confidentialité. Leur recherche d’économies ira au-delà de la simple infrastructure et du matériel. Elle portera aussi sur les services, et en particulier l’expertise et la compétence. C’est, en particulier, dans cette direction que les entreprises de l’hébergement devront se développer et innover. La proximité des clients et des structures spécialisées permettront aux sociétés performantes et compétentes de rester des leaders. Leurs infrastructures permettront de mieux garantir sécurité et confidentialité. Et même, leur réactivité donnera de meilleures garanties à leurs clients vis-à-vis de la législation qui évolue régulièrement dans le sens de protéger, respecter ou faire respecter simultanément, le consommateur, la propriété intellectuelle, les contenus, la jeunesse, la discrimination, etc…
La multiplication des services, réel avantage pour les sociétés clientes ?
Le marché de l’hébergement est un secteur très compétitif et on constate une multiplication des services afin de se différencier pour ne plus entrer dans une nouvelle guerre de prix. Ce qui baisse régulièrement depuis les débuts de l’informatique, c’est le prix unitaire de la puissance de calcul et des consommables qui se consomment massivement avec.
La guerre des prix est permanente, et continuera de l’être. Mais l’augmentation de la puissance se fait avec une accélération de la complexité. Cela demande des compétences, des ressources humaines et donc des services appropriés.
Un modèle historique de service, la régie des ressources humaines en informatique, a subi la guerre des prix. Le prix de l’homme x jour atteint en ces périodes de crise des minima (300 euros) qui étaient des prix moyens au milieu des années 80. Mais si les prix de la régie ont globalement fluctué du haut vers le bas, le modèle économique n’a pas changé depuis les années 60. Un intervenant continu d’être vendu « au mois ».
Les sociétés d’hébergement, en particulier celles pratiquant l’infogérance, ont toutes innové, en créant des services forfaitisés, qui incluent des interventions « à la minute ». C’est une véritable innovation dans le secteur des services informatique qui est passée inaperçue. Elle répond aux recherches permanentes d’économies d’aujourd’hui. Il est difficile d’imaginer que les entreprises puissent s’en passer. C’est là un réel avantage pour les clients.
Le Cloud Computing peut-il déstabiliser le marché de l’hébergement ?
Elle peut le déstabiliser sous deux angles :
– Le premier est celui des nouveaux arrivants qui annoncent des infrastructures et des produits à faire rêver. Mais le rêve s’étiole vite avec les premières pannes géantes de ces acteurs et leurs abus de position dominante étalés dans la presse. Il est néanmoins certain que des dizaines de milliers de mètres carrés de data center sont de nature à plus impressionner les clients potentiels que quelques centaines de baies, dans un petit data center. L’avenir en dira plus sur la fiabilité et la sécurité de telles « Compute Parties », organisées en plein champ ou pleine mer.
– Le second est celui de la densification de la puissance de calcul. En effet, un data center d’aujourd’hui fait cohabiter des machines Intel Xeon multi-coeur de dernière génération avec des machines d’à peine 5 ans d’âge, par milliers. Les serveurs à lames de dernière génération, riches en RAM, seront capables de concentrer dans une seule baie la même puissance de calcul que celle accumulée dans un data center de 250 M2. Mais comme cela va se faire au prix d’une augmentation colossale de la consommation électrique de la baie, beaucoup d’infrastructures existantes vont être frappées d’obsolescence rapidement, sur le plan électrique (groupe électrogène, onduleurs ou volants d’inertie, distribution électrique), comme climatique (insuffisance de
s groupes de refroidissement). Des travaux devront être entrepris par la quasi-totalité des acteurs, soit pour renforcer les salles existantes, soit pour en créer de nouvelles. Ainsi, les baies d’il y a cinq ans ont été conçues pour distribuer 3 à 4 KW électriques. Il en faut une dizaine aujourd’hui pour accueillir les machines de dernière génération, et il en faudra vingt à trente dans les 3 à 4 ans.
Une nouvelle technologie sur le marché de l’hébergement
La technologie s’inscrit en plein dans le marché de l’hébergement, comme une évolution naturelle, puisqu’elle s’appuie sur l’évolution des systèmes d’exploitation vers la virtualisation. Elle facilite la conception d’architectures techniques modulaires et évolutives, sécurisées et redondées. Tout en concentrant la puissance de calcul dans un volume plus restreint.
Une valeur ajoutée pour les hébergeurs
C’est une valeur ajoutée dans la mesure où elle permet d’apporter aux clients une réponse à leur besoin de croissance rapide. Et comme elle demande une compétence de très haut niveau, et rare, c’est une valeur ajoutée qui constitue un privilège à ce jour pour la profession.
Evolution naturelle de l’activité
Absolument, tout comme on est passé de l’hébergement de « tours » à l’hébergement de « boîte à pizza », de serveurs à faibles capacités de disques en gigaoctets, à l’utilisation de baies de stockage en teraoctets, de bande passante en centaine de mégabps, en dizaine de Gigabps, de monoprocesseurs à des multiprocesseurs, du simple hébergement à des solutions en PRA.
Avantages de la technologie pour les hébergeurs
Les grandes entreprises elles-mêmes rechignaient pour des raisons de prix, à adopter des architectures en PRA pour l’augmentation de la disponibilité des applications périphériques de leur système d’information. Les solutions qui relèvent du Cloud Computing facilitent la construction de telles solutions.
Le Cloud Computing va-t-il permettre la virtualisation des data centers ?
Il s’agit d’une évolution possible. Déjà, à ce jour, le métier d’hébergeur peut être l’empilage de plusieurs couches de prestations :
-le « houser » qui fournit les baies,
-l’infogérant de plates-formes qui rajoute une architecture de réseau,
-l’exploitant d’application qui gère le client final en direct.
De nouveaux acteurs pourront apparaître dans la mesure ou une grande puissance de calcul pourra être disponible dans une infrastructure plus petite
L’avenir des hébergeurs
Il faudra compter avec les nouveaux offreurs du Cloud Computing, quitte à utiliser ou à intégrer leurs offres dans des services plus complets. Au plus haut niveau, on trouvera des sociétés, dont de nouveaux acteurs, disposant d’une forte compétence, horizontale ou verticale, capables d’exploiter des architectures très complexes, sous hautes contraintes, de clients soucieux de sécurité et de confidentialité.
Les offreurs actuels de solutions low cost (serveurs dédiés à bas prix, serveurs virtuels nus, pack d’hébergement mutualisés) seront les plus exposés dans un premier temps, car il leur sera difficile d’apporter des offres compétitives avec celles des nouveaux arrivants. Ils devront innover ou évoluer vers d’autres services. Mais, c’est ce qu’ils ont fait depuis leurs débuts, ils sont donc taillés pour cela.
L’intégration des solutions Splunk sur la plateforme Microsoft Azure ouvre de nouvelles opportunités pour les…
Une tribune libre de Jan Gabriel, Directeur Alliances & Marketing, ITS Integra 2024 est malheureusement une…
Le marché de la cybersécurité continue de se transformer à un rythme effréné, poussé par…
Barracuda, spécialiste des solutions de cybersécurité « cloud-first », lance sa Partner Sales Engineer Community.…
La plupart des entreprises continuent de remplacer leurs équipements (ordinateurs, tablettes, smartphones) selon des cycles…
Westcon-Comstor poursuit sa transition vers un modèle basé sur des revenus récurrents, s'appuyant notamment sur…