Par Isabelle Albanese, Consultant APM Compuware
De la mutualisation des ressources…
Un site web est aujourd’hui une application beaucoup plus complexe qu’il n’y paraît au premier abord : le fond est désormais séparé de la forme et provient de plus en plus fréquemment de sources externes. Prenons l’exemple d’un site de e-commerce lambda. L’achat d’un produit en ligne, aussi simple soit-il, implique nombre de fonctionnalités qui ne sont pas directement issues de l’éditeur du site lui-même : un bloc « Fan » Facebook, une vidéo de promotion, un plan de localisation des magasins, une page de paiement, un bandeau publicitaire… Autant d’outils devenus monnaie courante qui cachent pourtant une structure complexe dans laquelle interviennent plusieurs parties prenantes externes. Sans parler des sites comparateurs de prix ou de réservation de billets d’avion dont les données proviennent exclusivement d’applications tierces.
En parallèle, avec l’avènement du fameux « Cloud », ces mêmes données peuvent désormais être stockées sur des serveurs mutualisés. Ainsi, des études montrent que sur un site web classique, plus de dix serveurs de données différents interviennent dans l’exécution d’une transaction, et la plupart d’entre eux proviennent de services cloud tiers. En d’autres termes, les éditeurs ne maîtrisent aujourd’hui qu’une infime partie de ce qui se passe sur leur site !
Cette dispersion des sources a toutefois du bon. Elle permet tout d’abord de diversifier et d’enrichir de façon notoire les services offerts par un site en faisant appel aux savoir-faire d’organismes dont c’est le cœur de métier (Google Maps pour les plans de localisation, YouTube ou Dailymotion pour les vidéos…). Concernant le Cloud, c’est aussi une formidable opportunité pour les éditeurs, d’une part de mutualiser les coûts en partageant leur hébergement, d’autre part de s’affranchir de toute la gestion de l’infrastructure sous-jacente à leur application. Un gain de temps et d’argent considérable qui leur permet de se concentrer d’abord sur leur activité.
… à la ventilation des performances
Mais l’intervention de tierces parties, quelles qu’elles soient, dans une application web pose également la question de la maîtrise des données qui sont transmises, mais aussi et surtout de la qualité et de la rapidité avec lesquelles elles le sont. Selon le baromètre 2012 des directions informatiques de T-Systems[1], l’un des principaux freins au Cloud Computing est la « perte de contrôle sur les données confiées à un tiers » (pour 47,3% des sondés). C’est le revers de la médaille : l’incapacité des éditeurs de sites à contrôler les performances des services issus de parties prenantes de plus en plus éparpillées.
En ne maîtrisant pas les performances des tierces parties intégrées à son site, on s’expose à des conséquences potentiellement désastreuses pour son activité : en cas de performances médiocres de ces fonctionnalités tierces, le site web concerné peut en effet subir une détérioration de ses propres performances voire une indisponibilité complète de ses services. Reprenons notre site lambda : un temps de chargement particulièrement long d’une page toute entière peut être simplement le fait d’une bannière publicitaire externe qui ne s’affiche pas. Pour le e-commerçant, c’est la quasi assurance de perdre un client, sans que lui ou son site n’en soit directement responsable.
Car on le sait, les bonnes performances d’un site web garantissent disponibilité et qualité de service à ses utilisateurs. Une page web qui s’affiche rapidement, sans temps de latence, est plus encline à capter l’attention d’un internaute et à l’inciter à pousser plus loin sa navigation sur le site, voire à transformer sa visite en achat le cas échéant. Ce que l’on sait moins en revanche, c’est que les performances applicatives ont également un impact sur les moteurs de recherche. Le temps de réponse d’un site entre en effet en ligne de compte dans son référencement naturel, au même titre que l’utilisation de mots clé, les titres de page, ou encore les rétroliens. Plus un site a un temps de réponse court, mieux il est référencé par les moteurs de recherche.
D’où l’importance de surveiller et d’optimiser les performances de son site. Mais quels que soient les efforts consentis par un éditeur pour améliorer les temps de réponse de ses pages, ceux-ci sont réduits à néant dès lors qu’ils ne sont pas suivis par les tierces parties qui alimentent son site. Faut-il pour autant remettre en question le schéma multipartite vers lequel tendent aujourd’hui la majorité des sites web ?
Le « big data » au secours des éditeurs
Ce serait sans compter sur les technologies « big data » qui fournissent aujourd’hui aux éditeurs de site web des solutions pour mieux anticiper et maîtriser les défaillances des services fournis par des tierces parties et par le Cloud. Grâce à un moteur de détection d’anomalies, ces outils « nouvelle génération » récoltent et traitent des quantités massives de données pour permettre aux éditeurs d’identifier automatiquement les incidents de performances tiers susceptibles d’impacter le bon fonctionnement de leurs applications. Chaque incident détecté peut ainsi être analysé pour en déterminer la source, la localisation, la gravité, la durée ou l’évolution. Autant d’éléments clés permettant à l’éditeur de prendre rapidement les mesures nécessaires pour limiter l’impact de tels incidents sur son propre site.
Qu’entendons-nous par mesures ? Bien que l’éditeur ne puisse pas, par définition, agir directement sur les problèmes de performances de services tiers, il peut néanmoins s’en prémunir tout en incitant ses partenaires à optimiser leur propre infrastructure. En effet, si l’éditeur identifie une baisse de performance en provenance d’une application externe, il peut choisir un affichage en mode dégradé, c’est-à-dire sans le contenu en provenance de la tierce partie en cause. Cela peut certes pénaliser l’utilisateur en rendant indisponible un service spécifique, mais c’est surtout l’émetteur du service défaillant qui en pâtit. Souvenez-vous : si notre e-commerçant choisit de ne pas afficher la publicité qui bloque le chargement de son site, il parvient à maintenir les performances de celui-ci tandis que l’annonceur perd en visibilité et réduit l’impact de sa campagne. De quoi inciter ce dernier à optimiser ses propres performances pour ne plus subir ce genre de censure – somme toute légitime.
Finalement, en investissant dans ces nouvelles solutions d’analyse massive d’incidents, les éditeurs se donnent les moyens de mieux gérer leurs performances applicatives en tenant compte de celles des services tiers qui alimentent – partiellement ou totalement – leur site. À partir de données chiffrées, précises et directement exploitables, ils se dotent d’arguments solides pour convaincre leurs partenaires d’optimiser leurs propres performances afin qu’aucune des parties prenantes à une application n’aient à subir les défaillances des autres.
Le marché de la cybersécurité continue de se transformer à un rythme effréné, poussé par…
Barracuda, spécialiste des solutions de cybersécurité « cloud-first », lance sa Partner Sales Engineer Community.…
Dans le cadre d'une enquête mondiale regroupant 1 800 participants au total, 200 décideurs informatique…
Lors du Dell Tech Forum, Dell Technologies est revenue sur les dernières avancées de sa…
TD SYNNEX France introduit TECHx, un nouveau format d’événements destiné à rassembler l’écosystème IT, incluant…
Invité à s'exprimer lors de la pleinière partenaires du Dell Tech Forum, Sébastien Verger, CTO…