Pour gérer vos consentements :
Actualités: TENDANCES

La gestion du mainframe dans un monde informatique de plus en plus complexe.

Par Véronique Dufour-Thery, South Europe Regional Director pour Compuware Mainframe.

L’informatique fait partie de ces mondes qui peuvent subir des transformations spectaculaires en très peu de temps. Malgré les nombreuses innovations, le mainframe s’inscrit toujours au cœur de la stratégie de l’entreprise et devrait conserver sa place pendant de nombreuses années encore. Mais qui dit grande importance, dit grandes responsabilités. Notre dépendance à la technologie est conséquente, nos attentes à l’égard du système ne cessent de s’accroître, et la moindre panne peut entraîner des dommages irréparables. Une tâche d’autant plus lourde à porter pour le mainframe qu’il reste un mystère pour beaucoup ; les inefficacités de ce dernier ne sont pas toujours détectées, les coûts augmentent et les problèmes rencontrés sont plus longs à résoudre.

Malgré un rôle bien établi au sein des Systèmes d’Information, même le plus puissant des mainframes a dû s’adapter et subir des transformations pour survivre dans le nouveau monde moderne. C’est un fait – il ne doit plus se limiter à délivrer des applications internes à des employés patients et acceptant d’attendre « le temps qu’il faudra » pour accéder à une application ou obtenir les données dont ils ont besoin, mais aussi distribuer des applications s’adressant à des internautes. En raison de la consumérisation de l’informatique qui fait penser à chacun qu’il est un expert informatique, il doit faire face à des utilisateurs de plus en plus exigeants. La gestion des performances est donc plus importante que jamais.

Si le mainframe doit sans cesse atteindre des records de rapidité, la complexité grandissante de l’environnement informatique ne facilite en rien sa gestion. Nous sommes entrés dans une ère où l’informatique est ultra-distribuée : l’arrivée des terminaux mobiles, du cloud, de la virtualisation et l’explosion des nouvelles applications, des équipements et des services de données obligent le mainframe à s’intégrer avec toute une gamme de technologies qui n’existaient pas quand le Mainframe a été créé. Les performances du cloud, de la virtualisation, et des services et applications mobiles étant intrinsèquement liées au mainframe, le moindre problème survenant au cœur du système peut avoir des répercussions à tous les niveaux de l’infrastructure. Face à l’augmentation de la consommation de MIPS et aux évolutions technologiques, le mainframe doit garantir des performances supérieures.

Plus les liens sont nombreux sur la chaîne de distribution des applications, plus les risques de défaillances sont grands. L’intégration d’une nouvelle application peut donc présenter un certain nombre de risques, et le moindre changement avoir des répercussions sur l’environnement informatique tout entier, jusqu’au mainframe. Par ailleurs, nombre d’entreprises se basent encore sur des « moyennes » pour identifier les problèmes de performance et n’en ont pas toujours connaissance avant que les clients ne se plaignent. Le processus de résolution peut donc s’avérer extrêmement difficile et long, surtout lorsqu’il s’agit d’identifier les causes du problème et d’isoler l’endroit où il s’est produit. Il peut s’écouler des mois avant que les équipes ne parviennent à comprendre le dysfonctionnement d’un système. Cette mobilisation des ressources et des compétences est non seulement coûteuse mais constitue un véritable frein à l’innovation.

 

L’informatique est intégrée…pourquoi pas les équipes ?

La fusion des anciens et nouveaux systèmes présente des avantages à plusieurs niveaux : elle favorise l’agilité et l’innovation, tout en conservant un cœur de Système d’Information solide. Les développeurs originels des applications mainframe ont laissé leur place à une nouvelle génération de programmeurs habitués à utiliser des kits SDK modernes, créant ainsi un véritable écart de compétences.

La culture du cloisonnement est encore bien ancrée dans les entreprises, avec une personne chargée du développement, une autre du réseau et une autre chargée du mainframe, etc. Si cette stratégie peut sembler intéressante d’un point de vue pratique, le nouveau monde informatique qui est par nature intégré, requiert une équipe tout aussi unifiée et intégrée pour le gérer.

Ces services cloisonnés entraînent toutes sortes de problèmes et empêchent les équipes de prendre du recul et d’avoir une vue d’ensemble de la situation. Cette visibilité limitée ne permet pas de comprendre rapidement les interactions qui ont lieu en arrière-plan entre les différentes technologies. Par exemple, si une application distribuée a été développée de manière à générer de multiples transactions au niveau du mainframe, les coûts vont augmenter. Si un changement intervient dans les couches serveur, cela pourra ralentir le mainframe. Si certains problèmes sont faciles à repérer, d’autres sont en revanche plus subtils, comme par exemple une hausse de la consommation de MIPS.

Ce cloisonnement engendre également un problème au niveau de la possession. Lorsque les équipes sont divisées, elles ont tendance à communiquer sur un mode « binaire ». Ainsi, au lieu de chercher ensemble une solution, certaines personnes risquent de « rejeter la responsabilité » sur d’autres, ralentissant inévitablement le processus de résolution. Ce manque de communication et de partage de connaissances est une véritable bombe à retardement surtout quand on sait que les compétences autour du mainframe tendent à s’épuiser.

Que feront les entreprises lorsqu’elles n’auront plus les ressources requises ?

Moderniser le mainframe

Le mainframe est sans conteste beaucoup plus complexe qu’auparavant. Nombre d’entreprises ne se sont pas encore adaptées aux changements et continuent d’utiliser des processus archaïques pour gérer les performances. Si la gestion des performances des applications est indispensable dans l’environnement distribué, le mainframe est considéré comme une boîte noire, obligeant les équipes informatiques à avancer à l’aveugle et à résoudre les problèmes sans presque aucune visibilité. Le mainframe étant désormais utilisé comme un levier pour supporter les applications distribuées, les entreprises doivent adopter une approche innovante basée sur le suivi continu des transactions à travers les différentes plates-formes..

En associant une visibilité de bout en bout de l’utilisateur jusqu’au mainframe à un suivi continu en temps réel des transactions applicatives, les entreprises vont pouvoir faire le pont entre les différents silos des organisations informatiques. En procédant à une analyse approfondie des « root causes » des problèmes, elles pourront également améliorer l’efficacité du code, le temps de réponse des transactions et la capacité de traitement tout en simplifiant l’identification et l’optimisation des appels aux bases de données consommateurs en ressources. Toutes ces mesures contribueront à diminuer la consommation MIPS et à accélérer la résolution des problèmes. L’adoption d’une approche proactive de la gestion des performances applicatives les aidera enfin à prévenir les problèmes et à corriger à temps les inefficacités

Gérard Clech

Articles récents

« Apporter des solutions simples à des menaces complexes » : Entretien avec Benoit Juvin, Responsable Channel de Barracuda

Le marché de la cybersécurité continue de se transformer à un rythme effréné, poussé par…

9 heures années

Avec sa Partner Sales Engineer Community, Barracuda entend fédérer la communauté des revendeurs et MSP

Barracuda, spécialiste des solutions de cybersécurité « cloud-first », lance sa Partner Sales Engineer Community.…

15 heures années

2,8 % de pertes de CA annuel : l’impact financier des cybermenaces pour les entreprises est connu

Dans le cadre d'une enquête mondiale regroupant 1 800 participants au total, 200 décideurs informatique…

19 heures années

Dell Tech Forum : à la découverte des dernières innovations IA de Dell

Lors du Dell Tech Forum, Dell Technologies est revenue sur les dernières avancées de sa…

1 jour années

Avec TECHx : TD SYNNEX part à la rencontre de ses revendeurs en France

TD SYNNEX France introduit TECHx, un nouveau format d’événements destiné à rassembler l’écosystème IT, incluant…

1 jour années

Dell Tech Forum : l’IA au service du Channel ? Retour sur l’intervention de Sebastien Verger, CTO Dell France

Invité à s'exprimer lors de la pleinière partenaires du Dell Tech Forum, Sébastien Verger, CTO…

2 jours années