Carte blanche à Laurent Clerc, Responsable Offre DataCenter chez NEC IT Platform Solutions
Quelle est votre vision sur l’évolution du Cloud en France pour ces prochaines années ?
Lorsque le Cloud est inclut dans une stratégie d’entreprise, il est pour la grande majorité (71%) (1) associé au Cloud privé. En effet, le Cloud privé est plébiscité dans une grande majorité par les DSI car ils souhaitent en priorité garder le contrôle de leurs bases de données. C’est d’ailleurs une des questions principales que se posent les entreprises et collectivités. Comment s’assurer de la confidentialité des données ? Comment savoir où elles se trouvent ?
L’autre point d’interrogation est celui du niveau de service. En effet, sous traiter revient certes à déléguer les problèmes mais aussi la gestion de la performance : l’informatique n’échappe pas à cette règle et se retrouve dans la même cour que la sous-traitance industrielle. L’information est devenue une matière première et l’informatique sa chaîne logistique.
Aller vers le Cloud c’est finalement rationnaliser son Système d’Information comme on a su rationnaliser les Supply-Chain en leur temps.
C’est pourquoi, il me semble que les DG et les DSI de structures de taille moyenne qui souhaiteront externaliser, le feront en priorité dans des data center offrant un service plus personnalisé et de proximité. De même, ceux-ci seront plutôt de taille départementale et intégrés à l’éco système régional.
C’est là que réside une grande partie des enjeux de demain : associer services et salle de machines automatisées. Une flexibilité qui s’exprime également sur le plan de la tarification qui est aujourd’hui facturée en fonction de l’utilisation.
Selon vous, quels sont les principaux avantages d’une architecture IT en Cloud public ou privé pour l’entreprise ?
Tout dépend de la stratégie du PDG et de ses attentes vis-à-vis de sa « boite noire ». La décision de se diriger vers du Cloud doit être prise par la très haute hiérarchie managériale car cette démarche d’externalisation est transversale et impacte toute l’entreprise.
Le cloud privé va apporter des gains immédiats en matière de simplification, réduction du nombre de machines et de processus, puis une évolutivité et une performance plus grande. En contrepartie, la transition va demander un investissement humain et financier pendant l’année de changement. Nous sommes ici dans une démarche de contrôle de l’outil qui vise l’intégration avec le métier de l’entreprise.
Le cloud public va permettre de se délester des immobilisations et des investissements réguliers et de faire varier les dépenses selon les besoins de l’entreprise. En contrepartie, il faudra mener un projet de transition vers le ou les data center sélectionnés et savoir piloter par la suite la performance de ceux-ci. L’équipe IT devra acquérir des compétences juridiques et achats.
L’erreur à éviter serait de visualiser les gains de la première année, choisir le moins distant, et de ne pas anticiper tous les risques comme les coupures de réseau, l’entretien irrégulier des systèmes de climatisation, les lenteurs d’accès et de support ou encore la rigidité des processus et des services.
De par votre expérience, et vos retours clients, quelles sont les problématiques rencontrées en interne par les DSI ?
La première problématique récurrente est le manque de visibilité accru sur les processus transversaux de l’entreprise et le lien entre l’IT et le management.
Je pense que l’informatique est aujourd’hui encore trop une affaire de budget d’achat. En effet, le DSI est souvent confronté à la gestion d’un budget d’investissement pas toujours évident à défendre et d’un budget de fonctionnement réduit. De fait il est souvent contraint de transformer l’équation : « Coût de consommation final = coût d’achat + coût de possession + coût de passation + coût de non qualité + coût de rupture » en « Coût de consommation final = coût d’achat ». C’est d’ailleurs souvent une erreur que nombre d’acheteurs auront faite avant lui à cause des mêmes contraintes.
De plus, la plupart du temps, le management et les utilisateurs ont le sentiment que l’informatique se résume à « l’ordinateur » : dans l’inconscient collectif, l’informatique est perçue comme devant être aussi fiable et simple qu’une télé. Mais ce n’est pas le cas surtout avec la convergence « réseau, serveurs, stockage, virtualisation et décentralisation des usages ».
En ayant vu et vécu des processus d’externalisation de production, les achats avaient toujours la solution idéale. Rapportée au coût de revient unitaire, c’est une réalité, mais en incluant une année de production, avec tous les impondérables (l’environnement, les recadrages stratégiques…). Un sous traitant plus proche ou un peu plus cher, voire parfois une maîtrise interne auraient été bien plus profitable et efficace à l’entreprise. Une recommandation du reste de l’un de nos partenaires « optigreen » est de n’externaliser que ce que le sous traitant maîtrise parfaitement et dont on peut assurer la gouvernance.
On retrouve cette même problématique avec la pratique du Cloud. Il faut que l’entreprise mesure correctement ses besoins et puisse envisager les problématiques de fonctionnement de ses différents services. Par exemple, l’approche de NEC IT Platform Solutions sur le Cloud est de gérer CETTE mesure au travers d’un écosystème de partenaires dédiés qui raisonnent de manière globale.
D’après vous, la mise en place d’une telle infrastructure nécessite t‘elle une réorganisation au niveau du management de l’entreprise et de l’environnement IT?
Cela nécessite plus de confiance de la part de la direction et la mise en place d’indicateurs sur la performance de l’outil informatique. Si le management a travaillé de concert avec le DSI et que les changements s’inscrivent dans une approche globale, alors les indicateurs s’imposeront d’eux-mêmes.
Il ne faut pas focaliser non plus sur l’ERP ou le mail car beaucoup de données sensibles, sont aussi stockées sur les portables des collaborateurs. Il faut aussi compter avec tous les acteurs de l’environnement de l’entreprise (fournisseurs, banque, Etat, clients) et toutes les « petites » adaptations faites aux logiciels ou process propres aux particularités de l’entreprise.
L’informatique n’est qu’un support de traitement des informations. De nos jours, c’est une véritable denrée économique : « L’information, cela se stocke, se traite et se vend ! ». Et je suis bien persuadé qu’il ne faut pas la traiter comme un parc de voitures que l’on transfère chez un loueur mais comme un système d’information que l’on se doit de piloter.
Quel rôle doivent tenir les Data Centers ?
Celui d’un professionnel de la gestion des systèmes d’information et de services de proximité capable non seulement de comprendre les contraintes de ses clients mais aussi de les aider à gagner en souplesse et en visibilité. Le data center devra également fournir de façon proactive des rapports de performance et de sécurité et travailler avec ses clients pour développer de nouveaux services.
Sur ce dernier point, il faut noter que tous les data centers ne se ressemblent pas, tout comme les sous traitants de production : grosse multinationale, importantes séries ultra rationnalisées ou PME petites séries ultra personnalisées.
La rationalisation de
l’outil informatique peut indéniablement améliorer la performance globale, ce n’est jamais que la conséquence technique d’une politique de développement et d’objectifs à atteindre. Finalement, pour réussir sa transition vers le Cloud, il ne s’agit pas de choisir le bon matériel avec le bon logiciel mais de franchir tous les processus et toutes les étapes intelligemment.
(1) Selon une étude menée en 2010 par le cabinet Pierre Audoin Consultants auprès de quelque 200 directeurs informatiques français.