Pour gérer vos consentements :
Actualités: ENTREPRISE

Non, l’informatique n’a pas vocation à être chère et compliquée !

Par Christophe Unrug , Vice-President Marketing ORSYP

… En effet, il est devenu fréquent voire normal que les projets informatiques d’une grande entreprise soient compliqués, longs et coûteux à mettre en place.  « La mise en place de notre ERP (Enterprise Ressource Planning  ou Progiciel de Gestion intégré), a demandé 18 mois » dit tel directeur informatique. « L’intégration de notre nouveau Data Center va prendre plus six mois » déplore tel autre. Et ne parlons pas des coûts. Si les grandes entreprises parviennent  à bien négocier les prix des produits avec les éditeurs de logiciels ou les constructeurs de matériel, les coûts annexes (maintenance, mises à jour…) ne cessent d’augmenter.

« Long, compliqué, cher… »,  le discours est tellement habituel qu’il est presque suspect de prétendre déployer une solution informatique en peu de temps et avec un Retour sur Investissement (ROI) quasi immédiat. « Ce n’est pas possible. Ce n’est pas un bon produit. Il n’est pas complet» argumentent les sceptiques, soutenus en cela par les grands fournisseurs – le plus souvent anglo-saxons –  dont l’unité de mesure est le million de dollars.

Même les solutions ouvertes (Open Source) n’échappent pas au débat. Elles permettent certes de réduire les coûts de développement mais pas les coûts d’intégration et de déploiement qui restent similaires à ceux engagés pour mettre en place des solutions commerciales. Par ailleurs, les offres en Open Source sont encore loin de couvrir toute la sphère nécessaire à l’entreprise.

Alors, n’y a-t-il vraiment aucune alternative ? L’entreprise est-elle condamnée à payer beaucoup et longtemps pour bien faire fonctionner son informatique ? 

Non, la situation n’est pas irrémédiable. Si les grands logiciels ont leur place sur le marché et répondent à certains besoins, Il existe parallèlement des solutions qui permettent d’optimiser la productivité informatique de l’entreprise sans que celle-ci soit obligée d’investir des fortunes dans leur acquisition, leur intégration et leur maintenance. Des solutions dont le ROI est quasi-immédiat et dont les effets ont des conséquences positives non seulement sur l’activité IT de l’entreprise mais sur tout son business en général. Car ces logiciels, développés par des éditeurs de taille moyenne, spécialisés sur un secteur d’activité et fins connaisseurs de leur marché, se mettent en place rapidement et proposent aux utilisateurs une prise en main immédiate sans devoir passer par de longues semaines de formation.  Mais surtout, en réduisant les temps d’intégration et les difficultés d’utilisation, ces applications vont permettre à l’entreprise de redéployer les ressources humaines de son service informatique vers d’autres tâches plus productives et à plus grande valeur ajoutée. Et in fine de diviser par 5, 10 voire 30 le TCO (Coût Total de Possession) du produit.

A travers cet exemple, il s’agit de mettre en avant deux réalités qui sont malheureusement souvent oubliées en France :

1) Un éditeur de logiciel n’est pas obligé d’être américain et de réaliser plusieurs milliards de dollars de chiffre d’affaires pour être leader sur son marché et faire de bons produits

2) L’entreprise n’est pas obligée d’investir des centaines de milliers d’euros dans une « usine à gaz informatique » quand elle a juste besoin d’un outil spécifique qui remplit parfaitement la tâche que l’on attend de lui. Les usines à gaz continuent d’enrichir les grands éditeurs de logiciels qui sous prétexte de proposer plus, vendent plus cher. Mais qui utilise toutes les fonctions de Word ou Excel ?

La situation est d’autant plus intolérable lorsque le logiciel en question ne parvient même pas, malgré son coût, son temps de déploiement et sa complexité à remplir correctement le rôle que l’on attend de lui. 

A l’heure où l’on parle de réduction des coûts et de recherche de productivité, il est temps que les directions informatiques mais aussi les directions générales, financières et opérationnelles mettent leur stratégie en adéquation avec les réels besoins de l’entreprise. 

Gérard Clech

Articles récents

Du Shadow AI à la résilience numérique : les chantiers critiques des directions cyber

Alors que les directions cybersécurité doivent composer avec une pression réglementaire croissante, la montée en…

1 jour années

Distribution IT : la stratégie du VAD Westcon décryptée par son country manager, Sébastien Asseman

Le marché français de la distribution IT traverse une phase de rationalisation, marquée par des…

2 jours années

« Contrôler, plutôt qu’interdire » : du réseau à l’application, Zscaler défend une sécurité Zero Trust native

Alors que de plus en plus d’organisations délaissent les approches réseau traditionnelles au profit d’architectures…

2 jours années

De l’ITSM à la cyber : comment unifier la gestion des postes, des accès et des incidents ?

Alors que la consolidation des solutions de cybersécurité devient une priorité, la capacité à unifier…

2 jours années

RETEX MSSP : VFLIT mise sur la proximité pour accompagner les PME sur leurs enjeux cyber

La pression croissante sur les PME en matière de cybersécurité bouleverse les équilibres du marché.…

2 jours années

Ukraine : décryptage d’une campagne de cyberespionnage

Les équipes de HarfangLab ont mis en lumière une campagne de cyberespionnage toujours en cours,…

2 jours années