Pour gérer vos consentements :
Actualités: TENDANCES

« Le Big Data n’est pas un marché en soi » c’est une spécialiste du Gartner qui le dit

Le Gartner a récemment publié une note de recherche sur le Big Data, « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », dont Silicon.fr s’en est fait l’écho dans l’article « Big Data : 232 milliards de dollars de dépenses IT jusqu’en 2016 » 

Roxane Edjlali, Gartner

Roxane Edjali, analyste spécialiste du Big Data au Cabinet Gartner, revient sur cette étude en répondant aux questions de notre confrère de Silicon.fr Yves Grandmontagne. Et ses propos remettent les faits en perspective…

Y a-t-il véritablement un marché du Big Data et pourquoi avez-vous exclu le matériel de votre étude ?

Roxane Edjali : Si le potentiel des dépenses IT liées au Big Data est conséquent, 232 milliards de dollars d’ici à 2016, à l’initial c’est un marché composite, mais pas un marché en soi. Je ne pense pas qu’il va donner lieu à un marché en tant que tel. Le Big Data est plutôt une conjonction d’évènements. Ce sont les technologies qui le composent et sa volumétrie qui viennent étendre le marché. Partant de cette constatation, les marchés impliqués sont liés au logiciel et au stockage. C’est pourquoi nous avons exclu le hardware. D’ailleurs les entreprises vont réemployer des machines, et pas uniquement des solutions de Big Data.

Quels sont les modèles de déploiement du Big data ?

Les modèles de déploiement sont divers et nous assistons à une maturité émergente, en particulier avec des offres hébergées dans du Cloud. Les composants impactés sont divers, autour de l’infrastructure applicative et du temps réel, et doivent adresser les problématiques de vélocité. Quant aux usages, ils portent sur l’e-commerce, les médias sociaux, la publicité, les jeux. Les modèles avec souscription du Big Data Analytics via le Web vont représenter un gros pourcentage des dépenses.

La vraie problématique du Big Data n’est-elle pas dans l’absence de compétences ?

Lorsqu’il y a peu de compétences en interne, il faut mettre en place des services. C’est une caractéristique des technologies émergentes, qui affichent jusqu’à un ratio de 1 à 20 du service dans la dépense. Avec la maturité, la différence va s’atténuer et la compétence deviendra une partie normale des projets avec la standardisation et le remplacement des technologies dans l’organisation. A partir de 2018, le remplacement sera destructif.

Le déploiement du Big Data est souvent associé au cloud…

Quand l’économie ne va pas très bien, les entreprises ne vont pas se lancer dans une offre à coût fixe, sauf en cas de soucis de régulation règlementaire qui impose à l’organisation de ne pas aller sur le Cloud. Maintenant, avec la multiplication des données, en particulier les données non structurées, le Big Data ne change pas les problématiques d’hébergement dans le Cloud.

Où en est l’adoption du Big Data en France ?

En France, les grandes entreprises affichent des niveaux de maturité très différents. Beaucoup affichent leur intérêt et des questionnements. Les entreprises françaises sont plutôt attentistes, elles sont dans observation, 85% d’entre elles ne feront rien de conséquent avant 2015. Et celles qui se lancent sont précurseurs, sauf de facto l’e-commerce et les interfaces web. Dans la grande distribution, la banque, l’assurance, les prototypes se mettent en place. Dans l’industrie, automobile, chez les équipementiers, le Big Data se construit autour des capteurs, pour collecter et analyser les données. Les industriels ont besoin de vélocité pour traiter la volumétrie des capteurs en données structurées. La banque-assurance traite à la fois structuré et non structuré, pour la détection des menaces par exemple. Quant à la grande distribution, elle recherche potentiellement des grandes combinaisons de facteurs, pousser des offres sur les mobiles par exemple.

La difficulté ne sera-t-elle pas de trouver les personnes qui seront capable d’analyser les données ?

C’est là que sera l’impact des services, dont le rôle sera de faire l’analyse et de tirer la valeur. Avec les data scientists, nous allons assister à la généralisation de la fonction de statisticien, de linguiste, etc. Mais en effet, la demande sera de plus en plus disproportionnée face au marché. La création de cursus dédiés apportera des gens qui ne seront opérationnels que dans 3 à 5 ans. Il y des compétences à développer, en généralisant les fonctions de statisticiens, ou alors en combinaison avec les analystes. Mais ce sera un des freins à l’adoption des technologies.

Nous constatons la présence de deux facteurs bloquants : la compréhension du management, quelle valeur vont-ils pouvoir en tirer et les compétences. Avec la pratique du distributed processing, la consolidation et la compétition, l’évolution des pratiques et des infrastructures, les Big Data feront partie des infrastructures normales à partir de 2016-2018. Ce sera le moment pivot.

Gérard Clech

Articles récents

RETEX MSSP : VFLIT mise sur la proximité pour accompagner les PME sur leurs enjeux cyber

La pression croissante sur les PME en matière de cybersécurité bouleverse les équilibres du marché.…

5 heures années

De l’accessoire au périphérique stratégique : EPOS affine sa stratégie pour répondre à l’évolution des usages audio

Alors que les communications unifiées s’imposent dans les environnements professionnels, les périphériques audios occupent une…

1 jour années

Nominations : 8×8 recrute deux profils expérimentés pour ses ventes et son réseau partenaires en EMEA

L’éditeur 8x8, spécialiste des plateformes cloud intégrant UCaaS, CCaaS et CPaaS, annonce deux nominations stratégiques…

1 jour années

Cloud souverain : Numspot entre en phase active avec ses premiers services. Entretien avec Eric Haddad, son CEO

Face aux attentes croissantes des acteurs publics et privés en matière de souveraineté numérique, plusieurs…

1 jour années

IA et compétences : pourquoi les cabinets IT doivent se positionner dès maintenant

L'intelligence artificielle redessine profondément le paysage des compétences professionnelles, créant une opportunité sans précédent pour…

1 jour années

HPE étend les choix de déploiement pour Aruba Central : 4 options, dont VPC et NaaS

Hewlett Packard Enterprise (HPE) enrichit sa plateforme de gestion réseau HPE Aruba Networking Central avec…

2 jours années