Le vice-président Europe du Sud et Benelux de MapR et fin connaisseur du monde du stockage (Isilon, Quantum, etc.) se penche sur la valorisation des données au coeur selon lui de l’avenir du Big Data
Par Xavier Guerin, Vice-Président Europe du Sud et Benelux de MapR
Introduit au début du millénaire, le terme Big Data revêt à l’origine 3 dimensions pour les analystes de Gartner, les « 3 V » : volume, vélocité et variété. Le volume équivaut à une accumulation de données ou à des quantités en constante augmentation, la vélocité correspond à la vitesse de la donnée, et la variété désigne le type de données et de sources. Aujourd’hui, les analystes s’accordent à dire que les entreprises qui implémentent avec succès une solution Big Data sont 20% plus performantes que leurs compétiteurs. Les données sont un atout majeur pour les entreprises car elles leur permettent de mieux connaître leurs clients et mieux cibler leurs prospects, et leur apportent des informations cruciales pour leurs prises de décisions. Le plus gros challenge réside donc dans la valorisation de ces données.
Aujourd’hui, le Big Data et ses défis
Le monde est inondé de données numériques. Tous les jours, 2 200 pétaoctets de données sont créés dans le monde. Cela représente des milliers d’heures de vidéo, des milliards de transactions financières, d’interactions sur les réseaux sociaux, de clics, de données génomiques, etc. La moitié de notre planète n’ayant pas encore accès à Internet, la croissance des données sera exponentielle ces prochaines années. Les entreprises et organismes ont tout intérêt à chercher de nouveaux moyens de stockage et d’analyse de volumes de données dès à présent.
L’augmentation des données est constante et inévitable car les méthodes d’analyses scientifiques sont de plus en plus puissantes. Au cours de la dernière décennie par exemple, les techniques de séquençage ADN et de modélisation par ordinateur ont progressé rapidement et généré toutes les deux des dizaines de gigaoctets par projet.
Le Big Data permet de l’analyse reporting (le passé) à l’analyse prédictive (le futur) ou en d’autres termes de « réactif » à « prédictif ». Il permet en outre de passer d’un marketing transactionnel (centré produit) à un marketing relationnel (centré client).
L’analyse de la masse d’informations aide les entreprises dans leurs prises de décisions car elle permet aux scientifiques du Big Data et aux autres utilisateurs de tirer profit des énormes volumes de données transactionnelles ainsi que des sources de données non-structurées, telles que les emails, les tests produits, les posts sur les réseaux sociaux, qui sont inexploitées par les programmes conventionnels de business intelligence (BI). Il est par conséquent primordial de se concentrer sur l’analyse pour en exploiter tout le potentiel.
Le volume de données demain
Selon une étude IDC publiée en septembre 2012, seules 8% des entreprises françaises avaient mis en place des solutions Big Data. Les êtres humains et les machines étant de plus en plus connectés à internet, le volume de données va continuer de croître à un taux exponentiel durant les années à venir. Les entreprises vont peu à peu prendre conscience que les données sont une richesse et les exploiter procure un gain concurrentiel essentiel dans la course à la compétitivité. Tout l’enjeu passe par la capacité à pouvoir croiser le maximum de données internes et externes au système d’information (SI) de l’entreprise afin d’en extraire les meilleurs éléments de décision. La baisse rapide des coûts de la puissance de calcul permettant l’utilisation de serveurs banalisés peu chers et l’avènement de logiciels open source (tels qu’Hadoop) sont les deux piliers technologiques permettant la mise en place infinie d’applications Big Data. L’analyse de ces données encore peu exploitées doit permettre aux entreprises d’améliorer significativement leur efficacité à travers une meilleure connaissance du comportement de leurs clients pour un meilleur ciblage et une meilleure adaptation de leurs offres. Mais les technologies Big Data permettent aussi un meilleur suivi de l’activité ou de la chaîne logistique, la détection d’erreurs, la maintenance prédictive, etc., en somme, l’optimisation des processus, du chiffre d’affaires ainsi que la réduction des coûts.
Demain, le Big Data et ses analyses s’appliqueront à tous les aspects du quotidien et garantiront par exemple des prévisions météorologiques plus précises et une organisation parfaite des feux de signalisation en ville engendrant une amélioration des flux de circulation. Les structures émergentes de Big Data délivreront de nouveaux modes de traitement de l’information et déploieront des capacités d’analyse qui vont révolutionner la science informatique.
Les entreprises vivront la convergence des services analytiques avec ceux du business opérationnel qui cohabitent actuellement de façon cloisonnée.