Big Data Paris se déroulera les 3 et 4 avril prochains. Ce salon s’adresse aux décideurs de petites et grandes entreprises pour s’informer et échanger autour du Big Data. Blandine Laffargue, Responsable de conférence chez Corp Events, évoque le décollage du Big Data.
Par Blandine Laffargue, Responsable de conférence chez Corp Events
L’année dernière, à la même époque, alors que la première édition du congrès Big Data Paris allaitvoir le jour, les initiés au concept semblaient encore une denrée rare… L’expression elle-même (« Big Data ») semblait susciter l’interrogation ou prêter à confusion, et les retours d’expérience sur le sujet paraissaient encore trop jeunes et trop rares pour permettre une analyse d’ensemble. Un marché Big Data ?… On parlait davantage de « phénomène Big Data ».
Aujourd’hui, le marché existe bel et bien, et les regards étonnés des professionnels comme du grand public ont laissé place à des discussions plus animées, nourries par la connaissance fructueuse développée sur Internet et dans les revues spécialisées sur le sujet. Les acteurs se sont structurés et, si l’on reprend le schéma traditionnel de toute activité industrielle (input -> output), on retrouve avec le Big Data les ingrédients suivants :
a. Un input : la data
b. Un outil de transformation : les technologies de traitement, puis l’analyse des données
c. Un output : l’information récoltée
Or, s’il y a bien une évolution majeure par rapport à l’année dernière, c’est dans la façon d’aborder ces différents segments et leur importance relative dans la réflexion autour du Big Data. En effet, si en 2011, les premières préoccupations du marché s’étaient d’abord portées sur l’outil de transformation, et donc sur la performance technologique, ce sont, en 2012, lesdeux échelons « matière première » et « produit fini » qui ont tendance à concentrer les attentions.
Une matière première à identifier et surtout à développer
Pourquoi ? D’abord parce que cette « matière première », justement, constituée des données du « data deluge », échappe encore beaucoup aux organisations : non pas que celles-ci soient pauvres en données (au contraire !), mais parce que les stratégies pour localiser celles-ci, les extraire et en produire de nouvelles n’ont pas encore été clairement identifiées. En d’autres termes : quelles sont les données utiles pour mon organisation ? Sont-elles disponibles à domicile ou dois-je me les procurer ?
On a tendance bien souvent dans le discours à souligner les enjeux que représente l’utilisation de données déjà présentes dans les organisations : données sociales, données transactionnelles, données de mobilité, etc… . Pourtant l’un des grands enjeux à l’étude actuellement concerne l’acquisition de nouvelles données, soit au sein de l’organisation, soit à l’extérieur de celle-ci.
Créer de la donnée dans son organisation
Produire de la donnée au sein de sa propre organisation revient ainsi à mettre en place des outils ciblés de tracking sur les activités et les leviers qui semblent fournir une information stratégique pour l’organisation : il n’est pas de Big Data sans reporting organisé sur les terreaux d’innovation que représentent les logs, les données textuelles issues du web, les données degéolocalisation ou encore les informations captées sur les objets au travers du RFID ou de l’Internet des Objets. La prise de conscience tardive sur ces enjeux explique ainsi le relatif déséquilibre observé actuellement dans les big data : celles-ci sont encore de nature très homogènes, structurées pour la plupart et pour beaucoup transactionnelles. Il est donc nécessaire pour les organisations, qu’il s’agisse de PME ou de grands comptes, de se pencher sur la question des outils de tracking et de reporting pour exploiter plus systématiquement les données qualitatives issues de sources variées.
Se fournir auprès des entreprises spécialisées
Autre gisement qui se développe : l’acquisition de données externes, déjà traitées et identifiées par des sociétés spécialisées qui organisent ainsi le relevé d’informations et s’assurent de la fiabilité des données. Qu’il s’agisse des grands data markets spécialisés (Infochimps, Azure, etc…), des sites internet agrégeant des quantités volumineuses de données (comparateurs de prix, moteurs de recherche…) ou des acteurs de l’Open Data (publics et privés), leur côte de popularité auprès des entreprises explose. Leur grande valeur ajoutée réside de plus dans leur sphère de recherche particulièrement large qui permet de remonter des informations généralistes, pas forcément à portée de main de toute entreprise spécialisée. La question qui est posée alors est celle du prix accordé à chaque donnée, soit la valeur monétaire conférée à ces big data échangées… : le marché, là encore, est en pleine structuration.
La valeur de l’output : la donnée en tant que produit économique
Cette réflexion sur le prix accordé à chaque donnée conduit nécessairement à la question de la valeur de la donnée : quelle valeur économique la donnée initiale ou traitée recèle-t-elle formellement ? C’est tout l’enjeu entourant, certes l’input, mais surtout l’output, le produit fini, la donnée traitée et utilisable pour l’entreprise. Quelle utilité économique représente-t-elle pour l’entreprise et comment la quantifier ?
Plusieurs pistes sont ouvertes, qu’on pourrait résumer sous ces quatre indicateurs de performance économique :
1. une amélioration du chiffre d’affaires grâce à l’effort de ciblage marketing
2. une réduction des coûts grâce à une optimisation des plannings et une détection des erreurs
3. un développement vers des activités innovantes à forte valeur ajoutée (nouveaux usages liés à la géolocalisation et au temps réel)
4. ou encore des gains de parts de marché liées à l’avantage concurrentiel d’être le premier détenteur de ces données stratégiques
D’après l’étude publiée par le cabinet IDC pour Hitachi en août dernier, ce serait vraisemblablement la deuxième utilité qui semblerait la plus importante aux yeux des managers : la valeur des données se mesurerait donc aux économies générées sur l’appareil de production et de vente. Un créneau difficilement quantifiable qui explique l’intérêt suscité par toute étude publiée sur la valeur du produit fini.
Oui, le V de Valeur semble avoir dépassé les 3 autres V dans les colonnes des magazines spécialisés et dans les réunions sur le Big Data : volume, vélocité et variété semblent désormais cantonnés à un débat purement technique dont on croit avoir fait le tour l’année dernière. D’une réflexion technologique, le Big Data serait donc passé à une préoccupation économique, renforcée d’autant plus par le discours de crise intimant la compression des coûts.
Les nouveaux enjeux technologiques
Pourtant l’enjeu technologique n’a pas totalement disparu des débats ; au contraire il reste bien palpable dans les discussions mais a changé d’objets par rapport à l’année dernière. Si 2011 offrait une part non négligeable aux problématiques de stockage (volume) et aux changements induits par les bases de données non relationnelles (variété), l’année 2012 s’est fait le porte-voix de réflexions plus qualitatives sur la fiabilité des données, sur leur intégrité. Faisant écho aux préoccupations sur la valeur, on s’interroge désormais plus vivement sur la qualité des données détenues : informations correctes, sources identifiées, doublons nettoyés, etc… la route reste longue pour garantir une fiabilité à 100% du déluge de données et les éditeurs software ont trouvé avec cette question un chantier d’envergure sur lequel démontrer leur savoir-faire.
Autre enjeu technologique qui commence à faire parler de lui : la sécurité des systèmes de stockage et de traitement. Avec l’avalanche de données détenues dans les coffres-forts informatiques des entreprises, les prédations sur cette valeur induite se font de plus en plus pesantes et synonymes de risques économiques pour l’entreprise. Aussi, les fournisseurs se penchent-ils encore davantage sur cette question, dans le cloud ou chez le client, afin d’offrir aux PME et aux grandes entreprises des solutions adaptées offrant des garanties solides.
Dernier enjeu technologique, qui opère cette fois-ci une grande continuité sur les deux années : la quête du temps réel et les recherches multiples pour réduire les temps de traitement. Sur ce segment, les technologies sont en perpétuelle évolution et proposent des solutions différenciées pour accélérer le traitement, comme par exemple le in-memory. L’objectif de cette quête serait de proposer de nouveaux usages, dans des secteurs qui sont particulièrement tributaires de la donnée temporelle : la finance bien sûr, mais également les télécoms et les médias… Nul doute que les progrès observés sur les logiciels de traitement de gros volumes ainsi que sur les équipements hardware pourront offrir dans ce domaine des perspectives positives à moyen voire court terme.
L’année 2013 s’ouvre donc sur des enjeux rénovés du Big Data, davantage orientés sur les problématiques de qualité, de valeur intrinsèque des données que sur les questions de volume héritées de 2011. Sans balayer ces interrogations technologiques qui s’ouvrent désormais à de nouveaux horizons (la sécurité, l’intégrité, le temps réel…), le Big Data aborde en 2013 un virage plus économique qui ne manquera pas d’accélérer sa généralisation au cœur des entreprises françaises et européennes.
Plus d’informations sur Big Data Paris : www.bigdataparis.com