Par Cédric VANHOORDE, Expert Bases de Données et directeur application chez RUNISO
En plus du volume important de données, ce phénomène que l’on appelle communément le big data se caractérise également par la vélocité des informations et par la variété des formats. En effet, d’une source à l’autre, le format du contenu va différer : du texte, de la vidéo des images,… L’ensemble de ces caractéristiques font que le big data implique un changement radical du rapport avec la donnée. On assiste à une sorte d’obésité des bases de données, qu’elles soient structurées ou non. Le décuplement de leur taille entraîne un stockage et une infogérance adaptés. Les bases de données SQL habituelles ne sont pas formatées pour accueillir et traiter ces gros volumes de données.
Récolter ces informations est une bonne chose mais encore faut-il les stocker et les traiter correctement pour en extraire des informations stratégiques. C’est là tout l’enjeu du big data que l’on a tendance à oublier. Il faut une réelle réflexion en amont sur le contenu des bases de données pour éviter de croiser des informations non pertinentes.
Au-delà de la question du stockage, cela soulève le problème de la pertinence et de l’exploitation des données récoltées. A la différence des anciennes bdd, qui se construisait progressivement, les bases actuelles pourraient rapidement « exploser » si les filtres mis en place ne sont pas assez précis. Le problème de l’exploitation des données se pose déjà avec certaines bases de données CRM ou BI qui concentrent de gros volumes de données. Est-il nécessaire de garder sur une même base de données 10 voire 15 ans d’historique ? Faut-il garder toutes ces données au même endroit avec les mêmes niveaux d’exigences en termes de disponibilité, de performance et de sécurité ? La rigueur est de mise dans le traitement de ces données.
Plus la taille de la base de données est importante plus elle sera gourmande en ressources et va nécessiter une infogérance particulière. Pour ce faire, il est préférable de repenser la gestion de ces données critiques pour en tirer le meilleur. Il faut identifier les données les plus pertinentes pour l’entreprise et les stocker dans une base de données spécifique. On concentrera sur celle-ci davantage d’efforts en termes de performance et de sécurité. Ainsi l’analyse de ces données sera moins énergivore et donc moins coûteuse.
L’éditeur allemand Hornetsecurity annonce l’acquisition d’Altospam, spécialiste français de la sécurité des emails. Cette opération,…
Avec un chiffre d’affaires de 110 M€ en 2024, en légère progression par rapport aux…
L’éditeur français SECUSERVE, spécialisé dans la sécurité des communications électroniques, présentera cinq nouvelles solutions à…
Pour renforcer sa présence commerciale sur le marché français, notamment auprès des PME et des…
Longtemps cantonné à quelques pionniers, le modèle MSP s’impose progressivement dans l’écosystème des prestataires IT…
Le groupe Exertis annonce la nomination de Florence Triou-Teixeira à la tête des entités françaises…