Comment analysez-vous ce marché de la BI et des bases de données où les acquisitions se multiplient ?
Le marché informatique poursuit sa concentration. Parmi les rachats, celui de Data Allegro par Microsoft a été étonnamment peu commenté. Pourtant, il est stratégiquement plus important que celui de Cognos par IBM, ou celui de Business Objects par SAP. Avec SQL Server et ses fonctions de Business Intelligence couplées à Data Allegro, Microsoft entre dans la cour des grands, et assied son statut de fournisseur de bases de données pour les très grandes entreprises. On peut s’étonner de l’intérêt d’IBM pour Ilog. Quelle serait la stratégie de ce rachat ? Et va-t-il l’intégrer à son SGBD ? Il y a trois grands acteurs indépendants spécialisés dans le datamining : Sas, SPSS et KXen. Et il n’existe à ce jour aucune rumeur sérieuse de rachat autour de ces sociétés.
Qu’apporte un moteur d’analyse comme KXen à ses utilisateurs ?
KXen propose un environnement de travail complet basé sur un moteur de calcul capable de booster la productivité et de produire à moindre de coût des modèles très performants travaillant en mémoire, dans le cadre de projets de segmentation statistique et de scoring client, en CRM par exemple. Favorisant l’automatisation, notre solution permet d’accélérer les processus. Et lorsque le client découvre qu’il peut démultiplier les modèles à l’envi, il devient très friand de ce procédé. D’autant que les exigences actuelles se complexifient et réclament plus de réactivité.
Prenons l’exemple d’agents d’un assureur connectés à leur système central sur mainframe. La nuit, des “moulinettes” et des ETL alimentent et mettent à jour les SGBD, datamarts, etc. Auparavant, on pouvait se contenter de définir à partir des données client quelques modèles de segmentation statistique, pour éviter d’adresser les clients trop massivement. Aujourd’hui, il s’agit d’en élaborer plusieurs dizaines, et ce, à partir de centaines caractéristiques. Puis on fabrique sur chaque segment des modèles de scoring dédiés à des questions précises. Avec nos solutions, cela devient possible sans changer l’organisation des équipes ni recruter de statisticien supplémentaire. À partir d’un modèle global (comme un scoring au niveau national), KXEN sait générer seul des modèles dérivés (par département, types de clients, etc.). Et bâtir un ou plusieurs modèles revient alors quasiment au même prix.
On assiste donc à une course pour la multiplication des modèles ?
La nouvelle problématique n’est plus de fabriquer des modèles, mais d’en gérer la multiplicité. Dans notre version 5, nous avons donc enrichi KXen de métadonnées et ajouté dans le moteur des fonctions de gestion de projets avec des rôles (concepteur, modéliseur, utilisateur…). Aujourd’hui, plus question de déployer un projet sans référentiel et métadonnées dans une entreprise. Fin 2008, nous livrerons la KXen Modeling Factory (KMF) permettant l’industrialisation des modèles et du datamining, avec la possibilité de créer des composants de datamining réutilisables. L’architecture comprendra également un moteur d’orchestration…
Quel autre apport majeur propose votre nouvelle version ?
Dans cette V5, nous avons réécrit le module Data Manipulation, toujours totalement graphique et sans écriture de code, et avec génération de code SQL optimisé pour la base de données source (IBM DB2, Microsoft SQL Server, MySQL, Oracle, Sybase, Teradata, etc.). Les données extraites serviront alors de base à la fabrication des modèles ensuite appliqués pour générer des modèles en langage KXen, ou SQL ou UDF optimisés par base de données cibles, ou PMML, ou Java, ou Sas, ou c++… Ce résultat pourra ensuite être éventuellement repris par un traitement batch ou une autre application de type Teradata par exemple.