DOSSIER – Comprendre les outils du décisionnel

Ou comment exploiter au mieux les éléments de son système d’information

Le système d’informations évolue de plus en plus vite. Les besoins sont de plus en plus transversaux et propres à des entités. La décision devient donc décentralisée et doit être prise rapidement. L’ERP ne peut donc remplir que des fonctions verticales, d’autres outils complétant les besoins d’organisation et de management. La présence d’outils décisionnels devient de plus en plus importante (ETL – Datawarehouse – BSC)

La méthode

Le principe est relativement simple. Il s’agit de construire une vue afin de pouvoir exploiter directement les données en provenance d’application (ou de bases de données) multiples, sans passer par un informaticien ou un technicien.

Il faut donc :
– Pouvoir pointer sur des bases de données
– Lire les tables de ces bases de données
– Extraire certaines informations de ces tables
– Les combiner à d’autres informations en provenance d’autres BdD
– Les stocker
– Les formater pour l’affichage

Glossaire

De nombreux termes techniques sont utilisés. Retrouvez ci après les principaux qui vous permettront de comprendre aisément les principes du décisionnel.

Datawarehouse : ou entrepôt de données. Base dans laquelle les données sont centralisées et organisées pour le support d´un processus d ´aide à la décision.

Balanced Scorecard : ensemble de méthodologies préconisées par Robert S. Kaplan & David Norton qui favorisent un alignement permanent de la stratégie de l´entreprise sur des objectifs financiers et non financiers. voir les autres dossiers sur le BSC

Décisionnel : Processus d´utilisation de connaissances extraites par analyse des informations et des données générées par les processus métiers de l´entreprise

Extract Transform Loading (ou ETL). Serveur chargé d´extraire, nettoyer et transformer les données émanant de sources diverses pour ensuite les insérer dans une base de données (datawarehouse, datamart, etc.).

Indicateur : statistique, suivie au fil du temps, qui présente les tendances d´une condition ou d´un phénomène, au-delà des propriétés de la statistique elle-même. Les indicateurs permettent d´obtenir de l´information supplémentaire. Ils offrent un moyen d´évaluer les progrès en vue d´un objectif. On peut concevoir toute sortes d´indicateurs : mesure de la rentabilité, des ventes, de l´évolution des clients, etc.

Modèle de données : organisation des données dans une base dans une structure de tables, colonnes, champs etc. pour l´univers relationnel, autre pour les bases OKAP dont la structure est souvent propriétaire.

OLAP : On-Line Analytical Processing. Procédé permettant de pré-calculer certains croisements de données afin d´optimiser les performances de l´application décisionnelle. Des variantes de l´OLAP existent. HOLAP (OLAP Hybride) : mixte de SQL et d´OLAP, l´un passant le relais à l´autre en fonction des opérations effectuées.

Outil de restitution : ensemble des outils (requêteurs, tableaux de bord, etc.) permettant de restituer le résultat d´une analyse.

Analyse multidimensionnelle : concept qui définit les analyses effectuées par croisement de plus de trois dimensions (ou ensemble de données du même type ou encore axes).

Datamining : Traitement et analyse statistiques de bases de données permettant d´établir des relations et des comportements types. Avec l´analyse multidimensionnelle classique, on sait ce que l´on cherche tandis qu´avec le datamining, on ne sait pas forcément ce que l´on cherche. On essaye plutôt d´établir des corrélations entre des données afin d´en tirer des renseignements, des indicateurs, des anomalies, des correspondances, etc. qui peuvent mettre en évidence des tendances.

Les risques

Jusqu’à présent, consultants ou intégrateurs ne juraient que par des solutions éprouvées, comme celles d’Informix, d’ETI ou d’Informatica. Les logiciels ETL (extraction de données et alimentation d’entrepôt) étaient donc méconnus …

Les solutions doivent ainsi offrir une modélisation graphique et présenter à la volée pour vérification le résultat de chaque étape de processus, être facile à prendre en main, proposer un éventail de fonctions de manipulation des données, telles que le tri, la jointure entre tables de données, le filtre, l’union de requêtes ou la normalisation/dénormalisation, et inclure une palette de connecteurs aux systèmes de données.

On rencontre ainsi des solutions coûteuses ou peu adaptées pour des raisons multiples :
-Insuffisance pour la gestion graphique des processus
-Faible en terme de manipulation des données.
-peu compatibles aux formats peu classiques
-Nombre de fonctions de manipulation limité
-Coût de licence exponentiel
– Glossaire
-Difficultés de prise en main

La notion de Business Intelligence

Avec la notion de Business Intelligence, se pose immédiatement le problème de l’accès aux données. Il existe de nombreuses solutions pour y remédier. Souvent dispersées dans différentes parties du système d’information des entreprises, provenant de multiples sources, pour accéder aux données, il est nécessaire d’appréhender plusieurs protocoles, plusieurs langages. Dans ce contexte, l’accès et l’agrégation des données sont complexes. Simplifier cette étape est indispensable pour pouvoir ensuite les manipuler, les confier aux utilisateurs et améliorer la diffusion d’information dans l’entreprise.

Il existe différentes technologies permettant de résoudre le problème de l’accès aux données. La solution traditionnelle consiste à se doter d’un ETL couplé d’un centre de données. Cette solution est intéressante car elle permet ensuite à la solution de Business Intelligence de ne pas impacter les bases en production, mais pose aussi de nombreux problèmes :
-un projet d’ETL est complexe,
-coûteux en terme de maintenance
-et difficile à mettre en place au niveau de l’entreprise.

Donc pas d’approche ETL sans réelle méthodologie. En savoir plus sur nos approches et notre méthodologie : contact@oopartners.com