Archives de Tag: business intelligence

Partager ses tableaux de bord : ce que propose Power BI

Ce qui différencie les  véritables outils décisionnels de certains outils permettant de faire du reporting comme Excel, c’est, entre autres,  les possibilités qu’ils offrent d’un point de vue collaboratif.

Ce post a simplement pour objectif de préciser les différentes possibilités offertes par Power BI dans ce domaine.

Si vous souhaitez partager vos rapports en interne, plusieurs solutions existent :

  •  L’outil étant en mode cloud, il permet bien évidemment de partager des rapports au sein de votre organisation, via sa partie cloud, à des groupes d’utilisateurs à définir. Un tableau de bord peut être partagé de manière unitaire ou bien au sein d’un pack de contenu contenant différents tableaux de bord et/ou rapports  (un tableau de bord étant constitué d’un ou plusieurs rapports).
  • Les tableaux de bord peuvent également être partagés simplement en échangeant les fichiers résultant de la conception dans Power BI Desktop (de type Pbix) à l’image de ce que l’on pourrait faire avec des fichiers Excel partagés. Les connexions aux sources de données étant incluses, il n’y a pas de problème pour obtenir des données à jour.
  • Enfin les tableaux de bord peuvent être partagés au sein de l’organisation via les sites Sharepoint.

Si vous souhaitez partager votre tableau de bord avec des personnes externes à votre entreprise, cela est bien entendu réalisable. Comment ? 3 possibilités majeures:

  • Générer un PowerPoint à partir du rapport publié sur Power BI (cloud).
    • Cette solution présente notamment un intérêt lorsque vous, ou un membre d’une direction métier, présente de manière quotidienne, hebdomadaire ou mensuelle des slides composées en grande partie de reporting. Le PowerPoint contenant tous les rapports nécessaires se générera en un clic là où il faudrait systématiquement re-générer les rapports et réaliser des copier-coller pour constituer ses slides. Ces PowerPoint peuvent ensuite être partagés avec des personnes extérieurs à l’entreprise. Par ailleurs, cela va sans dire, mais il vous sera impossible d’utiliser les filtres présents dans le rapport. Le PowerPoint contient des rapports figés et ceux-ci sont donc l’exacte image de ce que vous affichez sur votre écran.
  • Générer une URL sécurisée à partager avec n’importe qui et sans utilisation de mot de passe
  • Intégrer les rapports publiés sur Power BI sur un site web ou sur un blog
    • Cette solution vous sera extrêmement utile si vous souhaitez que des clients puissent visualiser, sur votre site, des rapports les aidant à prendre des décisions d’achat par exemple ou si vous souhaitez donner un aperçu de ce que vous êtes capable de faire avec cet outil.

 

Comme vous pouvez le voir, Power BI a fait le nécessaire pour  répondre aux besoins de chacun en termes de partage et de diffusion de rapports.

Les possibilités de partage offertes par Power BI

Tagué , , , , , , ,

Tableau software : retour d’expérience Engie

engie-logoLors de la conférence Tableau qui s’est déroulée en mai sur Paris, ENGIE, entreprise de service en efficacité énergétique de 12000 salariés nous a offert son retour d’expérience  sur la mise en place de l’outil de reporting Tableau software.

 

Voici la synthèse de leur intervention sous la forme de questions / réponses…

 

tableau software 2016 tendances benchmark vendor 2016 self service business intelligence data discovery

Changement d’outil et choix de Tableau

 

Pourquoi avoir voulu mettre en place un nouvel outil décisionnel ?

La société avait besoin de piloter la performance sur une cinquantaine d’agences. Il y avait donc un objectif de langage commun mais également une volonté d’alléger le travail de reporting personnel.

Par ailleurs, Engie produisait régulièrement un COMEX en Excel et il était nécessaire d’avoir un outil de reporting commun efficace  et qui permette la consolidation. Le travail cumulé sur les 50 agences se chiffrait à 10 J par mois.

La production de rapports opérationnels était également trop longue.

Outre cette problématique de délai de production et de charges consommées, il y avait également deux besoins majeurs :

  • Avoir une interface ergonomique / user friendly
  • Pouvoir croiser les données

 

Quel outil était là auparavant ?

BO

Pourquoi avoir choisi Tableau Software ?

Une analyse du Gartner a permis de positionner rapidement Tableau Software et son statut de leader parmi les favoris. Une grille d’évaluation avec pondération ainsi que des cas d’études ont permis à Tableau d’atterrir dans la short list.

Quel a été l’argument clé en faveur de Tableau Software face aux concurrents?

Durant les phases de test et entretiens avec les éditeurs, Tableau, en moins de deux heures, a su reconstituer les deux trois grands rapports. Précisions que la production des tableaux a été réalisée par les chefs de projet et non les experts techniques de Tableau.

 

Mise en oeuvre

Mise en oeuvre

 

Quelle a été « l’architecture technique » retenue ?

Engie a opté pour la solution Server au détriment de Tableau Online. Ils ont donc mis en place Tableau Desktop et Tableau Server

D’où proviennent les données ?  

Tableau est connecté à un Datawarehouse qui centralise les données des différents outils du SI. Il n’y a pas de connexion à des outils de production. Au moment de la présentation, des datamart étaient en cours de préparation pour faciliter l’utilisation (en terme de jointures par exemple) et optimiser les performances.

Comment s’est déroulée la mise en place ?

Il y a une équipe qui recense les demandes et qui produit petit à petit les rapports.

Comment est gérée la sécurité des données ?

Des univers peuvent être créés par utilisateur ou groupe d’utilisateurs pour conserver un niveau de sécurité (vision uniquement de mon périmètre, mon agence) mais qui permet une lecture transverse (ensemble des données techniques, commerciales…)

Est-ce que tout s’est déroulé comme prévu ?

La prise en main de l’outil a été facile. En revanche il y a eu un temps de préparation des données  très important et relativement long (avec de longues phases de tests).

Des process ont dû être modifiés en amont pour avoir, dans les bases, davantage de données « propres ».

 

cles

 Les clés d’un projet réussi dans le temps…

 

Quelles sont les clés pour une bonne prise en main ?

Il faut limiter les freins à l’utilisation en passant du temps sur la préparation des données et la conception d’entrepôts de données intermédiaires.

ENGIE  essaye, par ailleurs, de développer une culture des champions. Par exemple, l’agence « B » réalise un rapport et le remonte. Si la direction estime qu’il peut avoir une vraie valeur ajoutée pour les autres agences alors celui-ci sera ré-appliqué dans celles-ci. C’est une politique de partage ascendant.

Comment prévenir les risques liés à l’industrialisation ?

Il faut travailler en amont pour identifier les règles de gestion des KPIS (définition commune d’un CA par exemple) pour éviter d’avoir des chiffres différents pour un même indicateur.

Comment maintient-on la compétence sur ce type d’outil ?

Dans un premier temps, il faut identifier et s’appuyer sur des ressources qui ont une appétence à la data.

Ensuite pour maintenir la compétence, il est nécessaire de pratiquer régulièrement et de s’appuyer sur les forums et le site de tableau qui représentent une source d’information extrêmement riche et permettent de répondre à de nombreuses interrogations.

 

deploiement

 Une réussite chiffrée et un déploiement conséquent à venir …

 

Un des objectifs était le gain de temps, peut-on chiffrer celui- ci ? 

Une fois que les données seront à 100% fiables, le temps de production sera réduit à néant car tout est automatisé.

Autrement dit, Engie devrait passer de 500 JH annuel à 2.5 JH soit 99.5 % de gain, l’équivalent de 25 ETP.

 

futur

 Et le futur, on en parle ?

Cette première mise en place étant réussie, ENGIE compte étendre le déploiement de cet outil. Ainsi l’ensemble des collaborateurs aura accès sur Tableau Server à l’ensemble des univers qui leur sont nécessaires. Cela représente plus de 1000 personnes, une centaine par filière…

Une ouverture maximale sera faite en lecture.

Le déploiement de Tableau chez Engie n’en est donc qu’à son commencement…

Tagué , , , , , ,

Tableau Software : Retour d’expérience La Poste

Il y a quelques semaines, j’ai pu assister à un retour d’expérience de La Poste sur le choix, l’implémentation et le déploiement de l’outil de reporting Tableau Software.

Je vous propose ici un compte rendu de cet événement…

I- Retour d’expérience : Conférence

tableau software laposte dataviz

La Poste  en quelques chiffres

Rappel de présentation La Poste

  • Chiffre d’affaires : 22 milliards dont 18 % à l’international
  • Direction client entreprise : 630 vendeurs / 300 vendeurs télévente
  • 30 directions de vente

Qu’est ce qui a déclenché la mise en place d’un outil BI en 2012 ?

  • Un environnement économique en mutation, agité. Cela a nécessité de libérer du temps aux analystes pour passer du temps sur de l’analyse et non de la production de rapports.
  • Trop d’outils BI non connectés entre eux, ce qui avait pour conséquence une perte en efficacité car les utilisateurs avaient besoin de s’adapter aux interfaces.
  • La solution devait  répondre aux exigences :
    • De la DSI
      • Rapidité d’implémentation
      • Simplicité d’implémentation (architecture non bouleversée)
    • Des analystes :
      • Simplicité d’utilisation, intuitif et rapide pour apprentissage
    • Des managers commerciaux :
      • Simplicité de navigation

 

Quoi ? Comment ? Pour Qui ?

Quoi ? Comment ? Pour qui ?  

La démarche :

  • Bilan de l’existant : il y a un problème au niveau de l’écosystème avec des solutions non interconnectées
  • Choix de prendre une société de consulting pour :
    • Préciser les besoins actuels
    • Identifier la trajectoire future et dessiner ce qu’il faut pour l’avenir
  • Choix de l’outil (avec l’aide du cabinet) : Tableau software
  • Réalisation d’un Proof of Concept pour valider la solution Tableau vs Business Object (qui était en place au sein de La Poste).

Tableau a été choisi dans ce duel final car il satisfaisait toutes les exigences initiales mais également car il offrait une multitude de connexions natives.

Mise en place :

  • Ressources humaines
    • 30 à 40 jours hommes étalés sur 4 semaines
  • Sources de données
    • Sybase IQ (15 milions de lignes)
    • M SQL server (10 millions de ligne)
    • Fichiers Excel
  • Connexion SSO
    • Relié au LDAP de l’entreprise

Déploiement

Le déploiement s’est fait de manière progressive. Dans un premier temps, 10 licences desktop ont été attribuées aux personnes du siège pour la conception de tableaux de bord.

En parallèle, un déploiement auprès de tous les utilisateurs de Tableau Reader (outil permettant de lire gratuitement les dashboards produits)  ainsi que des formations à distance ont été réalisés.

Dans un deuxième temps, le nombre de users a été considérablement revu à la hausse et la société est passée sur une solution technique de type server 8 cœurs avec, pour accompagner ce déploiement, de l’elearning ainsi que des fiches d’utilisation intégrant des astuces.

L’objectif final est d’atteindre les 1600 utilisateurs.

Quels utilisateurs ?

Les utilisateurs sont de trois types :

  • Des commerciaux
  • Des analystes en région
  • Des analystes au siège

Quels rapports ?

Les tableaux de bord ont pour principal objectif l’analyse de la performance de l’activité commerciale (ex : Chiffre d’affaires).

Les analystes suivent notamment les forces de ventes de La poste pour les produits vendus pour le compte des filiales.

Autre exemple, le suivi du poids des portefeuilles par zone géographique a été mis en place.

Avec le temps, les besoins ont afflué. Il est par exemple possible de suivre le nombre de courriers traités versus les objectifs.

Chaque vendeur peut par ailleurs avoir une vision détaillée de son activité ou de celle de son équipe par défaut avec la possibilité d’enregistrer ses propres vues dans l’application.

 Satisfaction Tableau

Ce qui plait avec Tableau software

 

Les possibilités offertes ….

Au-delà des fonctionnalités d’analyse, Tableau offre des possibilités très utilisées par La Poste. C’est notamment le cas de :

  • La gestion des abonnements : pouvoir demander qu’un dashboard nous soit envoyé à une fréquence définie (c’est le métier qui gère cela).
  • La gestion des favoris : on positionne des tableaux de bord en tant que favoris pour ne tomber que sur eux lors de la connexion.

Les bénéfices de cette mise en place :

Aujourd’hui, la mise en place de Tableau est perçue comme un véritable atout pour de nombreuses raisons. Ainsi :

  • Le DSI se concentre sur le management stratégique des données et l’accompagnement.
  • Les analystes créent simplement et rapidement des rapports à valeur ajoutée et ont la possibilité d’y apporter des évolutions de manière plus fluide et agile.
  • Le partage des indicateurs peut se faire avec une population conséquente et à tous les niveaux de la société (avec une politique de sécurité simple à mettre en œuvre).
  • Les utilisateurs métiers sont de plus en plus autonomes (et indépendant de la DSI) pour obtenir les données qu’ils ont besoin de suivre.
  • Les restitutions sont plus « visuelles » et permettent des analyses plus rapides et donc une meilleure réactivité en termes d’actions.
  • La qualité du décisionnel dans son ensemble est améliorée grâce à l’unicité des indicateurs en termes de définitions (car un seul système).

Globalement, le projet a été très bien perçu et vu comme une réussite.

jeu de clés

 Faire adopter le système, la clé de la réussite

 Quatre conseils pour l’adoption :

 

  • Conseil numéro 1 : Commencer petit : voir si l’outil et la gouvernance qui va avec répond vraiment au besoin pour ensuite valider la solution.
  • Conseil numéro 2 : Partir d’un noyau restreint pour avoir des utilisateurs qui maîtrisent bien l’outil et le déployer plus sereinement. Ici, le siège, puis l’ensemble des sites.
  • Conseil numéro 3 : S’appuyer sur les services d’experts externes pour vous aider dans la création des premiers rapports : un regard neuf est toujours intéressant surtout quand il faut changer les habitudes.
  • Conseil numéro 4 : Accompagner les utilisateurs à travers:
    • Des formations en interne ou en externe
    • L’instauration d’un cycle vertueux de :
      • Remontée des remarques pour optimiser et adapter les rapports aux besoins
      • Partage d’astuces et de bonnes pratiques
      • Veille sur les forums et les nouveautés de Tableau

 

Et le futur, on en parle ?

De beaux jours devant Tableau au sein de la Poste…

L’utilisation de Tableau va continuer à se développer dans les mois et années à venir au sein de La Poste avec notamment :

  • L’ajout de nouvelles sources de données pour enrichir les analyses (cartographie…)
  • L’augmentation du nombre d’analystes utilisant la version Desktop ( = conception de tableaux de bord)
  • L’extension de l’utilisation de Tableau à de nouveaux services métiers qui s’effectue de manière progressive
  • L’extension à de nouveaux terminaux d’utilisation (ex : Ipad)

 

II- Retour d’expérience : Questions / réponses

A la fin de la conférence, un jeu de questions / réponses a eu lieu pour compléter ce retour d’expérience. En voici un extrait…

Peut-on associer des définitions à nos champs calculés pour permettre aux utilisateurs d’avoir une lecture correcte du KPI ?

  • Oui

Quelles licences faut-il pour concevoir et lire des rapports ?

  • Conception + lecture
    • Tableau desktop
    • Tableau server
  • Uniquement lecture avec des données rafraîchies
    • Tableau server
  • Lecture avec données non rafraîchies
    • Tableau reader

Quelle typologie d’abonnement en termes de licences ?

  • A La Poste, il y a des milliers d’utilisateurs. Dans ce genre de cas, il est préférable de passer par un serveur sur lequel on paie un nombre de cœurs (et non plus des licences). Cela permet d’avoir autant d’utilisateurs que d’espace disponible.

Quels étaient les anciens outils ?

  • Siebel answer
  • BO V5

Y-a-t-il eu des contraintes en termes de volumes de données 

La Poste a géré plus de 15 millions de lignes en mode « In memory ». Tableau compile et indexe en une ou deux minutes. Il n’y a pas de ralentissement particulier.

Comment est géré le passage d’une version à une autre ?

Il y a une compatibilité ascendante entre les versions. Cela signifie que les dashboards des anciennes versions sont toujours compatibles avec la nouvelle version. C’est donc transparent pour le client.

Comment est gérée la sécurité sur les reporting ?

Il est possible d’appliquer un filtre utilisateur soit par rôle (groupe d’utilisateurs), soit par géographie (groupe également). Chez La Poste, la sécurité est gérée par rôle.

Le périmètre géographique est quant à lui ouvert (Les salariés du Nord peuvent voir les résultats de ceux du Sud…)

Cette dernière question vient clôturer ce retour d’expérience. J’espère qu’il aura pu vous être utile. N’hésitez pas à laisser des commentaires pour indiquer les points qu’il vous aurait semblé intéressant de traiter !

Tagué , , , ,

Power BI : Les 10 règles d’or pour faire briller vos tableaux de bord

Aujourd’hui, nous vous proposons de découvrir comment faire « briller » vos tableaux de bord. Cette formation est présentée par Miguel Ryers de chez Microsoft dans un cas pratique sur l’outil de Data Visualization de Microsoft à savoir Power BI.

Vous pouvez découvrir par vous-même ce webinar proposé par Microsoft ou bien découvrir notre récapitulatif ci-dessous.

Miguel Ryers distingue quatre grands types de visualisations que l’on retrouve dans la conception d’un tableau de bord de façon générale. Bien entendu, le niveau exigé pour reproduire ce type de visualisation en allant d’un simple clic, à la conception complète d’une maquette graphique. Il peut donc être intéressant d’avoir des graphistes dans son entourage ou bien pourquoi pas, de le devenir vous-même ;).

microsoft power bi make beautiful dahboards sexy dataviz

Les 4 façons de visualiser vos données avec Power BI

Comme nous le précise Miguel Myers, il faut disposer de compétences en infographie avant de pouvoir se lancer sur des visualisations de type Infrographics (illustrations).

En effet, cette dernière est principalement constituée d’images qui doivent être soigneusement sélectionnées, la taille et les couleurs jouent donc un rôle primordial. Sans grande surprise, Miguel utilise principalement Adobe Illustrator et Photoshop, cependant l’outil utilisé importe peu, en revanche il nous indique qu’il est impératif d’exporter ses images au format PNG pour que ces images soient correctement reconnues par Microsoft Power BI.

Microsoft Power BI bien choisir comment visualiser ses données

Adaptez vos visualisations en fonction de vos interlocuteurs

Selon Miguel Myers, il faut bien choisir le type de visualisation que l’on va livrer à son client / demandeur de projet.

En effet, les attentes de votre interlocuteur vont varier en fonction de son métier, et il est par conséquent judicieux de sélectionner le type de visualisation qui répond le plus à ses attentes.

Power-BI-10-golden-rules-dataviz

Découvrez les 10 règles d’or pour rendre vos tableaux de bord attractifs

Power BI wireframe sketch template design

Règle #1 : Faites des maquettes

Peu importe l’outil que vous choisissez (Paint, Excel …), toujours commencer par un brouillon, une maquette fil de fer (ou wireframe), ou bien une maquette graphique pour s’assurer que la charte graphique proposée répond aux attentes de votre interlocuteur.

power bi rules 2 always use grid data discovery design

Règle #2 : Toujours, utiliser une grille

Cela vous assurera un équilibre dans la répartition des éléments qui constitue votre maquette.

NB : Il existe dans Power BI une option pour afficher la grille de vos tableaux de bord

power-bi-3-use-correct-aligment-rule-design

Règle #3 : Assurer un alignement correct

Il est essentiel de s’assurer que l’ensemble des éléments qui constituent votre rapport soient parfaitement alignés les uns par rapport aux autres. Power BI dispose également d’une fonctionnalité « d’alignement des éléments » pour s’assurer de cela.

Microsoft Power BI approriate spacing design report

Règle #4 : Gérer l’espacement des objets

Disposer de la bonne répartition de l’espace entre chaque élément pour faciliter la lecture du rapport.

Microsoft Power BI select the right background

Règle #5 : Bien choisir le fond d’écran de vos rapports

Il est crucial d’utiliser une image en haute résolution, mais aussi de bien respecter les contrastes. Certains fonds d’écrans sont difficiles à intégrer dans des rapports, préférez donc des couleurs unies et offrant un bon équilibre avec les couleurs utilisées pour vos visualisations (voir règle #9).

microsoft-power-bi-6-select-the-right-background

Règle #6 : Utiliser la bonne visualisation

Miguel nous conseille d’utiliser des visualisations adaptées aux données représentées, préférez donc les graphiques de types Gauges pour des ratios, des histogrammes pour des évolutions, des camemberts ou donuts pour des répartitions ou bien des tableurs pour un affichage détaillé des données.

microsoft power bi 7 dont use many effects

Règle #7 : N’utilisez pas trop d’animations

En effet, plutôt que d’exploiter au maximum tous les effets possibles, il est préférable de se contenter d’un minimum d’animation. Posez vous la question « Cette animation apporte-t-elle réellement quelque chose de plus à mon rapport ? », ainsi vous assurerez la disponibilité mentale de vos interlocuteurs qui se concentreront davantage sur l’essentiel à savoir, l’information.

microsoft power bi 8 use empty space wisely

Règle #8 : Utilisez correctement les espaces vides

En effet, il est préférable d’afficher moins d’éléments sur une même page afin d’améliorer sa lisibilité. Évitez de rajouter trop d’informations et de vouloir afficher toutes les données possibles. Si cela est trop compliqué, pensez à découper votre page en plusieurs pages, en vous concentrant sur une thématique précise sur chacune d’entre elles.

microsoft power bi 9 choose color palette

Règle #9 : Choisissez, et tenez-vous à une palette de couleur

On distingue trois grands types de palettes de couleur : analogue, triade et monochrome.

Miguel nous avoue qu’il préfère de façon générale utiliser le monochrome, quelques fois l’analogue, et rarement la triade.  Personnellement, mon choix varie souvent en fonction des couleurs et du thème que je choisis. J’utilise un outil en ligne gratuit et disponible à l’adresse suivante : https://color.adobe.com/.

Enfin, de façon générale, les ergonomes conseillent de respecter la règle des 5, à savoir maximum 5 couleurs, 5 éléments, 5 rubriques par pages. Cette valeur peut varier, Miguel conseille par exemple 4 couleurs dans des gammes analogue et triade, contre 6 couleurs dans la gamme monochrome.

microsoft power bi enhance the important parts of pageRègle 10 : Faites ressortir les informations essentielles.

Jouez avec les contrastes et les couleurs pour faire ressortir les informations que vous (et vos utilisateurs) jugez prioritaires. En faisant ainsi, vous aiderez vos utilisateurs à se concentrer sur l’essentiel et votre tableau de bord gagnera ainsi en efficacité. C’est indéniablement un détail qui sera apprécié par vos utilisateurs.

Microsoft Power BI Finish your dashboards

Enfin, pensez à bien finaliser vos tableaux de bord. C’est la couche de vernis vous fera briller votre travail, la touche de finition qui montre incitera vos utilisateurs à passer du temps sur vos tableaux de bord et à passer par vos à nouveau pour de futurs projets.

Tagué , , , ,

Power BI Desktop – Nouvelle version d’Avril 2016

La nouvelle version de Power BI Desktop du mois d’avril 2016 (Version : 2.34.4372.322) est enfin disponible au téléchargement.

microsoft power bi desktop nouvelle version 2016

Comme nous pouvons le constater, cette année Microsoft nous montre à quel point la business intelligence « nouvelle génération » (ou self-service BI) fait partie de ses priorités. Notons d’ailleurs que Power BI s’inscrit dans les priorités dans la roadmap Microsoft en étant une des briques officielles du Workshop Cortana Analytics 2016. Nous attentons donc avec impatience de voir l’évolution de la solution tout au long de cette année 2016.

microsoft cortana analytics big data prédictif azure power bi

Les nouveautés de cette version de Power BI Desktop

Nous vous proposons ici une analyse rapide et synthétique des évolutions proposées dans
cette nouvelle version. Pour voir en détail l’ensemble des nouvelles fonctionnalités, nous vous proposons de vous rendre sur le site officiel de Microsoft Power BI (lien).

Fonctionnalités de visualisation des données dans les rapports (Power View) :

  • De nouvelles fonctionnalités permettent la personnalisation des styles visuels des graphiques tabulaires (Tableau, Matrice et Carte à plusieurs lignes)
  • Reconnaissance des relations hiérarchiques entre différents indicateurs, possibilité d’affiner la modélisation des données dans Power Pivot
  • Exploration des données à plusieurs niveaux hiérarchiques à travers la fonction « Développez tout »
  • Zoom automatique de la carte en fonction du niveau d’exploration des données.
  • Une « ligne de tendance » (simpliste) peut être ajoutée à vos histogrammes.

Fonctionnalité de modélisation des données (Power Pivot) :

  • Il est possible de modifier la structure des informations pendant que Power BI rafraîchit les données.
  • Reconnaissance intelligence du format des données de type « Date », compatible avec des données à plusieurs niveaux hiérarchiques.
  • Des synonymes peuvent être déclarés afin d’optimiser les questions via le moteur de requêtes en langage naturel (Q&A).

Fonctionnalités liées à la connexion aux données (Power Query) :

  • Il est possible de spécifier des paramètres dans vos chaînes de connexions à des sources de données.
  • Des modèles Power BI (cf. Templates) peuvent être enregistrés afin de simplifier l’industrialisation des rapports.
  • De nouveaux connecteurs à des sources de données ont été intégrés
    • Répertoire Sharepoint
    • Webtrends
    • SparkPost
    • TyGraph
  • Une interface graphique permet de simplifier la création de « Colonnes calculées ». Il n’est désormais plus obligatoire de passer par des formules DAX.
  • La disposition des colonnes dans les tableaux peut être modifiée via un simple glissé-déposé.
  • Les requêtes peuvent être effectuées sur des groupes de données, en effet, ces derniers sont automatiquement reconnus par le moteur syntaxique.

Autres liens utiles :

Tagué , , , , , , ,

Le Magic Quadrant 2016 de Gartner nous offre sa vision de la Self BI en 2018

Cette semaine, Gartner vient de nous livrer son nouveau rapport Magic Quadrant de 2016 concernant les outils de Business Intelligence et Plateformes Analytiques (voir ici pour découvrir le Magic Quadrant 2016).

Gartner nous propose donc de se projeter d’ici 2018, date à laquelle nous « arriverions » donc à un tournant majeur, celui d’une maturité des outils de self-service business intelligence (ou « Agile BI », « Self-BI » ou encore « Smart-BI ») permettant à un utilisateur métier de concevoir lui-même ses propres tableaux de bord interactifs.

En effet, l’ensemble du processus décisionnel évolue et se simplifie grâce à des nouvelles technologies et solutions innovantes visant à simplifier le traitement, l’analyse et la restitution des données. Nous pensons entre autres à Alteryx, permettant d’effectuer le l’extraction, le chargement et la transformation des données, mais également d’implémenter des traitements de prévision des données.

Notre grande surprise est la position de Microsoft, venant se positionner comme leader aux côté des célèbres Tableau Software et Qlik (notez que Gartner à analysé l’outil Power BI de Microsoft, couplé à sa plateforme cloud « Azure » et non le stack SQL Server BI traditionnel).

Pour plus d’informations, nous vous laissons découvrir plus en détail le rapport de Gartner.

 

Tagué , , , , , , ,

Veille Business Intelligence juillet-août 2015

Data Vizualisation

Tabeau soft

Tableau software s’apprête à sortir la V9.1

L’outil d’analyse en self service va déployer une version très orientée « mobilité ». Ainsi, il sera désormais possible de réaliser des « impressions d’écran » de rapports ou tableaux de bord sur mobile ou tablette afin de pouvoir les visualiser hors connexion. En dehors de la mobilité, de nouveaux connecteurs vont être ajoutés (Google Cloud SQL, Amazon Aurora, Microsoft Azure SQL Data Warehouse, Spark for HDInsight, Birst, Smartsheet), de même qu’un connecteur permettant de récupérer les données du web(Facebook, Twitter, Google sheet). Enfin, une procédure de connexion unique SSO avec SAP a été développée.

La sortie de cette version est prévue pour fin octobre.

Source : Decideo

 

Power BI V2

Microsoft met en production sa nouvelle version de Power BI

Fin de la version en preview, les entreprises peuvent depuis le 24 juillet utiliser la nouvelle version de Power BI dont nous vous avons déjà parlé précédemment. La principale évolution vient de la mise en place d’une application Desktop qui centralise les fonctionnalités de Power Query, Power Pivot et Power View. Collecter des données, les transformer, modéliser et réaliser des tableaux de bord se fera désormais sur une interface dédiée à la BI beaucoup plus intuitive que sur l’ancienne version où différents modules étaient intégrés dans Excel.

Cette nouvelle version ne contient pas encore toutes les fonctionnalités présentes sur la version 1 (Excel). Je pense notamment à la gestion des KPIS ou bien même à la géolocalisation en 3D (Power Map) mais nous pouvons imaginer que cela viendra. En attendant il est toujours possible d’utiliser les deux versions en parallèle en fonction des besoins car, qu’un tableau de bord soit produit à partir de l’application ou bien à partir d’un fichier Excel, les deux types de fichiers produits pourront être intégrés dans le cloud.

Concernant la partie cloud, son interface a complètement évolué mais, sur le principe, les fonctionnalités restent les mêmes.

Enfin concernant le prix, il est de 10 dollars par mois par utilisateurs

Partie Analyse (via l’application):

Power BI V2 - Analyse - Application

Partie Partage (via le cloud):

Power BI V2 - Cloud

Source : Lemondeinformatique + complément personnel

 

Cloud

Cloud fun

Les Etats-Unis font confiance au cloud, pourquoi pas nous ? 

Une récente étude du cabinet de conseil et de benchmark « Ventana Research » a permis de mettre en lumière la propension des sociétés américaines à utiliser de plus en plus de solutions décisionnelles dans le cloud.

adoption du décisionnel cloud

Le cloud est majoritairement utilisé pour suivre les données prédictives (51%), les données clients (47%) et les données de vente (33%). Il vient également s’intégrer dans une volonté forte de partage de l’information et répond aussi à un besoin de mobilité pour près de 80% des entreprises interrogées. Pour le cabinet, le niveau d’utilisation du cloud n’est pas encore à son meilleur niveau. Seule une entreprise sur sept atteint le niveau maximum d’utilisation du cloud représenté, selon Ventana, par l’innovation. Une analyse plus poussée  montre que la technologie et les processus sont bien gérés mais qu’il y a encore des progrès à faire sur la gestion de l’information et l’adoption par les ressources humaines. Cela peut s’expliquer par certains freins au déploiement par les employés qui, malgré la volonté d’avancer des dirigeants, ont des craintes sur la sécurité des données et le manque de compétences dans l’analytique en mode cloud.

Cloud privé, hybride ou public ?

Le frein sur la sécurité des données est contourné par l’adoption d’un cloud privé à 66% tandis que 38 % des entreprises utilisent un cloud public et 30 % un cloud hybride (certaines entreprises utilisent plusieurs modes). Les cloud privés et hybrides sont majoritairement utilisés dans les domaines de la finance, de l’assurance, de l’immobilier et au niveau du gouvernement où l’aspect privé des données est une véritable préoccupation. Pour 70% des utilisateurs, le cloud privé facilite le partage d’information et permet d’améliorer la communication . Il en va de même pour 72% des utilisateurs de cloud hybride et 56 % pour le cloud public. En outre, les entreprises  qui adoptent le cloud privé ou hybride ont, par la suite, une politique d’intégration et de traitement de données beaucoup plus forte que celles qui adoptent le cloud public.

En résumé, les dirigeants américains adoptent de plus en plus les solutions décisionnelles en mode cloud et privilégient les systèmes privés ou hybrides pour verrouiller au maximum la dimension « sécurité ». A quand une tendance similaire en France ?

Source : smartdatacollective.com

 

Réflexion

consommation data

Maîtriser sa consommation d’analytique, c’est bon pour la santé de son entreprise ! 

Joanna Schloss désigné 5ième femme la plus influente dans le secteur de la BI et  membre du centre d’excellence Dell s’est intéressée à l’excès d’analyse dans les entreprises. Pour elle, l’analyse de la donnée a pour objectif de base d’apporter des éléments  extrêmement fins qu’il est impossible d’avoir autrement et qui vont permettre de prendre des décisions  plus pertinentes. L’analyse répond à deux principaux besoins : maîtriser les coûts en rationalisant les processus et innover. Malheureusement le contexte actuel, pousse les entreprises à privilégier la réponse au premier besoin au détriment du second. Comment s’en apercevoir au sein de son entreprise ? De nombreux projets innovants sont bloqués par les analystes, les modalités de financement sont décidés par des analystes financiers et non les dirigeants ou bien encore lorsque les analystes sont plus nombreux que les éléments créatifs, stratèges…

Cette stratégie entraîne souvent une limitation de la prise de risque alors que l’analyse des données devrait au contraire servir de point d’appui à des projets rentables sur le moyen-long terme dont les risques existent mais sont calculés. Un équilibre doit donc être trouvé entre l’optimisation vitale à l’heure actuelle et l’innovation si nécessaire au futur de l’entreprise.

Pour cela, Joanna propose notamment d’identifier et de former trois équipes/groupes de personnes:

  • Les  analystes qui se focalisent sur les gains d’efficacité à court terme qui vont travailler sur la rationalisation des coûts et l’optimisation des processus opérationnels
  • Les analystes spécialisés dans l’innovation immédiate qui doivent s’appuyer sur les données pour identifier les tendances et mettre en place des actions / projets dont les bénéfices se feront sur les 3 ou 5 ans à venir.
  • Les analystes qui ont pour mission d’analyser les données et détecter des potentiels d’innovation à très long terme (10 ou 20 ans) sans se préoccuper des investissements et du ROI.

Source : decideo et CMS Wire.com

 

Agenda

 

Calendrier

Je réaliserai un debrief des conférences auxquelles j’aurai assisté 😉

 

Tagué , , , , , , , , , , , , , , , , , , , , , ,

Veille business intelligence juin 2015

Outils DataViz, Data Discovery, Data Story Telling

Nouvelle version de Power BI Designer (Beta)

Microsoft vient de sortir la version du mois de mai 2015.Microsoft Power BI

Rassurez-vous, il ne s’agit pas d’une refonte complète de l’outil, mais de l’implémentation de nouvelles fonctionnalités utiles et qui vous permettront de gagner des heures dans la manipulation de vos données et de vos tableaux de bord.

Nous avons écrit un article spécialement sur ce sujet

Ressources :

Vidéo de présentation des fonctionnalités

Lien de téléchargement

Qlik Sens Self-service Business Intelligence

QlikSense sort sa V2

Qlik a lancé le 24 juin la V2.0 de QlikSense. Quatre principales fonctionnalités  accompagnent cette sortie :

  • Smart data load qui va permettre à l’utilisateur de connecter plusieurs sources de données entre elles pour pouvoir croiser des données.
  • Smart data compression qui permet à l’utilisateur d’analyser extrêmement finement ses données en se plongeant, de manière très lisible, dans des milliards de points dans des diagrammes de nuages de points.
  • Print and export qui autorise l’utilisateur à exporter  des données au format PDF et Powerpoint, ce qui, détail non négligeable, permet d’éviter les impressions écran dans le cadre de présentations des résultats/analyses aux équipes.
  • Qlik Data Market qui met à disposition des utilisateurs des données externes telles que les données météorologiques ou des taux de change.

Cette nouvelle version permet d’améliorer l’expérience utilisateur et de simplifier la prise en main de l’outil par des fonctionnels, en particulier sur la partie « connexion aux données ».

Voici le lien pour télécharger cette nouvelle version :  QlikSense Desktop 2.0

Entreprise

 

Oscaro utilise BIME comme outil de reporting !

Le site de vente en ligne de pièces auto Oscaro qui génère plus de 30Oscaro logo0 millions de CA et leader sur le marché, a décidé  il y a environ un an de s’appuyer sur ses données pour améliorer l’expérience client. Pour apporter des éléments concrets aux différents analystes métiers (marketing notamment), Oscaro a décidé de mettre en place un nouveau système décisionnel basé sur une approche big data et 100% cloud dans l’objectif de maîtriser le volume de données ainsi que les coûts d’infrastructures. La troisième problématique à maîtriser était l’accessibilité de l’outil de reporting à des fonctionnels.  Le choix final de l’outil s’est porté sur BIME qui rentre complètement dans ces trois critères.

Désormais, les utilisateurs métiers travaillent à partir de données issues de plus de 80 sources  (qui  sont centralisées et « nettoyées » dans Hadoop  puis déversées dans Big Query) et peuvent croiser, par exemple, le catalogue produits avec les données de navigation et de ventes afin d’obtenir les marges produits, des données logistiques transporteurs (ponctualité des réceptions) ou bien des informations sur la satisfaction client. La très bonne compatibilité des outils Biq Query / BIME permet aux métiers de réaliser en temps réel des analyses simples et précises sur des volumes de données considérables.

Les utilisateurs ont particulièrement apprécié certaines fonctionnalités comme les analyses temporelles  (N vs N-1, 3 derniers mois…), la capacité des outils à filtrer simplement, les types de visualisations proposés, la facilité de partage des rapports ou bien encore la simplicité de connexion entre BIME et Big Query.

Au-delà de la valeur ajoutée sur la conception des tableaux de bord (dont les mises en place se sont étalées sur deux mois), BIME a également permis à Oscaro de qualifier les données issues des systèmes sources et donc d’identifier très rapidement les incohérences.

Pour finir, ce démarrage réussi a conduit Oscaro à intégrer, à terme, les achats ainsi que les données financières dans BIME.

Source : Blog BIME

Enjeux Métiers

Les données, un puits immense de ressources pour définir sa stratégie de pricing

Les entreprises de B2B n’ont pas encore pris la pleine mesure de ce queArgent pouvait apporter l’exploitation de leurs données à leur politique de pricing. Contrairement au B2C, l’analyse des données à des fins de pricing n’est pas une action prioritaire alors que c’est pourtant un levier fort de la performance de l’activité. Des outils de pricing basés sur la segmentation client existent bien évidemment mais les entreprises les utilisant se privent d’une richesse de données qui leur permettrait d’aller beaucoup plus loin dans les analyses et la segmentation. Les prix pratiqués seraient plus adaptés et plus justes. L’entreprise pourrait également suivre l’évolution des prix, des taux de remise ou des marges et en faire des analyses plus poussées. La baisse des taux de remise pourrait s’expliquer par des ventes se déplaçant de clients bénéficiant de taux de remise élevés vers d’autres bénéficiant de taux de remise faibles ou bien par une concurrence réduite sur un type de produit. Toute une série d’indicateurs de marge, de stock, de taux de transformation, de prix des concurrents permettraient un pilotage plus fin des prix au quotidien et de faire des analyses post actions. Cela nécessite bien évidemment des compétences pointues en termes de pricing mais la valeur ajoutée est réelle. L’article ci-dessous décrit très bien les enjeux d’un tel investissement.

Source : Décideo

Tagué , , , , , , , , , , , , ,

Rendez les données aux métiers !

L’intitulé de ce billet est un brin provocateur et j’espère que vous ne m’en tiendrez pas rigueur 🙂 Cependant il reflète une vérité de plus en plus forte et met en exergue un fondamental : la donnée est créée par le métier et elle lui appartient. L’utilisateur et le métier sont en début et en bout de chaîne… et il serait normal qu’ils puissent s’approprier de plus en plus d’étapes… C’est vers cela que tend la BI !  Je pense notamment à l’élaboration des tableaux de bord. En effet, pourquoi un consultant BI devrait passer autant de temps à designer un tableau ou un graph pour finalement entendre que son graphique ne répond pas aux critères attendus et qu’il faudrait remplacer une couleur par une autre ou bien déplacer la légende …

Les outils du marché décisionnel Self-service BI

Des outils décisionnels ont fait depuis peu leur apparition sur le marché et permettent de laisser le métier manipuler les données et créer eux même leur tableau de bord de manière simple et intuitive. On parle ainsi de « self service BI . Je pense notamment à l’outil de décisionnel Microsoft Power BI qui offre de grandes possibilités via un outil connu de tous :Excel  ! (Power BI ne se limite pas à Excel mais la fonction collaborative incluant le partage des reports fera l’objet d’un autre article)

L’objet ici n’est pas de faire une présentation détaillée de l’outil mais de vous en donner les grandes lignes.

D’un point de vue « outillage », il suffit d’avoir Excel 2010 même si, comme le dit un spécialiste de cette solution en l’occurrence Jean Pierre Riehl, « L ‘histoire se raconte mieux avec 2013 mais se vit très bien avec 2010 ».  Il est important de préciser ce point car la plupart des grandes entreprises ne sont pas encore passées à 2013 et cela en raison de process de migration très longs.

PowerBI-Excel

De par son intégration dans Excel, la prise en main de cet outil se fait plus naturellement et rebute moins l’utilisateur.
De fait il sera plus disposé à construire des reports à sa convenance et pourra appréhender les concepts associés de manière plus efficace.

Excel dispose ainsi de trois éléments clés :

  • Power Query : Identification des sources de données
  • Power Pivot : Modélisation de données
  • Power View/Map : Reporting, Visualisation de données

En quelques mots …

Microsoft POWER QUERY

PowerQuery-Accueil

 

 PowerQuery-avantagesIl constitue la première étape d’intégration  et de transformation de données. Après avoir sélectionné un connecteur (un fichier Excel par exemple, une base de données ou bien encore Facebook ou des données publiques comme celles de l’insee), il est  possible :

– d’ajouter/ supprimer / renommer des colonnes
– éliminer les doublons / supprimer les lignes vides
– filtrer et trier des données
– fusionner des données…

Microsoft POWER PIVOT

PowerPivot-Accueil

PowerPivot-AvantagesOuste donc la recherche V, bienvenido le lien par table ! Exemple :

Nous avons deux tableaux :

– Un tableau décrivant le chiffre d’affaires par client pro
– Un tableau précisant l’adresse de chaque client pro

Relier les deux via Power Pivot va pouvoir permettre une analyse du chiffre d’affaires par ville là ou une recherche V aurait été habituellement nécessaire.

KPIConcernant les KPI, la définition de ceux-ci constitue un point fort de ce module. Des règles peuvent ainsi être déterminées facilement (ex : seuil de rentabilité mensuel, nombre minimum d’objets vendus sur période donnée, % maximum d’anomalie…)  et le rendu est assez agréable. J’en veux pour témoin notre gérant fictif d’une société fictive elle aussi 🙂

raconter histoire« Aujourd’hui nous commercialisons des produits dans 4 régions : Etats-Unis, France, Italie et Slovaquie et je suis responsable des ventes en France.

Ci-dessous, je peux via une mosaïque suivre l’atteinte ou non des objectifs individuels de mes commerciaux ainsi que leur niveau de progression. Molasson est par exemple bien en dessous des objectifs fixés mais on peut s’apercevoir qu’il a un taux d’évolution très bon. Il faut donc l’encourager à l’inverse par exemple de Gaudinou qui, lui, a de mauvais résultats et une évolution négative ! (1)

Je peux profiter de mes indicateurs pour m’apercevoir que notre valeur la plus basse est aussi quasiment la plus basse au niveau des quatres régions. Cet élément plombe notre CA et il faut mettre en place des actions. Les Italiens ne sont d’ailleurs pas loin de nous à ce niveau là. (2)

Parallèlement à cela,  je peux constater rapidement la réussite ou l’échec collectif au niveau national. Ici la France a par exemple échoué et n’a pas atteint le CA minimum fixé. Aïe aïe aïe, la direction va me taper sur les doigts ! (3)… Cependant je me rends compte via un graphique plus global que notre CA cumulé est supérieur à celui des autres régions et légèrement en dessous des Etats-Unis.  Des efforts sont donc à faire mais je suis finalement dans le coup par rapport aux autres régions, Rassurant ! Les ventes en dessous du CA fixé sont donc peut être liées au contexte économique et non à la réelle performance de mes commerciaux ! (4)»

Exemple KPI

Microsoft POWER VIEW

PowerView-Avantages

Enfin la partie Power View permet la réalisation simple mais non moins visuellement agréable de reporting.
Au-delà des graphiques et tableaux de bord traditionnels, certaines fonctionnalités donnent de la valeur à cette solution.
Ainsi il est possible de remplacer des termes par des images ou bien de petites séquences animées peuvent également vous dévoiler l’évolution de vos données de manière vivante.

Le tableau de bord ci-dessous peut très rapidement être réalisé. J’ai d’ailleurs un ami fictif qui travaille pour le ministère de l’agriculture et qui a eu pour mission de travailler sur l’évolution du prix sur les 15 dernières années des fruits les plus consommés. Pour cela il a décidé, ô surprise, d’utiliser Power BI 🙂

Voici ses résultats et quelques bribes de ses commentaires…

raconter histoire« Grâce à Power BI et l’intégration d’images, j’ai des repères visuels forts. Ca n’a l’air de rien mais je sais identifier très rapidement la donnée qui m’intéresse et je peux ensuite avec mon filtre mosaïque suivre mes tendances pour un fruit donné. Ici on voit que le prix de la banane a augmenté mais n’a pas flambé 🙂 (1)

En parallèle, j’ai pu dégager les prix minimums et maximums de chaque produit et mesurer les écarts maximum. Le prix de la fraise a ainsi pris beaucoup de valeur, à moi d’en identifier les causes …. (2) 

Enfin dernier point, j’ai pu établir des analyses de corrélation et les visualiser dynamiquement sous la forme d’une séquence. J’ai pu ainsi me rendre compte que les quantités vendues n’étaient pas forcément dépendantes de l’évolution des prix. (3) »

Exemple graphs PowerView

Enfin nous pouvons en terminer avec Excel avec la fonction Power Map en indiquant simplement qu’elle permet d’obtenir une géolocalisation visuelle des données avec une modélisation 3D

finish 2

Je n’irai pas plus loin dans la présentation de Power BI, mon article étant déjà trop long …mais j’aimerais conclure en précisant que si la main peut être laissée à l’utilisateur final, il reste cependant préférable de conserver un spécialiste de la BI pour accompagner et veiller sur le bon usage des données. Car si la donnée appartient au métier et si son utilisation / manipulation est simplifiée au quotidien, elle n’en reste pas moins un élément sensible de l’entreprise qui implique un accompagnement.

Mais ceci fera l’objet d’un prochain post…

Tagué , , , , , , , , , , ,

Veille BI avril 2015

Où en est le Cloud Computing ?

Cloud fun

Le cloud hybride de plus en plus présent en Europe ! 

Si les entreprises n’ont pas encore adopté à 100 % le cloud, elles ont trouvé un modèle intermédiaire qui les rassure, en l’occurrence le cloud hybride. Ce n’est d’ailleurs pas un hasard si dans le monde du décisionnel, les outils du marché tels que BIME ou Power BI  proposent des solutions hybrides.

Pourquoi ce modèle plait-il ? Les entreprises sont attirées par ce modèle car il permet une bascule progressive vers le cloud avec des gains financiers associés mais il rassure en termes de sécurité de données !

Comment cela se traduit-il dans les faits? De manière simplifiée, les tableaux de bord sont bien présents dans le cloud… en revanche, les bases de données sont stockées dans l’entreprise. De ce fait, seuls les données utilisées dans les reporting sortent de l’entreprise au moment des rafraîchissements des données.

Au-delà de cet exemple de méthode appliquée au décisionnel, cet article vous apportera des données quantitatives et qualitatives sur  l’adoption de ce modèle.

Source : Le monde informatique

Data Visualization, Data Discovery, Data Story Telling

décision

4 bonnes raisons pour une PME d’étudier les nouvelles solutions de décisionnel de plus près !

Beaucoup de PME ne font pas des outils de décisionnel une priorité, préférant focaliser leur attention et leur budget sur leur coeur de métier ou sur des outils commerciaux. Cela risque pourtant bien de changer, car les éditeurs se sont adaptés aux contraintes des PME et les contextes ultra concurrentiels de chaque domaine obligent les entreprises à s’attarder sur les outils permettant d’améliorer leur prise de décision. Au delà de la très importante réponse en termes de budget à travers des tarifs relativement faibles par rapports aux solutions traditionnelles, ces nouveaux outils répondent à quatre besoins :

– La simplicité d’utilisation / d’analyse : les nouveaux outils, via de puissants algorithmes, permettent à des chefs d’entreprises, des managers et autres profils fonctionnels de réaliser des analyses poussées sur les données.

– La disponibilité rapide et en continu des données : des tableaux de bord peuvent être réalisés en quelques minutes là où plusieurs  jours de développement étaient nécessaires sur les anciens outils. Les données peuvent être par ailleurs rafraîchies en temps réel, ce qui permet une prise de décision basée sur des informations qui sont au plus près de la réalité à un instant T.

– La visualisation graphique des données : les nouveaux outils de décisionnel, qualifiés d’outils de BI en self service, offres une multitude de visualisations graphiques possibles et nombre d’entre-eux vous proposent le type de graphique le plus adapté à vos données et l’analyse que vous voulez en faire.

– L’accessibilité aux données en tout lieu  : la BI en self service intègre souvent la notion de cloud et permet ainsi à des commerciaux ou des visiteurs médicaux, par exemple, de disposer de données d’analyse avec eux et ajustées en temps réel. Le cloud qui, par ailleurs, permet un déploiement rapide, simple et à moindre coût de ces outils.

Source : InfoDSI

Bime est désormais connecté à MailChimp

Mailchimp

Bime vient de mettre en place un connecteur MailChimp. Pour rappel, MailChimp est un outil qui permet de gérer les campagnes d’e-mailing avec notamment la création de formulaires, la mise en place d’envois automatiques de Newsletter…

Entreprise

Les laboratoires pharmaceutiques Théa choisissent BIME comme nouveau système décisionnel ! 

Je sors d’une session « agilité » durant laquelle j’ai joué aux legos 🙂 Je me vois donc dans l’obligation de mettre un peu d’agilité Laboratoire Thea(approximative) dans la présentation de cet article. Cela se traduit par une description sous forme de user story qui est un terme propre à l’agilité 🙂 Pour les détails il faudra se plonger dans l’article… 😉

« En tant que CRM-manager  des laboratoires pharmaceutiques Théa, je souhaite avoir une nouvelle solution décisionnelle au sein de mon entreprise  (suite à une très forte croissance et l’obsolescence de mon précédent outil : Excel 🙂 )

Business Value :

  • Meilleure compréhension du marché via de nouveaux indicateurs exploitables
  • Accès aux données à chaque instant

Critères d’acceptation :

  • Budget limité
  • Ressources IT limitées
  • Mobilité : Mise en place d’un programme d’équipement « Ipad Only » pour les visiteurs médicaux »

La solution technique apportée à cette User story n’est autre que la mise en place de l’outil décisionnel BIME dans le système d’information.

Pour connaître la suite… ici

L’actualité de la Business Intelligence internationnale l’étranger

Le milieu hospitalier américain mise sur les données pour la bascule de son modèle économique

Les établissements de santé américains sont dans une phase de transition de leur modèle en basculant doucement des honoraires de services vers le  remboursement des soins basé sur la valeur. Cela signifie prodiguer des soins adaptés,de qualité et Hôpitalà des coûts raisonnables en se basant sur la nature des soins et tout cela par opposition à une gestion basée sur les coûts et la rentabilité. Pour réaliser cette transition,  les directeurs financiers utilisent désormais l’ensemble des informations qu’ils ont à leur disposition.

Ainsi des données ont par exemple permis de mettre en évidence que les salles de soins intensifs visaient à décharger les installations et équipes compétentes dans certains établissements. Le problème étant que cela n’entraîne pas les mêmes coûts alors que le soin est le même. Autre exemple, de nombreuses réadmissions hospitalières se déroulent le dimanche. Après analyse, il s’avère que cela correspond essentiellement à des personnes sorties le vendredi et qui n’ont pas vu de médecin post sortie le week-end. De fait, les hôpitaux  envoient désormais un médecin ou spécialiste le lendemain de la sortie chez le patient afin de s’assurer de son état de santé. Cela coûte moins cher qu’un retour aux urgences et permet de garantir le bon état de la personne.

La donnée a donc été placée au centre de la transformation et cet article donnera peut-être des idées aux responsables financiers français du secteur de la santé (même si le système est bien différent entre les deux pays…)

Source : Healthcarefinancenews

Tagué , , , , , , , , , , ,