Archives d’Auteur: jeremieaurand

Partager ses tableaux de bord : ce que propose Power BI

Ce qui différencie les  véritables outils décisionnels de certains outils permettant de faire du reporting comme Excel, c’est, entre autres,  les possibilités qu’ils offrent d’un point de vue collaboratif.

Ce post a simplement pour objectif de préciser les différentes possibilités offertes par Power BI dans ce domaine.

Si vous souhaitez partager vos rapports en interne, plusieurs solutions existent :

  •  L’outil étant en mode cloud, il permet bien évidemment de partager des rapports au sein de votre organisation, via sa partie cloud, à des groupes d’utilisateurs à définir. Un tableau de bord peut être partagé de manière unitaire ou bien au sein d’un pack de contenu contenant différents tableaux de bord et/ou rapports  (un tableau de bord étant constitué d’un ou plusieurs rapports).
  • Les tableaux de bord peuvent également être partagés simplement en échangeant les fichiers résultant de la conception dans Power BI Desktop (de type Pbix) à l’image de ce que l’on pourrait faire avec des fichiers Excel partagés. Les connexions aux sources de données étant incluses, il n’y a pas de problème pour obtenir des données à jour.
  • Enfin les tableaux de bord peuvent être partagés au sein de l’organisation via les sites Sharepoint.

Si vous souhaitez partager votre tableau de bord avec des personnes externes à votre entreprise, cela est bien entendu réalisable. Comment ? 3 possibilités majeures:

  • Générer un PowerPoint à partir du rapport publié sur Power BI (cloud).
    • Cette solution présente notamment un intérêt lorsque vous, ou un membre d’une direction métier, présente de manière quotidienne, hebdomadaire ou mensuelle des slides composées en grande partie de reporting. Le PowerPoint contenant tous les rapports nécessaires se générera en un clic là où il faudrait systématiquement re-générer les rapports et réaliser des copier-coller pour constituer ses slides. Ces PowerPoint peuvent ensuite être partagés avec des personnes extérieurs à l’entreprise. Par ailleurs, cela va sans dire, mais il vous sera impossible d’utiliser les filtres présents dans le rapport. Le PowerPoint contient des rapports figés et ceux-ci sont donc l’exacte image de ce que vous affichez sur votre écran.
  • Générer une URL sécurisée à partager avec n’importe qui et sans utilisation de mot de passe
  • Intégrer les rapports publiés sur Power BI sur un site web ou sur un blog
    • Cette solution vous sera extrêmement utile si vous souhaitez que des clients puissent visualiser, sur votre site, des rapports les aidant à prendre des décisions d’achat par exemple ou si vous souhaitez donner un aperçu de ce que vous êtes capable de faire avec cet outil.

 

Comme vous pouvez le voir, Power BI a fait le nécessaire pour  répondre aux besoins de chacun en termes de partage et de diffusion de rapports.

Les possibilités de partage offertes par Power BI

Tagué , , , , , , ,

Tableau software : retour d’expérience Engie

engie-logoLors de la conférence Tableau qui s’est déroulée en mai sur Paris, ENGIE, entreprise de service en efficacité énergétique de 12000 salariés nous a offert son retour d’expérience  sur la mise en place de l’outil de reporting Tableau software.

 

Voici la synthèse de leur intervention sous la forme de questions / réponses…

 

tableau software 2016 tendances benchmark vendor 2016 self service business intelligence data discovery

Changement d’outil et choix de Tableau

 

Pourquoi avoir voulu mettre en place un nouvel outil décisionnel ?

La société avait besoin de piloter la performance sur une cinquantaine d’agences. Il y avait donc un objectif de langage commun mais également une volonté d’alléger le travail de reporting personnel.

Par ailleurs, Engie produisait régulièrement un COMEX en Excel et il était nécessaire d’avoir un outil de reporting commun efficace  et qui permette la consolidation. Le travail cumulé sur les 50 agences se chiffrait à 10 J par mois.

La production de rapports opérationnels était également trop longue.

Outre cette problématique de délai de production et de charges consommées, il y avait également deux besoins majeurs :

  • Avoir une interface ergonomique / user friendly
  • Pouvoir croiser les données

 

Quel outil était là auparavant ?

BO

Pourquoi avoir choisi Tableau Software ?

Une analyse du Gartner a permis de positionner rapidement Tableau Software et son statut de leader parmi les favoris. Une grille d’évaluation avec pondération ainsi que des cas d’études ont permis à Tableau d’atterrir dans la short list.

Quel a été l’argument clé en faveur de Tableau Software face aux concurrents?

Durant les phases de test et entretiens avec les éditeurs, Tableau, en moins de deux heures, a su reconstituer les deux trois grands rapports. Précisions que la production des tableaux a été réalisée par les chefs de projet et non les experts techniques de Tableau.

 

Mise en oeuvre

Mise en oeuvre

 

Quelle a été « l’architecture technique » retenue ?

Engie a opté pour la solution Server au détriment de Tableau Online. Ils ont donc mis en place Tableau Desktop et Tableau Server

D’où proviennent les données ?  

Tableau est connecté à un Datawarehouse qui centralise les données des différents outils du SI. Il n’y a pas de connexion à des outils de production. Au moment de la présentation, des datamart étaient en cours de préparation pour faciliter l’utilisation (en terme de jointures par exemple) et optimiser les performances.

Comment s’est déroulée la mise en place ?

Il y a une équipe qui recense les demandes et qui produit petit à petit les rapports.

Comment est gérée la sécurité des données ?

Des univers peuvent être créés par utilisateur ou groupe d’utilisateurs pour conserver un niveau de sécurité (vision uniquement de mon périmètre, mon agence) mais qui permet une lecture transverse (ensemble des données techniques, commerciales…)

Est-ce que tout s’est déroulé comme prévu ?

La prise en main de l’outil a été facile. En revanche il y a eu un temps de préparation des données  très important et relativement long (avec de longues phases de tests).

Des process ont dû être modifiés en amont pour avoir, dans les bases, davantage de données « propres ».

 

cles

 Les clés d’un projet réussi dans le temps…

 

Quelles sont les clés pour une bonne prise en main ?

Il faut limiter les freins à l’utilisation en passant du temps sur la préparation des données et la conception d’entrepôts de données intermédiaires.

ENGIE  essaye, par ailleurs, de développer une culture des champions. Par exemple, l’agence « B » réalise un rapport et le remonte. Si la direction estime qu’il peut avoir une vraie valeur ajoutée pour les autres agences alors celui-ci sera ré-appliqué dans celles-ci. C’est une politique de partage ascendant.

Comment prévenir les risques liés à l’industrialisation ?

Il faut travailler en amont pour identifier les règles de gestion des KPIS (définition commune d’un CA par exemple) pour éviter d’avoir des chiffres différents pour un même indicateur.

Comment maintient-on la compétence sur ce type d’outil ?

Dans un premier temps, il faut identifier et s’appuyer sur des ressources qui ont une appétence à la data.

Ensuite pour maintenir la compétence, il est nécessaire de pratiquer régulièrement et de s’appuyer sur les forums et le site de tableau qui représentent une source d’information extrêmement riche et permettent de répondre à de nombreuses interrogations.

 

deploiement

 Une réussite chiffrée et un déploiement conséquent à venir …

 

Un des objectifs était le gain de temps, peut-on chiffrer celui- ci ? 

Une fois que les données seront à 100% fiables, le temps de production sera réduit à néant car tout est automatisé.

Autrement dit, Engie devrait passer de 500 JH annuel à 2.5 JH soit 99.5 % de gain, l’équivalent de 25 ETP.

 

futur

 Et le futur, on en parle ?

Cette première mise en place étant réussie, ENGIE compte étendre le déploiement de cet outil. Ainsi l’ensemble des collaborateurs aura accès sur Tableau Server à l’ensemble des univers qui leur sont nécessaires. Cela représente plus de 1000 personnes, une centaine par filière…

Une ouverture maximale sera faite en lecture.

Le déploiement de Tableau chez Engie n’en est donc qu’à son commencement…

Tagué , , , , , ,

Tableau Software : Retour d’expérience La Poste

Il y a quelques semaines, j’ai pu assister à un retour d’expérience de La Poste sur le choix, l’implémentation et le déploiement de l’outil de reporting Tableau Software.

Je vous propose ici un compte rendu de cet événement…

I- Retour d’expérience : Conférence

tableau software laposte dataviz

La Poste  en quelques chiffres

Rappel de présentation La Poste

  • Chiffre d’affaires : 22 milliards dont 18 % à l’international
  • Direction client entreprise : 630 vendeurs / 300 vendeurs télévente
  • 30 directions de vente

Qu’est ce qui a déclenché la mise en place d’un outil BI en 2012 ?

  • Un environnement économique en mutation, agité. Cela a nécessité de libérer du temps aux analystes pour passer du temps sur de l’analyse et non de la production de rapports.
  • Trop d’outils BI non connectés entre eux, ce qui avait pour conséquence une perte en efficacité car les utilisateurs avaient besoin de s’adapter aux interfaces.
  • La solution devait  répondre aux exigences :
    • De la DSI
      • Rapidité d’implémentation
      • Simplicité d’implémentation (architecture non bouleversée)
    • Des analystes :
      • Simplicité d’utilisation, intuitif et rapide pour apprentissage
    • Des managers commerciaux :
      • Simplicité de navigation

 

Quoi ? Comment ? Pour Qui ?

Quoi ? Comment ? Pour qui ?  

La démarche :

  • Bilan de l’existant : il y a un problème au niveau de l’écosystème avec des solutions non interconnectées
  • Choix de prendre une société de consulting pour :
    • Préciser les besoins actuels
    • Identifier la trajectoire future et dessiner ce qu’il faut pour l’avenir
  • Choix de l’outil (avec l’aide du cabinet) : Tableau software
  • Réalisation d’un Proof of Concept pour valider la solution Tableau vs Business Object (qui était en place au sein de La Poste).

Tableau a été choisi dans ce duel final car il satisfaisait toutes les exigences initiales mais également car il offrait une multitude de connexions natives.

Mise en place :

  • Ressources humaines
    • 30 à 40 jours hommes étalés sur 4 semaines
  • Sources de données
    • Sybase IQ (15 milions de lignes)
    • M SQL server (10 millions de ligne)
    • Fichiers Excel
  • Connexion SSO
    • Relié au LDAP de l’entreprise

Déploiement

Le déploiement s’est fait de manière progressive. Dans un premier temps, 10 licences desktop ont été attribuées aux personnes du siège pour la conception de tableaux de bord.

En parallèle, un déploiement auprès de tous les utilisateurs de Tableau Reader (outil permettant de lire gratuitement les dashboards produits)  ainsi que des formations à distance ont été réalisés.

Dans un deuxième temps, le nombre de users a été considérablement revu à la hausse et la société est passée sur une solution technique de type server 8 cœurs avec, pour accompagner ce déploiement, de l’elearning ainsi que des fiches d’utilisation intégrant des astuces.

L’objectif final est d’atteindre les 1600 utilisateurs.

Quels utilisateurs ?

Les utilisateurs sont de trois types :

  • Des commerciaux
  • Des analystes en région
  • Des analystes au siège

Quels rapports ?

Les tableaux de bord ont pour principal objectif l’analyse de la performance de l’activité commerciale (ex : Chiffre d’affaires).

Les analystes suivent notamment les forces de ventes de La poste pour les produits vendus pour le compte des filiales.

Autre exemple, le suivi du poids des portefeuilles par zone géographique a été mis en place.

Avec le temps, les besoins ont afflué. Il est par exemple possible de suivre le nombre de courriers traités versus les objectifs.

Chaque vendeur peut par ailleurs avoir une vision détaillée de son activité ou de celle de son équipe par défaut avec la possibilité d’enregistrer ses propres vues dans l’application.

 Satisfaction Tableau

Ce qui plait avec Tableau software

 

Les possibilités offertes ….

Au-delà des fonctionnalités d’analyse, Tableau offre des possibilités très utilisées par La Poste. C’est notamment le cas de :

  • La gestion des abonnements : pouvoir demander qu’un dashboard nous soit envoyé à une fréquence définie (c’est le métier qui gère cela).
  • La gestion des favoris : on positionne des tableaux de bord en tant que favoris pour ne tomber que sur eux lors de la connexion.

Les bénéfices de cette mise en place :

Aujourd’hui, la mise en place de Tableau est perçue comme un véritable atout pour de nombreuses raisons. Ainsi :

  • Le DSI se concentre sur le management stratégique des données et l’accompagnement.
  • Les analystes créent simplement et rapidement des rapports à valeur ajoutée et ont la possibilité d’y apporter des évolutions de manière plus fluide et agile.
  • Le partage des indicateurs peut se faire avec une population conséquente et à tous les niveaux de la société (avec une politique de sécurité simple à mettre en œuvre).
  • Les utilisateurs métiers sont de plus en plus autonomes (et indépendant de la DSI) pour obtenir les données qu’ils ont besoin de suivre.
  • Les restitutions sont plus « visuelles » et permettent des analyses plus rapides et donc une meilleure réactivité en termes d’actions.
  • La qualité du décisionnel dans son ensemble est améliorée grâce à l’unicité des indicateurs en termes de définitions (car un seul système).

Globalement, le projet a été très bien perçu et vu comme une réussite.

jeu de clés

 Faire adopter le système, la clé de la réussite

 Quatre conseils pour l’adoption :

 

  • Conseil numéro 1 : Commencer petit : voir si l’outil et la gouvernance qui va avec répond vraiment au besoin pour ensuite valider la solution.
  • Conseil numéro 2 : Partir d’un noyau restreint pour avoir des utilisateurs qui maîtrisent bien l’outil et le déployer plus sereinement. Ici, le siège, puis l’ensemble des sites.
  • Conseil numéro 3 : S’appuyer sur les services d’experts externes pour vous aider dans la création des premiers rapports : un regard neuf est toujours intéressant surtout quand il faut changer les habitudes.
  • Conseil numéro 4 : Accompagner les utilisateurs à travers:
    • Des formations en interne ou en externe
    • L’instauration d’un cycle vertueux de :
      • Remontée des remarques pour optimiser et adapter les rapports aux besoins
      • Partage d’astuces et de bonnes pratiques
      • Veille sur les forums et les nouveautés de Tableau

 

Et le futur, on en parle ?

De beaux jours devant Tableau au sein de la Poste…

L’utilisation de Tableau va continuer à se développer dans les mois et années à venir au sein de La Poste avec notamment :

  • L’ajout de nouvelles sources de données pour enrichir les analyses (cartographie…)
  • L’augmentation du nombre d’analystes utilisant la version Desktop ( = conception de tableaux de bord)
  • L’extension de l’utilisation de Tableau à de nouveaux services métiers qui s’effectue de manière progressive
  • L’extension à de nouveaux terminaux d’utilisation (ex : Ipad)

 

II- Retour d’expérience : Questions / réponses

A la fin de la conférence, un jeu de questions / réponses a eu lieu pour compléter ce retour d’expérience. En voici un extrait…

Peut-on associer des définitions à nos champs calculés pour permettre aux utilisateurs d’avoir une lecture correcte du KPI ?

  • Oui

Quelles licences faut-il pour concevoir et lire des rapports ?

  • Conception + lecture
    • Tableau desktop
    • Tableau server
  • Uniquement lecture avec des données rafraîchies
    • Tableau server
  • Lecture avec données non rafraîchies
    • Tableau reader

Quelle typologie d’abonnement en termes de licences ?

  • A La Poste, il y a des milliers d’utilisateurs. Dans ce genre de cas, il est préférable de passer par un serveur sur lequel on paie un nombre de cœurs (et non plus des licences). Cela permet d’avoir autant d’utilisateurs que d’espace disponible.

Quels étaient les anciens outils ?

  • Siebel answer
  • BO V5

Y-a-t-il eu des contraintes en termes de volumes de données 

La Poste a géré plus de 15 millions de lignes en mode « In memory ». Tableau compile et indexe en une ou deux minutes. Il n’y a pas de ralentissement particulier.

Comment est géré le passage d’une version à une autre ?

Il y a une compatibilité ascendante entre les versions. Cela signifie que les dashboards des anciennes versions sont toujours compatibles avec la nouvelle version. C’est donc transparent pour le client.

Comment est gérée la sécurité sur les reporting ?

Il est possible d’appliquer un filtre utilisateur soit par rôle (groupe d’utilisateurs), soit par géographie (groupe également). Chez La Poste, la sécurité est gérée par rôle.

Le périmètre géographique est quant à lui ouvert (Les salariés du Nord peuvent voir les résultats de ceux du Sud…)

Cette dernière question vient clôturer ce retour d’expérience. J’espère qu’il aura pu vous être utile. N’hésitez pas à laisser des commentaires pour indiquer les points qu’il vous aurait semblé intéressant de traiter !

Tagué , , , ,

Veille Business Intelligence juillet-août 2015

Data Vizualisation

Tabeau soft

Tableau software s’apprête à sortir la V9.1

L’outil d’analyse en self service va déployer une version très orientée « mobilité ». Ainsi, il sera désormais possible de réaliser des « impressions d’écran » de rapports ou tableaux de bord sur mobile ou tablette afin de pouvoir les visualiser hors connexion. En dehors de la mobilité, de nouveaux connecteurs vont être ajoutés (Google Cloud SQL, Amazon Aurora, Microsoft Azure SQL Data Warehouse, Spark for HDInsight, Birst, Smartsheet), de même qu’un connecteur permettant de récupérer les données du web(Facebook, Twitter, Google sheet). Enfin, une procédure de connexion unique SSO avec SAP a été développée.

La sortie de cette version est prévue pour fin octobre.

Source : Decideo

 

Power BI V2

Microsoft met en production sa nouvelle version de Power BI

Fin de la version en preview, les entreprises peuvent depuis le 24 juillet utiliser la nouvelle version de Power BI dont nous vous avons déjà parlé précédemment. La principale évolution vient de la mise en place d’une application Desktop qui centralise les fonctionnalités de Power Query, Power Pivot et Power View. Collecter des données, les transformer, modéliser et réaliser des tableaux de bord se fera désormais sur une interface dédiée à la BI beaucoup plus intuitive que sur l’ancienne version où différents modules étaient intégrés dans Excel.

Cette nouvelle version ne contient pas encore toutes les fonctionnalités présentes sur la version 1 (Excel). Je pense notamment à la gestion des KPIS ou bien même à la géolocalisation en 3D (Power Map) mais nous pouvons imaginer que cela viendra. En attendant il est toujours possible d’utiliser les deux versions en parallèle en fonction des besoins car, qu’un tableau de bord soit produit à partir de l’application ou bien à partir d’un fichier Excel, les deux types de fichiers produits pourront être intégrés dans le cloud.

Concernant la partie cloud, son interface a complètement évolué mais, sur le principe, les fonctionnalités restent les mêmes.

Enfin concernant le prix, il est de 10 dollars par mois par utilisateurs

Partie Analyse (via l’application):

Power BI V2 - Analyse - Application

Partie Partage (via le cloud):

Power BI V2 - Cloud

Source : Lemondeinformatique + complément personnel

 

Cloud

Cloud fun

Les Etats-Unis font confiance au cloud, pourquoi pas nous ? 

Une récente étude du cabinet de conseil et de benchmark « Ventana Research » a permis de mettre en lumière la propension des sociétés américaines à utiliser de plus en plus de solutions décisionnelles dans le cloud.

adoption du décisionnel cloud

Le cloud est majoritairement utilisé pour suivre les données prédictives (51%), les données clients (47%) et les données de vente (33%). Il vient également s’intégrer dans une volonté forte de partage de l’information et répond aussi à un besoin de mobilité pour près de 80% des entreprises interrogées. Pour le cabinet, le niveau d’utilisation du cloud n’est pas encore à son meilleur niveau. Seule une entreprise sur sept atteint le niveau maximum d’utilisation du cloud représenté, selon Ventana, par l’innovation. Une analyse plus poussée  montre que la technologie et les processus sont bien gérés mais qu’il y a encore des progrès à faire sur la gestion de l’information et l’adoption par les ressources humaines. Cela peut s’expliquer par certains freins au déploiement par les employés qui, malgré la volonté d’avancer des dirigeants, ont des craintes sur la sécurité des données et le manque de compétences dans l’analytique en mode cloud.

Cloud privé, hybride ou public ?

Le frein sur la sécurité des données est contourné par l’adoption d’un cloud privé à 66% tandis que 38 % des entreprises utilisent un cloud public et 30 % un cloud hybride (certaines entreprises utilisent plusieurs modes). Les cloud privés et hybrides sont majoritairement utilisés dans les domaines de la finance, de l’assurance, de l’immobilier et au niveau du gouvernement où l’aspect privé des données est une véritable préoccupation. Pour 70% des utilisateurs, le cloud privé facilite le partage d’information et permet d’améliorer la communication . Il en va de même pour 72% des utilisateurs de cloud hybride et 56 % pour le cloud public. En outre, les entreprises  qui adoptent le cloud privé ou hybride ont, par la suite, une politique d’intégration et de traitement de données beaucoup plus forte que celles qui adoptent le cloud public.

En résumé, les dirigeants américains adoptent de plus en plus les solutions décisionnelles en mode cloud et privilégient les systèmes privés ou hybrides pour verrouiller au maximum la dimension « sécurité ». A quand une tendance similaire en France ?

Source : smartdatacollective.com

 

Réflexion

consommation data

Maîtriser sa consommation d’analytique, c’est bon pour la santé de son entreprise ! 

Joanna Schloss désigné 5ième femme la plus influente dans le secteur de la BI et  membre du centre d’excellence Dell s’est intéressée à l’excès d’analyse dans les entreprises. Pour elle, l’analyse de la donnée a pour objectif de base d’apporter des éléments  extrêmement fins qu’il est impossible d’avoir autrement et qui vont permettre de prendre des décisions  plus pertinentes. L’analyse répond à deux principaux besoins : maîtriser les coûts en rationalisant les processus et innover. Malheureusement le contexte actuel, pousse les entreprises à privilégier la réponse au premier besoin au détriment du second. Comment s’en apercevoir au sein de son entreprise ? De nombreux projets innovants sont bloqués par les analystes, les modalités de financement sont décidés par des analystes financiers et non les dirigeants ou bien encore lorsque les analystes sont plus nombreux que les éléments créatifs, stratèges…

Cette stratégie entraîne souvent une limitation de la prise de risque alors que l’analyse des données devrait au contraire servir de point d’appui à des projets rentables sur le moyen-long terme dont les risques existent mais sont calculés. Un équilibre doit donc être trouvé entre l’optimisation vitale à l’heure actuelle et l’innovation si nécessaire au futur de l’entreprise.

Pour cela, Joanna propose notamment d’identifier et de former trois équipes/groupes de personnes:

  • Les  analystes qui se focalisent sur les gains d’efficacité à court terme qui vont travailler sur la rationalisation des coûts et l’optimisation des processus opérationnels
  • Les analystes spécialisés dans l’innovation immédiate qui doivent s’appuyer sur les données pour identifier les tendances et mettre en place des actions / projets dont les bénéfices se feront sur les 3 ou 5 ans à venir.
  • Les analystes qui ont pour mission d’analyser les données et détecter des potentiels d’innovation à très long terme (10 ou 20 ans) sans se préoccuper des investissements et du ROI.

Source : decideo et CMS Wire.com

 

Agenda

 

Calendrier

Je réaliserai un debrief des conférences auxquelles j’aurai assisté 😉

 

Tagué , , , , , , , , , , , , , , , , , , , , , ,

Veille business intelligence juin 2015

Outils DataViz, Data Discovery, Data Story Telling

Nouvelle version de Power BI Designer (Beta)

Microsoft vient de sortir la version du mois de mai 2015.Microsoft Power BI

Rassurez-vous, il ne s’agit pas d’une refonte complète de l’outil, mais de l’implémentation de nouvelles fonctionnalités utiles et qui vous permettront de gagner des heures dans la manipulation de vos données et de vos tableaux de bord.

Nous avons écrit un article spécialement sur ce sujet

Ressources :

Vidéo de présentation des fonctionnalités

Lien de téléchargement

Qlik Sens Self-service Business Intelligence

QlikSense sort sa V2

Qlik a lancé le 24 juin la V2.0 de QlikSense. Quatre principales fonctionnalités  accompagnent cette sortie :

  • Smart data load qui va permettre à l’utilisateur de connecter plusieurs sources de données entre elles pour pouvoir croiser des données.
  • Smart data compression qui permet à l’utilisateur d’analyser extrêmement finement ses données en se plongeant, de manière très lisible, dans des milliards de points dans des diagrammes de nuages de points.
  • Print and export qui autorise l’utilisateur à exporter  des données au format PDF et Powerpoint, ce qui, détail non négligeable, permet d’éviter les impressions écran dans le cadre de présentations des résultats/analyses aux équipes.
  • Qlik Data Market qui met à disposition des utilisateurs des données externes telles que les données météorologiques ou des taux de change.

Cette nouvelle version permet d’améliorer l’expérience utilisateur et de simplifier la prise en main de l’outil par des fonctionnels, en particulier sur la partie « connexion aux données ».

Voici le lien pour télécharger cette nouvelle version :  QlikSense Desktop 2.0

Entreprise

 

Oscaro utilise BIME comme outil de reporting !

Le site de vente en ligne de pièces auto Oscaro qui génère plus de 30Oscaro logo0 millions de CA et leader sur le marché, a décidé  il y a environ un an de s’appuyer sur ses données pour améliorer l’expérience client. Pour apporter des éléments concrets aux différents analystes métiers (marketing notamment), Oscaro a décidé de mettre en place un nouveau système décisionnel basé sur une approche big data et 100% cloud dans l’objectif de maîtriser le volume de données ainsi que les coûts d’infrastructures. La troisième problématique à maîtriser était l’accessibilité de l’outil de reporting à des fonctionnels.  Le choix final de l’outil s’est porté sur BIME qui rentre complètement dans ces trois critères.

Désormais, les utilisateurs métiers travaillent à partir de données issues de plus de 80 sources  (qui  sont centralisées et « nettoyées » dans Hadoop  puis déversées dans Big Query) et peuvent croiser, par exemple, le catalogue produits avec les données de navigation et de ventes afin d’obtenir les marges produits, des données logistiques transporteurs (ponctualité des réceptions) ou bien des informations sur la satisfaction client. La très bonne compatibilité des outils Biq Query / BIME permet aux métiers de réaliser en temps réel des analyses simples et précises sur des volumes de données considérables.

Les utilisateurs ont particulièrement apprécié certaines fonctionnalités comme les analyses temporelles  (N vs N-1, 3 derniers mois…), la capacité des outils à filtrer simplement, les types de visualisations proposés, la facilité de partage des rapports ou bien encore la simplicité de connexion entre BIME et Big Query.

Au-delà de la valeur ajoutée sur la conception des tableaux de bord (dont les mises en place se sont étalées sur deux mois), BIME a également permis à Oscaro de qualifier les données issues des systèmes sources et donc d’identifier très rapidement les incohérences.

Pour finir, ce démarrage réussi a conduit Oscaro à intégrer, à terme, les achats ainsi que les données financières dans BIME.

Source : Blog BIME

Enjeux Métiers

Les données, un puits immense de ressources pour définir sa stratégie de pricing

Les entreprises de B2B n’ont pas encore pris la pleine mesure de ce queArgent pouvait apporter l’exploitation de leurs données à leur politique de pricing. Contrairement au B2C, l’analyse des données à des fins de pricing n’est pas une action prioritaire alors que c’est pourtant un levier fort de la performance de l’activité. Des outils de pricing basés sur la segmentation client existent bien évidemment mais les entreprises les utilisant se privent d’une richesse de données qui leur permettrait d’aller beaucoup plus loin dans les analyses et la segmentation. Les prix pratiqués seraient plus adaptés et plus justes. L’entreprise pourrait également suivre l’évolution des prix, des taux de remise ou des marges et en faire des analyses plus poussées. La baisse des taux de remise pourrait s’expliquer par des ventes se déplaçant de clients bénéficiant de taux de remise élevés vers d’autres bénéficiant de taux de remise faibles ou bien par une concurrence réduite sur un type de produit. Toute une série d’indicateurs de marge, de stock, de taux de transformation, de prix des concurrents permettraient un pilotage plus fin des prix au quotidien et de faire des analyses post actions. Cela nécessite bien évidemment des compétences pointues en termes de pricing mais la valeur ajoutée est réelle. L’article ci-dessous décrit très bien les enjeux d’un tel investissement.

Source : Décideo

Tagué , , , , , , , , , , , , ,

Rendez les données aux métiers !

L’intitulé de ce billet est un brin provocateur et j’espère que vous ne m’en tiendrez pas rigueur 🙂 Cependant il reflète une vérité de plus en plus forte et met en exergue un fondamental : la donnée est créée par le métier et elle lui appartient. L’utilisateur et le métier sont en début et en bout de chaîne… et il serait normal qu’ils puissent s’approprier de plus en plus d’étapes… C’est vers cela que tend la BI !  Je pense notamment à l’élaboration des tableaux de bord. En effet, pourquoi un consultant BI devrait passer autant de temps à designer un tableau ou un graph pour finalement entendre que son graphique ne répond pas aux critères attendus et qu’il faudrait remplacer une couleur par une autre ou bien déplacer la légende …

Les outils du marché décisionnel Self-service BI

Des outils décisionnels ont fait depuis peu leur apparition sur le marché et permettent de laisser le métier manipuler les données et créer eux même leur tableau de bord de manière simple et intuitive. On parle ainsi de « self service BI . Je pense notamment à l’outil de décisionnel Microsoft Power BI qui offre de grandes possibilités via un outil connu de tous :Excel  ! (Power BI ne se limite pas à Excel mais la fonction collaborative incluant le partage des reports fera l’objet d’un autre article)

L’objet ici n’est pas de faire une présentation détaillée de l’outil mais de vous en donner les grandes lignes.

D’un point de vue « outillage », il suffit d’avoir Excel 2010 même si, comme le dit un spécialiste de cette solution en l’occurrence Jean Pierre Riehl, « L ‘histoire se raconte mieux avec 2013 mais se vit très bien avec 2010 ».  Il est important de préciser ce point car la plupart des grandes entreprises ne sont pas encore passées à 2013 et cela en raison de process de migration très longs.

PowerBI-Excel

De par son intégration dans Excel, la prise en main de cet outil se fait plus naturellement et rebute moins l’utilisateur.
De fait il sera plus disposé à construire des reports à sa convenance et pourra appréhender les concepts associés de manière plus efficace.

Excel dispose ainsi de trois éléments clés :

  • Power Query : Identification des sources de données
  • Power Pivot : Modélisation de données
  • Power View/Map : Reporting, Visualisation de données

En quelques mots …

Microsoft POWER QUERY

PowerQuery-Accueil

 

 PowerQuery-avantagesIl constitue la première étape d’intégration  et de transformation de données. Après avoir sélectionné un connecteur (un fichier Excel par exemple, une base de données ou bien encore Facebook ou des données publiques comme celles de l’insee), il est  possible :

– d’ajouter/ supprimer / renommer des colonnes
– éliminer les doublons / supprimer les lignes vides
– filtrer et trier des données
– fusionner des données…

Microsoft POWER PIVOT

PowerPivot-Accueil

PowerPivot-AvantagesOuste donc la recherche V, bienvenido le lien par table ! Exemple :

Nous avons deux tableaux :

– Un tableau décrivant le chiffre d’affaires par client pro
– Un tableau précisant l’adresse de chaque client pro

Relier les deux via Power Pivot va pouvoir permettre une analyse du chiffre d’affaires par ville là ou une recherche V aurait été habituellement nécessaire.

KPIConcernant les KPI, la définition de ceux-ci constitue un point fort de ce module. Des règles peuvent ainsi être déterminées facilement (ex : seuil de rentabilité mensuel, nombre minimum d’objets vendus sur période donnée, % maximum d’anomalie…)  et le rendu est assez agréable. J’en veux pour témoin notre gérant fictif d’une société fictive elle aussi 🙂

raconter histoire« Aujourd’hui nous commercialisons des produits dans 4 régions : Etats-Unis, France, Italie et Slovaquie et je suis responsable des ventes en France.

Ci-dessous, je peux via une mosaïque suivre l’atteinte ou non des objectifs individuels de mes commerciaux ainsi que leur niveau de progression. Molasson est par exemple bien en dessous des objectifs fixés mais on peut s’apercevoir qu’il a un taux d’évolution très bon. Il faut donc l’encourager à l’inverse par exemple de Gaudinou qui, lui, a de mauvais résultats et une évolution négative ! (1)

Je peux profiter de mes indicateurs pour m’apercevoir que notre valeur la plus basse est aussi quasiment la plus basse au niveau des quatres régions. Cet élément plombe notre CA et il faut mettre en place des actions. Les Italiens ne sont d’ailleurs pas loin de nous à ce niveau là. (2)

Parallèlement à cela,  je peux constater rapidement la réussite ou l’échec collectif au niveau national. Ici la France a par exemple échoué et n’a pas atteint le CA minimum fixé. Aïe aïe aïe, la direction va me taper sur les doigts ! (3)… Cependant je me rends compte via un graphique plus global que notre CA cumulé est supérieur à celui des autres régions et légèrement en dessous des Etats-Unis.  Des efforts sont donc à faire mais je suis finalement dans le coup par rapport aux autres régions, Rassurant ! Les ventes en dessous du CA fixé sont donc peut être liées au contexte économique et non à la réelle performance de mes commerciaux ! (4)»

Exemple KPI

Microsoft POWER VIEW

PowerView-Avantages

Enfin la partie Power View permet la réalisation simple mais non moins visuellement agréable de reporting.
Au-delà des graphiques et tableaux de bord traditionnels, certaines fonctionnalités donnent de la valeur à cette solution.
Ainsi il est possible de remplacer des termes par des images ou bien de petites séquences animées peuvent également vous dévoiler l’évolution de vos données de manière vivante.

Le tableau de bord ci-dessous peut très rapidement être réalisé. J’ai d’ailleurs un ami fictif qui travaille pour le ministère de l’agriculture et qui a eu pour mission de travailler sur l’évolution du prix sur les 15 dernières années des fruits les plus consommés. Pour cela il a décidé, ô surprise, d’utiliser Power BI 🙂

Voici ses résultats et quelques bribes de ses commentaires…

raconter histoire« Grâce à Power BI et l’intégration d’images, j’ai des repères visuels forts. Ca n’a l’air de rien mais je sais identifier très rapidement la donnée qui m’intéresse et je peux ensuite avec mon filtre mosaïque suivre mes tendances pour un fruit donné. Ici on voit que le prix de la banane a augmenté mais n’a pas flambé 🙂 (1)

En parallèle, j’ai pu dégager les prix minimums et maximums de chaque produit et mesurer les écarts maximum. Le prix de la fraise a ainsi pris beaucoup de valeur, à moi d’en identifier les causes …. (2) 

Enfin dernier point, j’ai pu établir des analyses de corrélation et les visualiser dynamiquement sous la forme d’une séquence. J’ai pu ainsi me rendre compte que les quantités vendues n’étaient pas forcément dépendantes de l’évolution des prix. (3) »

Exemple graphs PowerView

Enfin nous pouvons en terminer avec Excel avec la fonction Power Map en indiquant simplement qu’elle permet d’obtenir une géolocalisation visuelle des données avec une modélisation 3D

finish 2

Je n’irai pas plus loin dans la présentation de Power BI, mon article étant déjà trop long …mais j’aimerais conclure en précisant que si la main peut être laissée à l’utilisateur final, il reste cependant préférable de conserver un spécialiste de la BI pour accompagner et veiller sur le bon usage des données. Car si la donnée appartient au métier et si son utilisation / manipulation est simplifiée au quotidien, elle n’en reste pas moins un élément sensible de l’entreprise qui implique un accompagnement.

Mais ceci fera l’objet d’un prochain post…

Tagué , , , , , , , , , , ,

Veille BI avril 2015

Où en est le Cloud Computing ?

Cloud fun

Le cloud hybride de plus en plus présent en Europe ! 

Si les entreprises n’ont pas encore adopté à 100 % le cloud, elles ont trouvé un modèle intermédiaire qui les rassure, en l’occurrence le cloud hybride. Ce n’est d’ailleurs pas un hasard si dans le monde du décisionnel, les outils du marché tels que BIME ou Power BI  proposent des solutions hybrides.

Pourquoi ce modèle plait-il ? Les entreprises sont attirées par ce modèle car il permet une bascule progressive vers le cloud avec des gains financiers associés mais il rassure en termes de sécurité de données !

Comment cela se traduit-il dans les faits? De manière simplifiée, les tableaux de bord sont bien présents dans le cloud… en revanche, les bases de données sont stockées dans l’entreprise. De ce fait, seuls les données utilisées dans les reporting sortent de l’entreprise au moment des rafraîchissements des données.

Au-delà de cet exemple de méthode appliquée au décisionnel, cet article vous apportera des données quantitatives et qualitatives sur  l’adoption de ce modèle.

Source : Le monde informatique

Data Visualization, Data Discovery, Data Story Telling

décision

4 bonnes raisons pour une PME d’étudier les nouvelles solutions de décisionnel de plus près !

Beaucoup de PME ne font pas des outils de décisionnel une priorité, préférant focaliser leur attention et leur budget sur leur coeur de métier ou sur des outils commerciaux. Cela risque pourtant bien de changer, car les éditeurs se sont adaptés aux contraintes des PME et les contextes ultra concurrentiels de chaque domaine obligent les entreprises à s’attarder sur les outils permettant d’améliorer leur prise de décision. Au delà de la très importante réponse en termes de budget à travers des tarifs relativement faibles par rapports aux solutions traditionnelles, ces nouveaux outils répondent à quatre besoins :

– La simplicité d’utilisation / d’analyse : les nouveaux outils, via de puissants algorithmes, permettent à des chefs d’entreprises, des managers et autres profils fonctionnels de réaliser des analyses poussées sur les données.

– La disponibilité rapide et en continu des données : des tableaux de bord peuvent être réalisés en quelques minutes là où plusieurs  jours de développement étaient nécessaires sur les anciens outils. Les données peuvent être par ailleurs rafraîchies en temps réel, ce qui permet une prise de décision basée sur des informations qui sont au plus près de la réalité à un instant T.

– La visualisation graphique des données : les nouveaux outils de décisionnel, qualifiés d’outils de BI en self service, offres une multitude de visualisations graphiques possibles et nombre d’entre-eux vous proposent le type de graphique le plus adapté à vos données et l’analyse que vous voulez en faire.

– L’accessibilité aux données en tout lieu  : la BI en self service intègre souvent la notion de cloud et permet ainsi à des commerciaux ou des visiteurs médicaux, par exemple, de disposer de données d’analyse avec eux et ajustées en temps réel. Le cloud qui, par ailleurs, permet un déploiement rapide, simple et à moindre coût de ces outils.

Source : InfoDSI

Bime est désormais connecté à MailChimp

Mailchimp

Bime vient de mettre en place un connecteur MailChimp. Pour rappel, MailChimp est un outil qui permet de gérer les campagnes d’e-mailing avec notamment la création de formulaires, la mise en place d’envois automatiques de Newsletter…

Entreprise

Les laboratoires pharmaceutiques Théa choisissent BIME comme nouveau système décisionnel ! 

Je sors d’une session « agilité » durant laquelle j’ai joué aux legos 🙂 Je me vois donc dans l’obligation de mettre un peu d’agilité Laboratoire Thea(approximative) dans la présentation de cet article. Cela se traduit par une description sous forme de user story qui est un terme propre à l’agilité 🙂 Pour les détails il faudra se plonger dans l’article… 😉

« En tant que CRM-manager  des laboratoires pharmaceutiques Théa, je souhaite avoir une nouvelle solution décisionnelle au sein de mon entreprise  (suite à une très forte croissance et l’obsolescence de mon précédent outil : Excel 🙂 )

Business Value :

  • Meilleure compréhension du marché via de nouveaux indicateurs exploitables
  • Accès aux données à chaque instant

Critères d’acceptation :

  • Budget limité
  • Ressources IT limitées
  • Mobilité : Mise en place d’un programme d’équipement « Ipad Only » pour les visiteurs médicaux »

La solution technique apportée à cette User story n’est autre que la mise en place de l’outil décisionnel BIME dans le système d’information.

Pour connaître la suite… ici

L’actualité de la Business Intelligence internationnale l’étranger

Le milieu hospitalier américain mise sur les données pour la bascule de son modèle économique

Les établissements de santé américains sont dans une phase de transition de leur modèle en basculant doucement des honoraires de services vers le  remboursement des soins basé sur la valeur. Cela signifie prodiguer des soins adaptés,de qualité et Hôpitalà des coûts raisonnables en se basant sur la nature des soins et tout cela par opposition à une gestion basée sur les coûts et la rentabilité. Pour réaliser cette transition,  les directeurs financiers utilisent désormais l’ensemble des informations qu’ils ont à leur disposition.

Ainsi des données ont par exemple permis de mettre en évidence que les salles de soins intensifs visaient à décharger les installations et équipes compétentes dans certains établissements. Le problème étant que cela n’entraîne pas les mêmes coûts alors que le soin est le même. Autre exemple, de nombreuses réadmissions hospitalières se déroulent le dimanche. Après analyse, il s’avère que cela correspond essentiellement à des personnes sorties le vendredi et qui n’ont pas vu de médecin post sortie le week-end. De fait, les hôpitaux  envoient désormais un médecin ou spécialiste le lendemain de la sortie chez le patient afin de s’assurer de son état de santé. Cela coûte moins cher qu’un retour aux urgences et permet de garantir le bon état de la personne.

La donnée a donc été placée au centre de la transformation et cet article donnera peut-être des idées aux responsables financiers français du secteur de la santé (même si le système est bien différent entre les deux pays…)

Source : Healthcarefinancenews

Tagué , , , , , , , , , , ,

Veille Business Intelligence mars 2015

Les entreprises se mettent au Big Data

Big data, où en sont les entreprises ?

Capgemini et EMC ont souhaité faire un état des lieux du Big Data dans lesBig data drôle entreprises. Pour cela, elles ont réalisé une enquête quantitative ainsi que des entretiens qualitatifs auprès de 1000 entreprises réparties dans plus de 10 pays du monde entier et dans 9 domaines d’activités différents. Nous avons parcouru et analysé celle-ci et nous vous proposons d’en découvrir les principaux éléments à retenir via du reporting…

Perception Big data

La perception du big data par les entreprises

Deploiement Big data

Le déploiement des technologies big data

Source : Site Capgemini 

La presse et les outils de visualisation (alias DataViz)

La DataViz avec Tableau Software

Comme nous vous l’avions annoncé en début d’année, la

Tableau public

Tableau Software

presse cherche à rendre plus attractifs ses articles et, pour cela, elle a décidé d’introduire des graphiques, des diagrammes, en somme, du visuel. Elle a décidé de faire parler les données avec des moyens graphiques plutôt qu’avec de longs discours écrits parfois complexes à décrypter et qui peuvent nous noyer dans une masse de données. Cet article nous donne deux exemples d’utilisation, via l’outil de visualisation ouvert à tous « Tableau public » : l’un pour identifier et analyser les différentes vagues d’attentats en Irak ces dernières années et l’autre pour faire un focus, d’un point de vue chiffré (nombre de tornades et nombre de morts), sur les tornades dans les différentes régions des États-Unis. Un coup d’œil sur deux visuels permet d’avoir un aperçu de la situation là où du texte aurait sans doute perdu le lecteur… Qu’on se le dise, vous n’avez pas fini de voir des graphiques dans les articles… !

Source : Site Decideo

Proposez de nouveaux connecteurs de données natifs à BIME Analytics (Zendesk)

Comme vous le savez, dans le cadre de sa solution business

BIME

Zendesk BIME Analytics

intelligence orientée self-service, BIME souhaite vous faciliter l’accès à vos données. Ils ont décidé  pour cela de mettre un connecteur natif en place par semaine. Mais ce n’est pas tout… Ils vous incitent, pour répondre au mieux à vos problématiques, à leur faire des propositions de connecteurs, alors n’hésitez pas à leur transmettre vos souhaits!

Source : site Linkedin 

 

QlikView optimise la production de rapports en masse !

Avec le rachat de Vizubi, Qlik s’est offert par la même occasion le

QlikView

Qlik

leader des solutions de production et diffusion de reporting en masse, en l’occurrence Nprinting. Cet achat de QlikView / QlikSense va offrir à ses utilisateurs de nouvelles fonctionnalités de diffusion et d’interaction. Il va également permettre aux entreprises de disposer d’une solution intégrée et de limiter le nombre d’outils et de plateformes au sein de leur SI.

Source : Site Qlik

Accor Hotel : CRM et Big Data

 

L’optimisation de la connaissance client chez Accor

Le groupe Accor, leader mondial de l’hôtellerie, a travaillé sur un programme destiné à fidéliser les clients et en convertir de nouveaux en

Accor logo

Groupe Accord

communiquant de manière plus personnalisée. Concrètement, cela s’est traduit par la mise en place d’une plateforme informatique interne dédiée à business intelligence avec un CRM, une gestion des e-mails marketing, les systèmes d’informations des hôtels et bien d’autres éléments qui viennent se greffer à un suivi client reposant sur le parcours web, les réservations, la carte de fidélité, etc. Avec cette vision centrée sur le client, il est beaucoup plus simple de travailler sur du marketing personnalisé. La mise en place de ce programme a commencé à porter ses fruits puisque, entre 2014 et 2015, les bénéfices (+77%) et le chiffre d’affaires (+3.8%) sont en nette hausse.Dans un futur proche, ces axes d’analyses seront complétés par l’analyse des réseaux sociaux, ce qui devrait impliquer le passage au Big Data.

Source : Site Silicon

Tagué , , , , , , , , , , , , , , ,

Veille Business Intelligence février 2015

Data Visualization, Data Discovery, Data Story Telling

 Tableau Software en pleine croissance !Tabeau soft

L’éditeur est de plus en plus présent sur le marché de la BI. A partir d’un article sur sa croissance, j’ai décidé de vous proposer quelques chiffres afin de mieux percevoir leur progression.

 

Données de vente 3

Vente de licences Tableau Software

 

Nombre de clients 2

Nombre de clients Tableau Software

Effectif 2

Nombre d’employés Tableau Software (Effectif)

Investissement en recherche 2

Montant de l’investissement en recherche de Tableau Software

Légende : les flèches vertes indiquent une croissance par rapport à la période indiquée (en taux ou en valeur)

Source : blog Tableau Software

Un connecteur de données de plus par semaine

Comme vous le savez, l’une des forces de BIME est le nombre

BIME

Zendesk BIME Analytics

de connecteurs dont il dispose. Cela permet aux utilisateurs de pouvoir récupérer des données à partir de nombreuses sources sans expertise technique. Et bien sachez que ce nombre va désormais continuer à croître puisque BIME a annoncé ce mois-ci vouloir intégrer un connecteur par semaine dans sa solution, le premier étant MongoDB, un système de gestion de base de données.

Pour rappel, voici les connecteurs déjà présents dans l’outil:

Source : Site Zendesk BIME ANalytics

Une appli dédiée au recrutement des grandes sociétés informatiques

Vadim Vichniakov, ex consultant Microsoft, a mis en place une application permettant de suivre le marché du travail dans les grandes sociétés informatiques. Elle permet en particulier de suivre le nombre d’offres publiées par région dans le temps  et d’en dégager des saisonnalités. La solution BIME Anlytics a été retenue car elle offre un accès à partir d’une simple connexion internet et qu’elle permet une excellente expérience utilisateur. A l’avenir, l’application devrait être enrichie de nouvelles données, d’analyses prédictives mais également d’une segmentation par secteur d’activité.

exemple appli recrutement informatique

Source : Blog BIME Analytics

Entreprises

AirBnB revoit son plan d’actions à partir de ses données

Le spécialiste de l’hébergement entre particulier AirBnB s’est plongé airbnbdans ses données pour identifier des axes d’améliorations. Le responsable de la donnée a voulu connaître les éléments déterminants dans le choix d’un appartement. Les différentes analyses menées ont permis de mettre en avant la valeur des photos dans le choix final. La direction a alors décidé de proposer des photographes professionnels aux particuliers pour refaire des photos. Les résultats ont été au rendez-vous puisque cette évolution a conduit à une augmentation des réservations et une fidélité accrue. Ce changement bénéfique a permis de consolider le crédit accordé à la donnée et de nouvelles décisions fondées sur celles-ci devraient voir le jour.

Source: Site Le monde informatique

Les acteurs de la Business Intelligence

Le rôle du Chief Data Officer

Un nouvChief data officereau rôle de Chief Data Officer (CDO) commence à apparaître dans les entreprises. Cela fait suite à un recentrage de la donnée au coeur des décisions stratégiques. Cela se traduit dans les faits par l’intégration de ce nouveau responsable dans les comités de direction. Il a fait son apparition dans le domaine bancaire pour répondre aux enjeux de gestion des risques puis dans le secteur de la distribution où tout va de plus en plus vite et où l’analyse du comportement client est capitale (analyse par l’intonation de la voix…). Au-delà de la profonde et transverse connaissance des données de l’entreprise qu’il doit avoir, le CDO doit optimiser l’utilisation des données possédées et mettre en avant la valeur de celles-ci. Il doit également identifier les nouvelles opportunités et suivre de près les technologies.

Source : Site Decideo

Tagué , , , , ,

Veille Business Intelligence janvier 2015

Data Visualization

 

Tableau sort la bêta de sa version 9 !

Les actuels clients de Tableau peuvent désormais tester la nouvelle Tabeau softversion dont la date de mise en production n’est pas encore prévue. Au menu de cette nouvelle version, nous devrions retrouver:

  • Une fonction d’interprétation de données de tableaux injectés dans l’outil (de type Excel) (structure et identification des intitulés de colonnes).
  • Une fonction permettant de faire pivoter des données (date par exemple) de colonnes en lignes.
  • Une fonction de séparation automatique de nombres ré-ajustable en fonction des besoins.
  • Une fonction de visualisation des métadonnées au moment de la préparation des données.

Pour l’ensemble de ces fonctions, des exemples sont donnés dans le lien ci-dessous.

Source : Blog Tableau Software

 

Zendesk BIME Analytics et le cloud BI adopté par tous les IUTs de France

Les responsables des 114 IUT de France ont trouvé en BIME le moyen d’analyser et de centraliser les indicateurs de performance relatifs BIMEaux trois principales phases concernant les étudiants, à savoir leur recrutement, leur réussite scolaire et plus en aval, leur intégration professionnelle. C’est avant tout pour répondre à des problématiques de rapidité de mise en place et de réalisation ainsi que d’accessibilité qu’une solution de cloud BI a été choisie. Une fois l’outil mis en place les points de satisfaction furent nombreux. Je pense notamment  à la fonction drill down qui permet d’explorer les données mais également au côté intuitif de l’outil. La réussite est telle que de nouveaux projets impliquant BIME  sont à prévoir au sein des IUT.

Source : Blog Zendesk BIME Analytic

FiveThirtyEight

FiveThirtyEight Data

Quand la presse utilise les données

Le site internet fivethirtyeight.com a pris le parti d’utiliser les données à sa disposition et d’insérer des visuels  dans tous ses articles. Même si ceux-ci sont assez simplistes et sans doute à améliorer, je vous recommande d’y faire un petit tour. Les sujets abordés sont, par ailleurs, extrêmement variés et originaux.

Source :  site fivethirtyeight 

Entreprise et outils DataViz

Rail Europe 4A  fait désormais rouler son système décisionnel avec Tibco Jaspersoft !

La société Rail Europe 4 qui produit les titres de transport pour les réseaux européens a décidé de changer d’outil pour moderniser son

Rail Europe

Rail Europe

système décisionnel. Il était devenu nécessaire de centraliser les actions et les données dans un seul outil. C’est pour cette raison qu’ils ont choisi Tibco. Le nouveau système décisionnel permet, par ailleurs, aux utilisateurs métiers, de travailler finement sur les ventes.

 

Source : Le monde informatique

Evolution et Self-service Business Intelligence

 

De nouvelles avancées à venir sur la BI en self-service d’après le Gartner

Evolution

L’évolution de la self-service business intelligence

Pour la société Gartner, la BI en self-service ne va pas se limiter à la création de tableaux de bord. D’ici 2017, les outils permettront à des acteurs métiers de travailler  sur la phase de préparation de données, à l’image de ce que peut faire un ETL (Extract –Transform – Load).  Ces futures fonctionnalités, permettant de simplifier le process dans son ensemble, encourageront de nombreuses entreprises à se pencher sur ces outils et à se lancer dans la BI. Néanmoins, dans de nombreux cas, laisser la main aux utilisateurs finaux  métiers comporte des risques qu’il convient de maîtriser. Alors plus d’autonomie oui mais toujours sous contrôle…

Source : Site Gartner

Evénements Self-service business intelligence

De nombreux événements sont prévus sur ce mois de février dont les techdays du 10 au 12 février mais il y en a un qui a particulièrement retenu mon attention, il s’agit d’un webinar présentant trois solutions de  cloud BI, en l’occurrence Bime Analytics, Access Insight et Tibco spotfire cloud. L’objectif étant, pour chaque représentant de produit, de mettre en valeur les éléments différenciateurs.

Date : 11 février 

Horaire : 15h 

Inscription gratuite: ici 

 

Tagué , , , , , , , ,