Archives de Catégorie: Veille

MakeOver Monday 2017 – Semaine #4

La semaine dernière, j’ai participé au challenge hebdomadaire « Makeover Monday » lancé par Andy Kriebel, Eva Murray  ainsi que Andy Cotgreave.  Chaque semaine, ils affichent un lien vers un graphique et ses données, puis vous pouvez retravailler le graphique. La curiosité est de voir si quelqu’un d’autre peut raconter l’histoire de façon plus efficace, ou trouver une nouvelle histoire dans les données.

Ce que j’ai aimé le plus de ce week-end, c’est le défi de faire quelque chose d’intéressant et créatif à partir d’un petit jeu de données. Prouver que nous n’avons pas nécessairement besoin de beaucoup de données pour créer quelque chose de simple et efficace tout en réalisant des informations significatives.

De nombreux utilisateurs proposent des dataviz produites avec Tableau Software et j’ai donc eu l’envie de réaliser un tableau de bord avec Microsoft Power BI avec 2h, montre en main.

 

Le tableau de bord ci-dessus a été intégré dans le blog grâce à la fonction « Publish to web » de Power BI (nous avions écrit un article là dessus début 2016, voir Dossier Power BI 2016).

Et vous, avez-vous déjà eu l’occasion de participer à ce challenge ? Si c’est le cas, n’hésitez pas à nous partager vos tableaux de bord, nous serons ravis d’en discuter avec vous.

Adrien

Tagué , , ,

Tableau software : retour d’expérience Engie

engie-logoLors de la conférence Tableau qui s’est déroulée en mai sur Paris, ENGIE, entreprise de service en efficacité énergétique de 12000 salariés nous a offert son retour d’expérience  sur la mise en place de l’outil de reporting Tableau software.

 

Voici la synthèse de leur intervention sous la forme de questions / réponses…

 

tableau software 2016 tendances benchmark vendor 2016 self service business intelligence data discovery

Changement d’outil et choix de Tableau

 

Pourquoi avoir voulu mettre en place un nouvel outil décisionnel ?

La société avait besoin de piloter la performance sur une cinquantaine d’agences. Il y avait donc un objectif de langage commun mais également une volonté d’alléger le travail de reporting personnel.

Par ailleurs, Engie produisait régulièrement un COMEX en Excel et il était nécessaire d’avoir un outil de reporting commun efficace  et qui permette la consolidation. Le travail cumulé sur les 50 agences se chiffrait à 10 J par mois.

La production de rapports opérationnels était également trop longue.

Outre cette problématique de délai de production et de charges consommées, il y avait également deux besoins majeurs :

  • Avoir une interface ergonomique / user friendly
  • Pouvoir croiser les données

 

Quel outil était là auparavant ?

BO

Pourquoi avoir choisi Tableau Software ?

Une analyse du Gartner a permis de positionner rapidement Tableau Software et son statut de leader parmi les favoris. Une grille d’évaluation avec pondération ainsi que des cas d’études ont permis à Tableau d’atterrir dans la short list.

Quel a été l’argument clé en faveur de Tableau Software face aux concurrents?

Durant les phases de test et entretiens avec les éditeurs, Tableau, en moins de deux heures, a su reconstituer les deux trois grands rapports. Précisions que la production des tableaux a été réalisée par les chefs de projet et non les experts techniques de Tableau.

 

Mise en oeuvre

Mise en oeuvre

 

Quelle a été « l’architecture technique » retenue ?

Engie a opté pour la solution Server au détriment de Tableau Online. Ils ont donc mis en place Tableau Desktop et Tableau Server

D’où proviennent les données ?  

Tableau est connecté à un Datawarehouse qui centralise les données des différents outils du SI. Il n’y a pas de connexion à des outils de production. Au moment de la présentation, des datamart étaient en cours de préparation pour faciliter l’utilisation (en terme de jointures par exemple) et optimiser les performances.

Comment s’est déroulée la mise en place ?

Il y a une équipe qui recense les demandes et qui produit petit à petit les rapports.

Comment est gérée la sécurité des données ?

Des univers peuvent être créés par utilisateur ou groupe d’utilisateurs pour conserver un niveau de sécurité (vision uniquement de mon périmètre, mon agence) mais qui permet une lecture transverse (ensemble des données techniques, commerciales…)

Est-ce que tout s’est déroulé comme prévu ?

La prise en main de l’outil a été facile. En revanche il y a eu un temps de préparation des données  très important et relativement long (avec de longues phases de tests).

Des process ont dû être modifiés en amont pour avoir, dans les bases, davantage de données « propres ».

 

cles

 Les clés d’un projet réussi dans le temps…

 

Quelles sont les clés pour une bonne prise en main ?

Il faut limiter les freins à l’utilisation en passant du temps sur la préparation des données et la conception d’entrepôts de données intermédiaires.

ENGIE  essaye, par ailleurs, de développer une culture des champions. Par exemple, l’agence « B » réalise un rapport et le remonte. Si la direction estime qu’il peut avoir une vraie valeur ajoutée pour les autres agences alors celui-ci sera ré-appliqué dans celles-ci. C’est une politique de partage ascendant.

Comment prévenir les risques liés à l’industrialisation ?

Il faut travailler en amont pour identifier les règles de gestion des KPIS (définition commune d’un CA par exemple) pour éviter d’avoir des chiffres différents pour un même indicateur.

Comment maintient-on la compétence sur ce type d’outil ?

Dans un premier temps, il faut identifier et s’appuyer sur des ressources qui ont une appétence à la data.

Ensuite pour maintenir la compétence, il est nécessaire de pratiquer régulièrement et de s’appuyer sur les forums et le site de tableau qui représentent une source d’information extrêmement riche et permettent de répondre à de nombreuses interrogations.

 

deploiement

 Une réussite chiffrée et un déploiement conséquent à venir …

 

Un des objectifs était le gain de temps, peut-on chiffrer celui- ci ? 

Une fois que les données seront à 100% fiables, le temps de production sera réduit à néant car tout est automatisé.

Autrement dit, Engie devrait passer de 500 JH annuel à 2.5 JH soit 99.5 % de gain, l’équivalent de 25 ETP.

 

futur

 Et le futur, on en parle ?

Cette première mise en place étant réussie, ENGIE compte étendre le déploiement de cet outil. Ainsi l’ensemble des collaborateurs aura accès sur Tableau Server à l’ensemble des univers qui leur sont nécessaires. Cela représente plus de 1000 personnes, une centaine par filière…

Une ouverture maximale sera faite en lecture.

Le déploiement de Tableau chez Engie n’en est donc qu’à son commencement…

Tagué , , , , , ,

Power BI Desktop – Nouvelle version d’Avril 2016

La nouvelle version de Power BI Desktop du mois d’avril 2016 (Version : 2.34.4372.322) est enfin disponible au téléchargement.

microsoft power bi desktop nouvelle version 2016

Comme nous pouvons le constater, cette année Microsoft nous montre à quel point la business intelligence « nouvelle génération » (ou self-service BI) fait partie de ses priorités. Notons d’ailleurs que Power BI s’inscrit dans les priorités dans la roadmap Microsoft en étant une des briques officielles du Workshop Cortana Analytics 2016. Nous attentons donc avec impatience de voir l’évolution de la solution tout au long de cette année 2016.

microsoft cortana analytics big data prédictif azure power bi

Les nouveautés de cette version de Power BI Desktop

Nous vous proposons ici une analyse rapide et synthétique des évolutions proposées dans
cette nouvelle version. Pour voir en détail l’ensemble des nouvelles fonctionnalités, nous vous proposons de vous rendre sur le site officiel de Microsoft Power BI (lien).

Fonctionnalités de visualisation des données dans les rapports (Power View) :

  • De nouvelles fonctionnalités permettent la personnalisation des styles visuels des graphiques tabulaires (Tableau, Matrice et Carte à plusieurs lignes)
  • Reconnaissance des relations hiérarchiques entre différents indicateurs, possibilité d’affiner la modélisation des données dans Power Pivot
  • Exploration des données à plusieurs niveaux hiérarchiques à travers la fonction « Développez tout »
  • Zoom automatique de la carte en fonction du niveau d’exploration des données.
  • Une « ligne de tendance » (simpliste) peut être ajoutée à vos histogrammes.

Fonctionnalité de modélisation des données (Power Pivot) :

  • Il est possible de modifier la structure des informations pendant que Power BI rafraîchit les données.
  • Reconnaissance intelligence du format des données de type « Date », compatible avec des données à plusieurs niveaux hiérarchiques.
  • Des synonymes peuvent être déclarés afin d’optimiser les questions via le moteur de requêtes en langage naturel (Q&A).

Fonctionnalités liées à la connexion aux données (Power Query) :

  • Il est possible de spécifier des paramètres dans vos chaînes de connexions à des sources de données.
  • Des modèles Power BI (cf. Templates) peuvent être enregistrés afin de simplifier l’industrialisation des rapports.
  • De nouveaux connecteurs à des sources de données ont été intégrés
    • Répertoire Sharepoint
    • Webtrends
    • SparkPost
    • TyGraph
  • Une interface graphique permet de simplifier la création de « Colonnes calculées ». Il n’est désormais plus obligatoire de passer par des formules DAX.
  • La disposition des colonnes dans les tableaux peut être modifiée via un simple glissé-déposé.
  • Les requêtes peuvent être effectuées sur des groupes de données, en effet, ces derniers sont automatiquement reconnus par le moteur syntaxique.

Autres liens utiles :

Tagué , , , , , , ,

Alteryx et le Data Blending

Découvrez Alteryx et le Data Blending

Pour ceux qui ne connaissent pas encore cette solution, Alteryx, est un éditeur californien, spécialisé dans le domaine du Data Blending (croisement des données). Là où Alteryx surprend, c’est dans son côté « user-friendly », il est en effet possible de connecter une multitude de sources de données grâce à l’utilisation de connecteurs de données mis à dispositions, et d’agréger l’ensemble de ses données en quelques clics.

Alteryx Designer vous accompagne à travers une interface visuelle intuitive afin de concevoir vos flux de données à l’aide d’opérateur en tout genre vous permettant d’enrichir, de manipuler et croiser vos données.

Une interface user-friendly

Notez qu’Alteryx propose de récupérer les différents workflows que vous avez conçus, depuis Microsoft Power BI et Tableau Software. Plus besoin donc de vous inquiéter du travail d’extraction, de manipulation et d’alimentation des données à pour passer d’un outil de Data Visualization à un autre, il vous suffira de vous connecter à votre flux de données Alteryx via les connecteurs mis à votre disposition dans Microsoft Power BI et Tableau Software, ainsi que les outils Qlik.

Alteryx Data Blending ETL SaaS Power Bi Tableau Software Qlik

Exemple d’un Workflow de flux de données avec Alteryx Designer

Alteryx est également reconnu pour sa capacité à enrichir les données de géolocalisation. Il peut être intéressant par exemple d’enrichir les données de géolocalisation de vos clients potentiels, enseignes depuis différentes sources et à un niveau de détail suffisamment précis pour procéder par la suite à des analyses géographiques. La géolocalisation peut s’avérer plus complexe qu’on ne l’imagine quand nous ne disposons pas d’informations précises et décrites à un même niveau d’information pour en assurer l’exploitation.

Du Data Blending au prédictif

Enfin, sachez que Alteryx, vous offre la possibilité d’effectuer desAlteryx Predictif R Python Data Science analyses prédictives grâce à une bibliothèque d’algorithmes exploitables par vos équipes de Data Scientists,
voir même de développer vos propres algorithmes afin de récupérer les données travaillées dans Microsoft Power BI et Tableau Software et Qlik.

En savoir plus

Si vous souhaitez en savoir plus sur Alteryx, voici quelques liens pour découvrir la communauté, vous former et maîtriser rapidement Alteryx :

Dossier 2016 : Power BI Desktop, où en sommes nous ?

La nouvelle version de Power BI Desktop de janvier 2016 (2.31.4280.361) est enfin disponible.

Depuis son entrée dans le domaine de la Business Intelligence nouvelle génération (aussi nommée Smart BI, Self-service BI, Agile BI …), Power BI a connu une forte évolution jusqu’à se positionner parmi les solutions les plus innovantes 2016 selon Gartner.

Nous vous proposons donc nous intéresser sur l’état actuel de Power BI en ce mois de févier 2016.

Environnements Power BI V2

Depuis ses premières versions où il se déclinait sous la forme d’un ensemble de plugins intégrés à Mictosoft Excel (Power Pivot, Power Map, Power Query et Power View), Power BI a élargi son panel d’interfaces jusqu’à arriver à 4 environnements distincts :

  • Power BI plugins for Excel (ensemble de plugins pour Excel)
  • Power BI Desktop (Interface Desktop)
  • PowerBI.com – Version SaaS (compatible HTML5)
  • Power BI Smartphone Apps (Compatible iOS, Android et Windows Phone)
pbi-interfaces

Environnements Power BI V2

Microsoft a clairement défini le futur positionnement de Power BI comme étant « Mobile first – Cloud First », ce qui jusque ici a été respecté puisqu’une interface 100% HTML5 compatible avec tous les périphériques est proposée par Microsoft, ainsi qu’une application mobile aboutie compatible avec iOS (iPad & iPhone), Android et Windows Phone.

Enfin, concernant l’interface SaaS de Power BI, Microsoft a choisi de stocker les tableaux de bord et les reportings sur le cloud mais en dehors de son interface Office 365, rendant ainsi accessibles les données aux utilisateurs disposant de la version gratuite de Power BI.

Business Model

 » Version gratuite ? Mais que peut-on (vraiment) faire ? « 

La réponse serait, vous pouvez tout faire avec la version gratuite sauf bénéficier de la synchronisation des tableaux de bord et reportings en ligne. Ce qui en soit vous empêche de partager votre travail à travers un site Office 365 ou l’application mobile. Toutefois, vous pouvez utiliser Power BI pour votre propre usage ou bien prendre le temps de découvrir la solution par vous même avant d’obtenir la version professionnelle. S’ajoute à cela, une limite de stockage Cloud de 1Gb (au lieu de 10Gb avec la version pro).

Pour résumer le business model actuel de Power BI se décline actuellement en 2 offres :

pricing-power-bi

 Pour plus de détails sur les fonctionnalités et le pricing model cliquez ici

Fonctionnalités

Faisons tout d’abord un point sur les principales fonctionnalités de Power BI :

  • Possibilité de créer des tableaux de bord en mode web
  • Exploration des KPIs à une granularité plus précise par « drill drown »
  • Partage et collaboration des tableaux de bord sur mobiles et tablettes (iOS, Android, WP)
  • Utilisation des plugins Power BI sur Excel
  • Possibilité de faire parler les données via des fonctionnalités Data Story Telling
  • Interrogation du moteur Power BI en langage naturel via « Q&A »

Nouvelles fonctionnalités (février 2016) :

Création de graphiques personnalisés « Custom Visuals »

La communauté a agréablement été surprise par cette nouvelle fonctionnalité. Il est en effet désormais possible de créer ses propres graphiques personnalisés, et adaptés à un contexte métier spécifique. Le développement de ces graphiques s’effectue dans un environnement full stack web (utilisation du framework D3.js), ce qui permet la réutilisation des custom visuals dans d’autres interfaces que Power BI permettant ainsi de capitaliser le temps passé sur la partie du développement.

Sans surprise, de nombreux visuels ont déjà été créés et publiés dans la « Custom Visual Gallery ». Si vous aussi vous êtes intéressés pour créer vos propres graphiques, un template Power BI Visuals est à votre disposition sur GitHub.

Roadmap 2016

Microsoft a dévoilé sa roadmap pour les prochaines versions à venir, voici un résumé de ce qui nous attend en 2016 :

  • Scheduled Refresh : Possibilité d’effectuer des rafraîchissements planifiés via Power BI Gateway (version Power BI Professionnelle uniquement)
  • Élargissement du nombre de connecteurs de sources de données utilisables dans la Power BI Gateway
  • Hybrid cloud solution : Microsoft s’engage à mettre un accent sur les fonctionnalités hybrides de la Power BI Gateway pour assurer un compromis entre performance et contrôle des données.

Résumé

Microsoft rattrape rapidement son retard dans le domaine de la business intelligence nouvelle génération. Est-il si surprenant que Power BI se trouve positionné dans les leaders selon Gartner en ce début d’année 2016 ?

Le positionnement de Microsoft dans le domaine de l’analytique est clairement identifié par Cortana Analytics, dont Power BI et Azure Machine Learning font partie intégrante, proposant ainsi un écosystème « orienté données » portant une forte valeur d’innovation et favorisant le développement d’une communauté active.

Avec une solution à moindre coût, une plateforme analytique multi-device complète et de nouvelles possibilités de personnalisation, Power BI a de fortes chances de convaincre de nombreux clients dans leur transformation digitale de l’analyse de données.

Tagué , , ,

Le Magic Quadrant 2016 de Gartner nous offre sa vision de la Self BI en 2018

Cette semaine, Gartner vient de nous livrer son nouveau rapport Magic Quadrant de 2016 concernant les outils de Business Intelligence et Plateformes Analytiques (voir ici pour découvrir le Magic Quadrant 2016).

Gartner nous propose donc de se projeter d’ici 2018, date à laquelle nous « arriverions » donc à un tournant majeur, celui d’une maturité des outils de self-service business intelligence (ou « Agile BI », « Self-BI » ou encore « Smart-BI ») permettant à un utilisateur métier de concevoir lui-même ses propres tableaux de bord interactifs.

En effet, l’ensemble du processus décisionnel évolue et se simplifie grâce à des nouvelles technologies et solutions innovantes visant à simplifier le traitement, l’analyse et la restitution des données. Nous pensons entre autres à Alteryx, permettant d’effectuer le l’extraction, le chargement et la transformation des données, mais également d’implémenter des traitements de prévision des données.

Notre grande surprise est la position de Microsoft, venant se positionner comme leader aux côté des célèbres Tableau Software et Qlik (notez que Gartner à analysé l’outil Power BI de Microsoft, couplé à sa plateforme cloud « Azure » et non le stack SQL Server BI traditionnel).

Pour plus d’informations, nous vous laissons découvrir plus en détail le rapport de Gartner.

 

Tagué , , , , , , ,

Veille Business Intelligence juillet-août 2015

Data Vizualisation

Tabeau soft

Tableau software s’apprête à sortir la V9.1

L’outil d’analyse en self service va déployer une version très orientée « mobilité ». Ainsi, il sera désormais possible de réaliser des « impressions d’écran » de rapports ou tableaux de bord sur mobile ou tablette afin de pouvoir les visualiser hors connexion. En dehors de la mobilité, de nouveaux connecteurs vont être ajoutés (Google Cloud SQL, Amazon Aurora, Microsoft Azure SQL Data Warehouse, Spark for HDInsight, Birst, Smartsheet), de même qu’un connecteur permettant de récupérer les données du web(Facebook, Twitter, Google sheet). Enfin, une procédure de connexion unique SSO avec SAP a été développée.

La sortie de cette version est prévue pour fin octobre.

Source : Decideo

 

Power BI V2

Microsoft met en production sa nouvelle version de Power BI

Fin de la version en preview, les entreprises peuvent depuis le 24 juillet utiliser la nouvelle version de Power BI dont nous vous avons déjà parlé précédemment. La principale évolution vient de la mise en place d’une application Desktop qui centralise les fonctionnalités de Power Query, Power Pivot et Power View. Collecter des données, les transformer, modéliser et réaliser des tableaux de bord se fera désormais sur une interface dédiée à la BI beaucoup plus intuitive que sur l’ancienne version où différents modules étaient intégrés dans Excel.

Cette nouvelle version ne contient pas encore toutes les fonctionnalités présentes sur la version 1 (Excel). Je pense notamment à la gestion des KPIS ou bien même à la géolocalisation en 3D (Power Map) mais nous pouvons imaginer que cela viendra. En attendant il est toujours possible d’utiliser les deux versions en parallèle en fonction des besoins car, qu’un tableau de bord soit produit à partir de l’application ou bien à partir d’un fichier Excel, les deux types de fichiers produits pourront être intégrés dans le cloud.

Concernant la partie cloud, son interface a complètement évolué mais, sur le principe, les fonctionnalités restent les mêmes.

Enfin concernant le prix, il est de 10 dollars par mois par utilisateurs

Partie Analyse (via l’application):

Power BI V2 - Analyse - Application

Partie Partage (via le cloud):

Power BI V2 - Cloud

Source : Lemondeinformatique + complément personnel

 

Cloud

Cloud fun

Les Etats-Unis font confiance au cloud, pourquoi pas nous ? 

Une récente étude du cabinet de conseil et de benchmark « Ventana Research » a permis de mettre en lumière la propension des sociétés américaines à utiliser de plus en plus de solutions décisionnelles dans le cloud.

adoption du décisionnel cloud

Le cloud est majoritairement utilisé pour suivre les données prédictives (51%), les données clients (47%) et les données de vente (33%). Il vient également s’intégrer dans une volonté forte de partage de l’information et répond aussi à un besoin de mobilité pour près de 80% des entreprises interrogées. Pour le cabinet, le niveau d’utilisation du cloud n’est pas encore à son meilleur niveau. Seule une entreprise sur sept atteint le niveau maximum d’utilisation du cloud représenté, selon Ventana, par l’innovation. Une analyse plus poussée  montre que la technologie et les processus sont bien gérés mais qu’il y a encore des progrès à faire sur la gestion de l’information et l’adoption par les ressources humaines. Cela peut s’expliquer par certains freins au déploiement par les employés qui, malgré la volonté d’avancer des dirigeants, ont des craintes sur la sécurité des données et le manque de compétences dans l’analytique en mode cloud.

Cloud privé, hybride ou public ?

Le frein sur la sécurité des données est contourné par l’adoption d’un cloud privé à 66% tandis que 38 % des entreprises utilisent un cloud public et 30 % un cloud hybride (certaines entreprises utilisent plusieurs modes). Les cloud privés et hybrides sont majoritairement utilisés dans les domaines de la finance, de l’assurance, de l’immobilier et au niveau du gouvernement où l’aspect privé des données est une véritable préoccupation. Pour 70% des utilisateurs, le cloud privé facilite le partage d’information et permet d’améliorer la communication . Il en va de même pour 72% des utilisateurs de cloud hybride et 56 % pour le cloud public. En outre, les entreprises  qui adoptent le cloud privé ou hybride ont, par la suite, une politique d’intégration et de traitement de données beaucoup plus forte que celles qui adoptent le cloud public.

En résumé, les dirigeants américains adoptent de plus en plus les solutions décisionnelles en mode cloud et privilégient les systèmes privés ou hybrides pour verrouiller au maximum la dimension « sécurité ». A quand une tendance similaire en France ?

Source : smartdatacollective.com

 

Réflexion

consommation data

Maîtriser sa consommation d’analytique, c’est bon pour la santé de son entreprise ! 

Joanna Schloss désigné 5ième femme la plus influente dans le secteur de la BI et  membre du centre d’excellence Dell s’est intéressée à l’excès d’analyse dans les entreprises. Pour elle, l’analyse de la donnée a pour objectif de base d’apporter des éléments  extrêmement fins qu’il est impossible d’avoir autrement et qui vont permettre de prendre des décisions  plus pertinentes. L’analyse répond à deux principaux besoins : maîtriser les coûts en rationalisant les processus et innover. Malheureusement le contexte actuel, pousse les entreprises à privilégier la réponse au premier besoin au détriment du second. Comment s’en apercevoir au sein de son entreprise ? De nombreux projets innovants sont bloqués par les analystes, les modalités de financement sont décidés par des analystes financiers et non les dirigeants ou bien encore lorsque les analystes sont plus nombreux que les éléments créatifs, stratèges…

Cette stratégie entraîne souvent une limitation de la prise de risque alors que l’analyse des données devrait au contraire servir de point d’appui à des projets rentables sur le moyen-long terme dont les risques existent mais sont calculés. Un équilibre doit donc être trouvé entre l’optimisation vitale à l’heure actuelle et l’innovation si nécessaire au futur de l’entreprise.

Pour cela, Joanna propose notamment d’identifier et de former trois équipes/groupes de personnes:

  • Les  analystes qui se focalisent sur les gains d’efficacité à court terme qui vont travailler sur la rationalisation des coûts et l’optimisation des processus opérationnels
  • Les analystes spécialisés dans l’innovation immédiate qui doivent s’appuyer sur les données pour identifier les tendances et mettre en place des actions / projets dont les bénéfices se feront sur les 3 ou 5 ans à venir.
  • Les analystes qui ont pour mission d’analyser les données et détecter des potentiels d’innovation à très long terme (10 ou 20 ans) sans se préoccuper des investissements et du ROI.

Source : decideo et CMS Wire.com

 

Agenda

 

Calendrier

Je réaliserai un debrief des conférences auxquelles j’aurai assisté 😉

 

Tagué , , , , , , , , , , , , , , , , , , , , , ,

Veille business intelligence juin 2015

Outils DataViz, Data Discovery, Data Story Telling

Nouvelle version de Power BI Designer (Beta)

Microsoft vient de sortir la version du mois de mai 2015.Microsoft Power BI

Rassurez-vous, il ne s’agit pas d’une refonte complète de l’outil, mais de l’implémentation de nouvelles fonctionnalités utiles et qui vous permettront de gagner des heures dans la manipulation de vos données et de vos tableaux de bord.

Nous avons écrit un article spécialement sur ce sujet

Ressources :

Vidéo de présentation des fonctionnalités

Lien de téléchargement

Qlik Sens Self-service Business Intelligence

QlikSense sort sa V2

Qlik a lancé le 24 juin la V2.0 de QlikSense. Quatre principales fonctionnalités  accompagnent cette sortie :

  • Smart data load qui va permettre à l’utilisateur de connecter plusieurs sources de données entre elles pour pouvoir croiser des données.
  • Smart data compression qui permet à l’utilisateur d’analyser extrêmement finement ses données en se plongeant, de manière très lisible, dans des milliards de points dans des diagrammes de nuages de points.
  • Print and export qui autorise l’utilisateur à exporter  des données au format PDF et Powerpoint, ce qui, détail non négligeable, permet d’éviter les impressions écran dans le cadre de présentations des résultats/analyses aux équipes.
  • Qlik Data Market qui met à disposition des utilisateurs des données externes telles que les données météorologiques ou des taux de change.

Cette nouvelle version permet d’améliorer l’expérience utilisateur et de simplifier la prise en main de l’outil par des fonctionnels, en particulier sur la partie « connexion aux données ».

Voici le lien pour télécharger cette nouvelle version :  QlikSense Desktop 2.0

Entreprise

 

Oscaro utilise BIME comme outil de reporting !

Le site de vente en ligne de pièces auto Oscaro qui génère plus de 30Oscaro logo0 millions de CA et leader sur le marché, a décidé  il y a environ un an de s’appuyer sur ses données pour améliorer l’expérience client. Pour apporter des éléments concrets aux différents analystes métiers (marketing notamment), Oscaro a décidé de mettre en place un nouveau système décisionnel basé sur une approche big data et 100% cloud dans l’objectif de maîtriser le volume de données ainsi que les coûts d’infrastructures. La troisième problématique à maîtriser était l’accessibilité de l’outil de reporting à des fonctionnels.  Le choix final de l’outil s’est porté sur BIME qui rentre complètement dans ces trois critères.

Désormais, les utilisateurs métiers travaillent à partir de données issues de plus de 80 sources  (qui  sont centralisées et « nettoyées » dans Hadoop  puis déversées dans Big Query) et peuvent croiser, par exemple, le catalogue produits avec les données de navigation et de ventes afin d’obtenir les marges produits, des données logistiques transporteurs (ponctualité des réceptions) ou bien des informations sur la satisfaction client. La très bonne compatibilité des outils Biq Query / BIME permet aux métiers de réaliser en temps réel des analyses simples et précises sur des volumes de données considérables.

Les utilisateurs ont particulièrement apprécié certaines fonctionnalités comme les analyses temporelles  (N vs N-1, 3 derniers mois…), la capacité des outils à filtrer simplement, les types de visualisations proposés, la facilité de partage des rapports ou bien encore la simplicité de connexion entre BIME et Big Query.

Au-delà de la valeur ajoutée sur la conception des tableaux de bord (dont les mises en place se sont étalées sur deux mois), BIME a également permis à Oscaro de qualifier les données issues des systèmes sources et donc d’identifier très rapidement les incohérences.

Pour finir, ce démarrage réussi a conduit Oscaro à intégrer, à terme, les achats ainsi que les données financières dans BIME.

Source : Blog BIME

Enjeux Métiers

Les données, un puits immense de ressources pour définir sa stratégie de pricing

Les entreprises de B2B n’ont pas encore pris la pleine mesure de ce queArgent pouvait apporter l’exploitation de leurs données à leur politique de pricing. Contrairement au B2C, l’analyse des données à des fins de pricing n’est pas une action prioritaire alors que c’est pourtant un levier fort de la performance de l’activité. Des outils de pricing basés sur la segmentation client existent bien évidemment mais les entreprises les utilisant se privent d’une richesse de données qui leur permettrait d’aller beaucoup plus loin dans les analyses et la segmentation. Les prix pratiqués seraient plus adaptés et plus justes. L’entreprise pourrait également suivre l’évolution des prix, des taux de remise ou des marges et en faire des analyses plus poussées. La baisse des taux de remise pourrait s’expliquer par des ventes se déplaçant de clients bénéficiant de taux de remise élevés vers d’autres bénéficiant de taux de remise faibles ou bien par une concurrence réduite sur un type de produit. Toute une série d’indicateurs de marge, de stock, de taux de transformation, de prix des concurrents permettraient un pilotage plus fin des prix au quotidien et de faire des analyses post actions. Cela nécessite bien évidemment des compétences pointues en termes de pricing mais la valeur ajoutée est réelle. L’article ci-dessous décrit très bien les enjeux d’un tel investissement.

Source : Décideo

Tagué , , , , , , , , , , , , ,

Nouvelle version de Power BI Designer (Beta)

Nouvelle version de Microsoft Power BI Desktop

Microsoft Power BI

Microsoft vient de sortir la version du mois de mai 2015.

Rassurez-vous, il ne s’agit pas d’une refonte complète de l’outil, mais de l’implémentation de nouvelles fonctionnalités utiles et qui vont permettrons de gagner des heures dans la manipulation de vos données et de vos tableaux de bord.

Vidéo de présentation des fonctionnalités

Lien de téléchargement

Colonnes calculées

Il est désormais possible de créer des colonnes calculées « à la volée » et de les intégrer à votre modèle de données.

Cette opération est possible grâce au langage DAX (Data Analysis Expressions) permettant de définir des opérations de calculs sur vos colonnes.

Catégorisation des données

Une nouvelle option permet de définir le type d’un attribut. Cette fonctionnalité est particulièrement utile pour forcer un attribut de type géographique tel que le code postal d’une ville pour que ce dernier soit exploitable dans un graphique de type carte.

Tri par colonne externe

Nous pouvons dès à présent trier des données en nous basant sur des colonnes externes à celle concernée. Cette fonctionnalité permet d’améliorer la pertinence des graphiques réalisés.

Nouveau connecteur ODBC Tables (Beta)

Les connecteurs ODBC classiques représentent une certaine complexité technique, car il est nécessaire de passer par une requête en ligne de commandes, sans accompagnement graphique. Le connecteur ODBC Tables vient simplifier la connexion à une source de données en proposant un environnement graphique représentant les tables alimentées par cette connexion. La sélection des données est ainsi simplifiée et moins sujette à des erreurs.

Amélioration du connecteur « Catalogue de données »

  • Amélioration de l’interface du catalogue de données.
  • Chargement plus rapide de la prévisualisation des données

Nouveau filtre de données par colonne

Deux nouveaux modes de filtrage de texte par colonne ont été ajoutés :

  • « Ne commence pas par »
  • « Ne finit pas par »

Ces filtres peuvent se révéler très utiles pour le nettoyage des données.

Amélioration du contrôle des niveaux de confidentialités

Il est désormais possible de contrôler le niveau de confidentialité accordé à une requête basée sur une source externe. Les niveaux de confidentialités peuvent être publics ou privés et appliqués à site complet tout comme à une page unique du site.

Conclusion

Power BI Designer s’arme de nouvelles fonctionnalités indispensables dans un outil de Self-service BI. Nous attendons tout de même davantage de la part de Microsoft pour faire face à ses concurrents. Il ne faut cependant pas oublier que l’outil est seulement en version Preview.

Histoire à suivre.

Tagué , ,

Veille BI avril 2015

Où en est le Cloud Computing ?

Cloud fun

Le cloud hybride de plus en plus présent en Europe ! 

Si les entreprises n’ont pas encore adopté à 100 % le cloud, elles ont trouvé un modèle intermédiaire qui les rassure, en l’occurrence le cloud hybride. Ce n’est d’ailleurs pas un hasard si dans le monde du décisionnel, les outils du marché tels que BIME ou Power BI  proposent des solutions hybrides.

Pourquoi ce modèle plait-il ? Les entreprises sont attirées par ce modèle car il permet une bascule progressive vers le cloud avec des gains financiers associés mais il rassure en termes de sécurité de données !

Comment cela se traduit-il dans les faits? De manière simplifiée, les tableaux de bord sont bien présents dans le cloud… en revanche, les bases de données sont stockées dans l’entreprise. De ce fait, seuls les données utilisées dans les reporting sortent de l’entreprise au moment des rafraîchissements des données.

Au-delà de cet exemple de méthode appliquée au décisionnel, cet article vous apportera des données quantitatives et qualitatives sur  l’adoption de ce modèle.

Source : Le monde informatique

Data Visualization, Data Discovery, Data Story Telling

décision

4 bonnes raisons pour une PME d’étudier les nouvelles solutions de décisionnel de plus près !

Beaucoup de PME ne font pas des outils de décisionnel une priorité, préférant focaliser leur attention et leur budget sur leur coeur de métier ou sur des outils commerciaux. Cela risque pourtant bien de changer, car les éditeurs se sont adaptés aux contraintes des PME et les contextes ultra concurrentiels de chaque domaine obligent les entreprises à s’attarder sur les outils permettant d’améliorer leur prise de décision. Au delà de la très importante réponse en termes de budget à travers des tarifs relativement faibles par rapports aux solutions traditionnelles, ces nouveaux outils répondent à quatre besoins :

– La simplicité d’utilisation / d’analyse : les nouveaux outils, via de puissants algorithmes, permettent à des chefs d’entreprises, des managers et autres profils fonctionnels de réaliser des analyses poussées sur les données.

– La disponibilité rapide et en continu des données : des tableaux de bord peuvent être réalisés en quelques minutes là où plusieurs  jours de développement étaient nécessaires sur les anciens outils. Les données peuvent être par ailleurs rafraîchies en temps réel, ce qui permet une prise de décision basée sur des informations qui sont au plus près de la réalité à un instant T.

– La visualisation graphique des données : les nouveaux outils de décisionnel, qualifiés d’outils de BI en self service, offres une multitude de visualisations graphiques possibles et nombre d’entre-eux vous proposent le type de graphique le plus adapté à vos données et l’analyse que vous voulez en faire.

– L’accessibilité aux données en tout lieu  : la BI en self service intègre souvent la notion de cloud et permet ainsi à des commerciaux ou des visiteurs médicaux, par exemple, de disposer de données d’analyse avec eux et ajustées en temps réel. Le cloud qui, par ailleurs, permet un déploiement rapide, simple et à moindre coût de ces outils.

Source : InfoDSI

Bime est désormais connecté à MailChimp

Mailchimp

Bime vient de mettre en place un connecteur MailChimp. Pour rappel, MailChimp est un outil qui permet de gérer les campagnes d’e-mailing avec notamment la création de formulaires, la mise en place d’envois automatiques de Newsletter…

Entreprise

Les laboratoires pharmaceutiques Théa choisissent BIME comme nouveau système décisionnel ! 

Je sors d’une session « agilité » durant laquelle j’ai joué aux legos 🙂 Je me vois donc dans l’obligation de mettre un peu d’agilité Laboratoire Thea(approximative) dans la présentation de cet article. Cela se traduit par une description sous forme de user story qui est un terme propre à l’agilité 🙂 Pour les détails il faudra se plonger dans l’article… 😉

« En tant que CRM-manager  des laboratoires pharmaceutiques Théa, je souhaite avoir une nouvelle solution décisionnelle au sein de mon entreprise  (suite à une très forte croissance et l’obsolescence de mon précédent outil : Excel 🙂 )

Business Value :

  • Meilleure compréhension du marché via de nouveaux indicateurs exploitables
  • Accès aux données à chaque instant

Critères d’acceptation :

  • Budget limité
  • Ressources IT limitées
  • Mobilité : Mise en place d’un programme d’équipement « Ipad Only » pour les visiteurs médicaux »

La solution technique apportée à cette User story n’est autre que la mise en place de l’outil décisionnel BIME dans le système d’information.

Pour connaître la suite… ici

L’actualité de la Business Intelligence internationnale l’étranger

Le milieu hospitalier américain mise sur les données pour la bascule de son modèle économique

Les établissements de santé américains sont dans une phase de transition de leur modèle en basculant doucement des honoraires de services vers le  remboursement des soins basé sur la valeur. Cela signifie prodiguer des soins adaptés,de qualité et Hôpitalà des coûts raisonnables en se basant sur la nature des soins et tout cela par opposition à une gestion basée sur les coûts et la rentabilité. Pour réaliser cette transition,  les directeurs financiers utilisent désormais l’ensemble des informations qu’ils ont à leur disposition.

Ainsi des données ont par exemple permis de mettre en évidence que les salles de soins intensifs visaient à décharger les installations et équipes compétentes dans certains établissements. Le problème étant que cela n’entraîne pas les mêmes coûts alors que le soin est le même. Autre exemple, de nombreuses réadmissions hospitalières se déroulent le dimanche. Après analyse, il s’avère que cela correspond essentiellement à des personnes sorties le vendredi et qui n’ont pas vu de médecin post sortie le week-end. De fait, les hôpitaux  envoient désormais un médecin ou spécialiste le lendemain de la sortie chez le patient afin de s’assurer de son état de santé. Cela coûte moins cher qu’un retour aux urgences et permet de garantir le bon état de la personne.

La donnée a donc été placée au centre de la transformation et cet article donnera peut-être des idées aux responsables financiers français du secteur de la santé (même si le système est bien différent entre les deux pays…)

Source : Healthcarefinancenews

Tagué , , , , , , , , , , ,