Archives de Tag: Data visualization

MakeOver Monday 2017 – Semaine #4

La semaine dernière, j’ai participé au challenge hebdomadaire « Makeover Monday » lancé par Andy Kriebel, Eva Murray  ainsi que Andy Cotgreave.  Chaque semaine, ils affichent un lien vers un graphique et ses données, puis vous pouvez retravailler le graphique. La curiosité est de voir si quelqu’un d’autre peut raconter l’histoire de façon plus efficace, ou trouver une nouvelle histoire dans les données.

Ce que j’ai aimé le plus de ce week-end, c’est le défi de faire quelque chose d’intéressant et créatif à partir d’un petit jeu de données. Prouver que nous n’avons pas nécessairement besoin de beaucoup de données pour créer quelque chose de simple et efficace tout en réalisant des informations significatives.

De nombreux utilisateurs proposent des dataviz produites avec Tableau Software et j’ai donc eu l’envie de réaliser un tableau de bord avec Microsoft Power BI avec 2h, montre en main.

 

Le tableau de bord ci-dessus a été intégré dans le blog grâce à la fonction « Publish to web » de Power BI (nous avions écrit un article là dessus début 2016, voir Dossier Power BI 2016).

Et vous, avez-vous déjà eu l’occasion de participer à ce challenge ? Si c’est le cas, n’hésitez pas à nous partager vos tableaux de bord, nous serons ravis d’en discuter avec vous.

Adrien

Tagué , , ,

Partager ses tableaux de bord : ce que propose Power BI

Ce qui différencie les  véritables outils décisionnels de certains outils permettant de faire du reporting comme Excel, c’est, entre autres,  les possibilités qu’ils offrent d’un point de vue collaboratif.

Ce post a simplement pour objectif de préciser les différentes possibilités offertes par Power BI dans ce domaine.

Si vous souhaitez partager vos rapports en interne, plusieurs solutions existent :

  •  L’outil étant en mode cloud, il permet bien évidemment de partager des rapports au sein de votre organisation, via sa partie cloud, à des groupes d’utilisateurs à définir. Un tableau de bord peut être partagé de manière unitaire ou bien au sein d’un pack de contenu contenant différents tableaux de bord et/ou rapports  (un tableau de bord étant constitué d’un ou plusieurs rapports).
  • Les tableaux de bord peuvent également être partagés simplement en échangeant les fichiers résultant de la conception dans Power BI Desktop (de type Pbix) à l’image de ce que l’on pourrait faire avec des fichiers Excel partagés. Les connexions aux sources de données étant incluses, il n’y a pas de problème pour obtenir des données à jour.
  • Enfin les tableaux de bord peuvent être partagés au sein de l’organisation via les sites Sharepoint.

Si vous souhaitez partager votre tableau de bord avec des personnes externes à votre entreprise, cela est bien entendu réalisable. Comment ? 3 possibilités majeures:

  • Générer un PowerPoint à partir du rapport publié sur Power BI (cloud).
    • Cette solution présente notamment un intérêt lorsque vous, ou un membre d’une direction métier, présente de manière quotidienne, hebdomadaire ou mensuelle des slides composées en grande partie de reporting. Le PowerPoint contenant tous les rapports nécessaires se générera en un clic là où il faudrait systématiquement re-générer les rapports et réaliser des copier-coller pour constituer ses slides. Ces PowerPoint peuvent ensuite être partagés avec des personnes extérieurs à l’entreprise. Par ailleurs, cela va sans dire, mais il vous sera impossible d’utiliser les filtres présents dans le rapport. Le PowerPoint contient des rapports figés et ceux-ci sont donc l’exacte image de ce que vous affichez sur votre écran.
  • Générer une URL sécurisée à partager avec n’importe qui et sans utilisation de mot de passe
  • Intégrer les rapports publiés sur Power BI sur un site web ou sur un blog
    • Cette solution vous sera extrêmement utile si vous souhaitez que des clients puissent visualiser, sur votre site, des rapports les aidant à prendre des décisions d’achat par exemple ou si vous souhaitez donner un aperçu de ce que vous êtes capable de faire avec cet outil.

 

Comme vous pouvez le voir, Power BI a fait le nécessaire pour  répondre aux besoins de chacun en termes de partage et de diffusion de rapports.

Les possibilités de partage offertes par Power BI

Tagué , , , , , , ,

Tableau software : retour d’expérience Engie

engie-logoLors de la conférence Tableau qui s’est déroulée en mai sur Paris, ENGIE, entreprise de service en efficacité énergétique de 12000 salariés nous a offert son retour d’expérience  sur la mise en place de l’outil de reporting Tableau software.

 

Voici la synthèse de leur intervention sous la forme de questions / réponses…

 

tableau software 2016 tendances benchmark vendor 2016 self service business intelligence data discovery

Changement d’outil et choix de Tableau

 

Pourquoi avoir voulu mettre en place un nouvel outil décisionnel ?

La société avait besoin de piloter la performance sur une cinquantaine d’agences. Il y avait donc un objectif de langage commun mais également une volonté d’alléger le travail de reporting personnel.

Par ailleurs, Engie produisait régulièrement un COMEX en Excel et il était nécessaire d’avoir un outil de reporting commun efficace  et qui permette la consolidation. Le travail cumulé sur les 50 agences se chiffrait à 10 J par mois.

La production de rapports opérationnels était également trop longue.

Outre cette problématique de délai de production et de charges consommées, il y avait également deux besoins majeurs :

  • Avoir une interface ergonomique / user friendly
  • Pouvoir croiser les données

 

Quel outil était là auparavant ?

BO

Pourquoi avoir choisi Tableau Software ?

Une analyse du Gartner a permis de positionner rapidement Tableau Software et son statut de leader parmi les favoris. Une grille d’évaluation avec pondération ainsi que des cas d’études ont permis à Tableau d’atterrir dans la short list.

Quel a été l’argument clé en faveur de Tableau Software face aux concurrents?

Durant les phases de test et entretiens avec les éditeurs, Tableau, en moins de deux heures, a su reconstituer les deux trois grands rapports. Précisions que la production des tableaux a été réalisée par les chefs de projet et non les experts techniques de Tableau.

 

Mise en oeuvre

Mise en oeuvre

 

Quelle a été « l’architecture technique » retenue ?

Engie a opté pour la solution Server au détriment de Tableau Online. Ils ont donc mis en place Tableau Desktop et Tableau Server

D’où proviennent les données ?  

Tableau est connecté à un Datawarehouse qui centralise les données des différents outils du SI. Il n’y a pas de connexion à des outils de production. Au moment de la présentation, des datamart étaient en cours de préparation pour faciliter l’utilisation (en terme de jointures par exemple) et optimiser les performances.

Comment s’est déroulée la mise en place ?

Il y a une équipe qui recense les demandes et qui produit petit à petit les rapports.

Comment est gérée la sécurité des données ?

Des univers peuvent être créés par utilisateur ou groupe d’utilisateurs pour conserver un niveau de sécurité (vision uniquement de mon périmètre, mon agence) mais qui permet une lecture transverse (ensemble des données techniques, commerciales…)

Est-ce que tout s’est déroulé comme prévu ?

La prise en main de l’outil a été facile. En revanche il y a eu un temps de préparation des données  très important et relativement long (avec de longues phases de tests).

Des process ont dû être modifiés en amont pour avoir, dans les bases, davantage de données « propres ».

 

cles

 Les clés d’un projet réussi dans le temps…

 

Quelles sont les clés pour une bonne prise en main ?

Il faut limiter les freins à l’utilisation en passant du temps sur la préparation des données et la conception d’entrepôts de données intermédiaires.

ENGIE  essaye, par ailleurs, de développer une culture des champions. Par exemple, l’agence « B » réalise un rapport et le remonte. Si la direction estime qu’il peut avoir une vraie valeur ajoutée pour les autres agences alors celui-ci sera ré-appliqué dans celles-ci. C’est une politique de partage ascendant.

Comment prévenir les risques liés à l’industrialisation ?

Il faut travailler en amont pour identifier les règles de gestion des KPIS (définition commune d’un CA par exemple) pour éviter d’avoir des chiffres différents pour un même indicateur.

Comment maintient-on la compétence sur ce type d’outil ?

Dans un premier temps, il faut identifier et s’appuyer sur des ressources qui ont une appétence à la data.

Ensuite pour maintenir la compétence, il est nécessaire de pratiquer régulièrement et de s’appuyer sur les forums et le site de tableau qui représentent une source d’information extrêmement riche et permettent de répondre à de nombreuses interrogations.

 

deploiement

 Une réussite chiffrée et un déploiement conséquent à venir …

 

Un des objectifs était le gain de temps, peut-on chiffrer celui- ci ? 

Une fois que les données seront à 100% fiables, le temps de production sera réduit à néant car tout est automatisé.

Autrement dit, Engie devrait passer de 500 JH annuel à 2.5 JH soit 99.5 % de gain, l’équivalent de 25 ETP.

 

futur

 Et le futur, on en parle ?

Cette première mise en place étant réussie, ENGIE compte étendre le déploiement de cet outil. Ainsi l’ensemble des collaborateurs aura accès sur Tableau Server à l’ensemble des univers qui leur sont nécessaires. Cela représente plus de 1000 personnes, une centaine par filière…

Une ouverture maximale sera faite en lecture.

Le déploiement de Tableau chez Engie n’en est donc qu’à son commencement…

Tagué , , , , , ,

Let it BI vous fait son retour de la Tableau Conference 2016

Tableau Conference 2016

Pour la première fois, Tableau a choisi Paris dans son programme Tableau Conference 2016. Nous remercions tout d’abord Tableau Software et AgenceRP de nous avoir invité à cet événement.

Début de journée avec la découverte de Tableau 10

C’est dans un des plus beaux endroits de notre paysage parisien à l’hôtel Pullman Tour Eiffel, je pense que la photo ci-dessus parle d’elle même…

La journée a commencé avec une ouverture digne d’un vrai show à l’Américaine avec à l’honneur la présentation de la nouvelle version de Tableau Desktop présentée par Edouard Beaucourt (Directeur régional France Europe du Sud) et Thierry D’hers (Vice-président, développement produit Tableau).

Nous avons été agréablement surpris par les nouveautés de cette version respectant la vision de Tableau à savoir simplicité, accessibilité et perfection (allant jusqu’à développer sa propre police pour assurer un affichage parfait, quel que soit le périphérique utilisé… clin d’œil à Steve Jobs ?).tableau conference 2016 paris

Nous avons été intéressés par de nouvelles fonctionnalités que nous attentions depuis un moment telles que le Data Blending permettant de fusionner et d’interroger plusieurs sources de données, la création de zones géographiques personnalisées en un clic, l’application Mobile sous Androïd, une comptabilité de Tableau Server sur Linux et j’en passe…

Le plus simple étant de découvrir la liste complète sur le site de Tableau.

Retour d’expérience

Le programme s’est décliné sous la forme de 16 sessions sur 4 plages horaires, le plus dur a donc été de choisir… À côté de cela, un atelier « Question / réponse » s’est tenu toute la journée avec la possibilité d’échanger avec des « Tableau Doctors » (cf. Experts Tableau) sur vos problématiques pendant 30 minutes… rien de mieux pour partir l’esprit tranquille.

Pour ma part, j’ai profité de la présence d’experts Tableau dans des sessions suivantes, qui seront sûrement disponibles en ligne prochainement, voici la liste détaillée :

1 – Planification et dimensionnement du déploiement de Tableau Server (par @Gaetan Bailby)

Gaetan est un spécialiste Tableau Server, il nous partage les recommandations pour le dimensionnement des serveurs et la répartition des charges. Si vous êtes déjà à l’aise avec l’administration de Tableau Server, la session de Gaetan peut vous apporter de nombreux best practices à suivre.

Si par exemple vous vous demandez si le Back grounder & Data engine devraient être dans le même cluster, ou que vous souhaitez estimée la charge du moteur VizQL, vous êtes au bon endroit !

2- Exploration des données Internet grâce aux connecteurs de données Web de Tableau (par @Alex Ross)

Exploration des données Internet grâce aux connecteurs de données Web de Tableau Alex Ross

Alex Ross

Alex est un passionné des réseaux sociaux, et plus particulièrement de la façon d’explorer les données qui en découlent. Il participe activement au développement de nouveaux « Web Data Connector », on pourrait ainsi le surnommer « WDC Master » 😉 ?

Alex vous propose pendant sa session de découvrir comment vous connecter à Facebook et Twitter en utilisant ses connecteurs de données mis à disposition (gratuitement) sur son site web tableaujunkie.

Alex vous explique également comment développer vos propres Web Data Connectors avec un peu de code (HTML, CSS, JS), mais non, n’ayez pas peur, vous verrez, c’est très bien expliqué !

3 – Lancez-vous dans les analyses avancées (par @Mohamed El Jaafari)

« Par fois, en analysant simplement de façon visuelle nos données, vous pourriez avoir des résultats bien plus proches de la réalité qu’en utilisant des modèles prédictifs. »

Je rejoins entièrement Mohamed dans son raisonnement d’introduction. Avant de vouloir absolument passer par des algorithmes « super-quantiques » de prédiction afin de rejoindre Marty McFly dans une autre dimension, posez-vous les questions simples telles que : « Quelles sont les données à ma disposition ? et, « À quel stade dépenser le plus de temps dans mon projet ?

Si toutefois la réponse est : « Dans l’utilisation d’algorithmes et la Data Science bien sûr ! », dans ce cas, je vous invite à découvrir les analyses avancées de Mohamed.

Au programme :

  • Lancez-vous dans les analyses avancées Mohamed El Jaafari

    Mohamed El Jaafari

    Segmentation et analyse de cohorte

  • Scénario et analyse d’hypothèse
  • Calculs sophistiqués
  • Analyse de séries temporelles
  • Analyse prédictive
  • Intégration avec R
  • Pourquoi intégrer Tableau avec R ?
  • « L’Analyse de sentiments sur des commentaires »

4 – Apprenez à maîtriser le filtrage (par @Bethany Lyons)

Vous pensez tout savoir sur les filtres avec Tableau ? Nous le pensions aussi …

Apprenez à maîtriser le filtrage par Bethany Lyons

Bethany Lyons

Bethany nous explique à travers une session interactive comment fonctionne le moteur de filtres de tableau.

 

Cet exercice est une mécanique mentale très intéressante, puisqu’elle vous permet d’agréger vos données en fonction de vos besoins. En effet, aussi artistique qu’elle soit, une visualisation est censée répondre à une ou plusieurs questions très précises, et pour y répondre au mieux, il faut maîtriser au maximum cette mécanique mentale.

Bethany aime les challenges, qui ont animé toute la session. Et même quand quelques aguerris réussissent à suivre sa session jusqu’à la fin, Bethany sait lancer un challenge final pour vous creuser à nouveau les méninges. À ce sujet, je vous invite à aller vers elle pour accepter son défi du moment (qu’elle vous expliquera mieux que moi).

Une communauté active et une équipe soudée

Nous avons pris beaucoup de plaisir à faire la rencontre des experts Tableau Software, qui nous ont transmis autant de passion que de connaissances. Et c’est avec impatience que nous attendons le prochain événement.

tableau team conference paris 2016

Les experts Tableau Software

Tagué , , ,

Tableau Software : Retour d’expérience La Poste

Il y a quelques semaines, j’ai pu assister à un retour d’expérience de La Poste sur le choix, l’implémentation et le déploiement de l’outil de reporting Tableau Software.

Je vous propose ici un compte rendu de cet événement…

I- Retour d’expérience : Conférence

tableau software laposte dataviz

La Poste  en quelques chiffres

Rappel de présentation La Poste

  • Chiffre d’affaires : 22 milliards dont 18 % à l’international
  • Direction client entreprise : 630 vendeurs / 300 vendeurs télévente
  • 30 directions de vente

Qu’est ce qui a déclenché la mise en place d’un outil BI en 2012 ?

  • Un environnement économique en mutation, agité. Cela a nécessité de libérer du temps aux analystes pour passer du temps sur de l’analyse et non de la production de rapports.
  • Trop d’outils BI non connectés entre eux, ce qui avait pour conséquence une perte en efficacité car les utilisateurs avaient besoin de s’adapter aux interfaces.
  • La solution devait  répondre aux exigences :
    • De la DSI
      • Rapidité d’implémentation
      • Simplicité d’implémentation (architecture non bouleversée)
    • Des analystes :
      • Simplicité d’utilisation, intuitif et rapide pour apprentissage
    • Des managers commerciaux :
      • Simplicité de navigation

 

Quoi ? Comment ? Pour Qui ?

Quoi ? Comment ? Pour qui ?  

La démarche :

  • Bilan de l’existant : il y a un problème au niveau de l’écosystème avec des solutions non interconnectées
  • Choix de prendre une société de consulting pour :
    • Préciser les besoins actuels
    • Identifier la trajectoire future et dessiner ce qu’il faut pour l’avenir
  • Choix de l’outil (avec l’aide du cabinet) : Tableau software
  • Réalisation d’un Proof of Concept pour valider la solution Tableau vs Business Object (qui était en place au sein de La Poste).

Tableau a été choisi dans ce duel final car il satisfaisait toutes les exigences initiales mais également car il offrait une multitude de connexions natives.

Mise en place :

  • Ressources humaines
    • 30 à 40 jours hommes étalés sur 4 semaines
  • Sources de données
    • Sybase IQ (15 milions de lignes)
    • M SQL server (10 millions de ligne)
    • Fichiers Excel
  • Connexion SSO
    • Relié au LDAP de l’entreprise

Déploiement

Le déploiement s’est fait de manière progressive. Dans un premier temps, 10 licences desktop ont été attribuées aux personnes du siège pour la conception de tableaux de bord.

En parallèle, un déploiement auprès de tous les utilisateurs de Tableau Reader (outil permettant de lire gratuitement les dashboards produits)  ainsi que des formations à distance ont été réalisés.

Dans un deuxième temps, le nombre de users a été considérablement revu à la hausse et la société est passée sur une solution technique de type server 8 cœurs avec, pour accompagner ce déploiement, de l’elearning ainsi que des fiches d’utilisation intégrant des astuces.

L’objectif final est d’atteindre les 1600 utilisateurs.

Quels utilisateurs ?

Les utilisateurs sont de trois types :

  • Des commerciaux
  • Des analystes en région
  • Des analystes au siège

Quels rapports ?

Les tableaux de bord ont pour principal objectif l’analyse de la performance de l’activité commerciale (ex : Chiffre d’affaires).

Les analystes suivent notamment les forces de ventes de La poste pour les produits vendus pour le compte des filiales.

Autre exemple, le suivi du poids des portefeuilles par zone géographique a été mis en place.

Avec le temps, les besoins ont afflué. Il est par exemple possible de suivre le nombre de courriers traités versus les objectifs.

Chaque vendeur peut par ailleurs avoir une vision détaillée de son activité ou de celle de son équipe par défaut avec la possibilité d’enregistrer ses propres vues dans l’application.

 Satisfaction Tableau

Ce qui plait avec Tableau software

 

Les possibilités offertes ….

Au-delà des fonctionnalités d’analyse, Tableau offre des possibilités très utilisées par La Poste. C’est notamment le cas de :

  • La gestion des abonnements : pouvoir demander qu’un dashboard nous soit envoyé à une fréquence définie (c’est le métier qui gère cela).
  • La gestion des favoris : on positionne des tableaux de bord en tant que favoris pour ne tomber que sur eux lors de la connexion.

Les bénéfices de cette mise en place :

Aujourd’hui, la mise en place de Tableau est perçue comme un véritable atout pour de nombreuses raisons. Ainsi :

  • Le DSI se concentre sur le management stratégique des données et l’accompagnement.
  • Les analystes créent simplement et rapidement des rapports à valeur ajoutée et ont la possibilité d’y apporter des évolutions de manière plus fluide et agile.
  • Le partage des indicateurs peut se faire avec une population conséquente et à tous les niveaux de la société (avec une politique de sécurité simple à mettre en œuvre).
  • Les utilisateurs métiers sont de plus en plus autonomes (et indépendant de la DSI) pour obtenir les données qu’ils ont besoin de suivre.
  • Les restitutions sont plus « visuelles » et permettent des analyses plus rapides et donc une meilleure réactivité en termes d’actions.
  • La qualité du décisionnel dans son ensemble est améliorée grâce à l’unicité des indicateurs en termes de définitions (car un seul système).

Globalement, le projet a été très bien perçu et vu comme une réussite.

jeu de clés

 Faire adopter le système, la clé de la réussite

 Quatre conseils pour l’adoption :

 

  • Conseil numéro 1 : Commencer petit : voir si l’outil et la gouvernance qui va avec répond vraiment au besoin pour ensuite valider la solution.
  • Conseil numéro 2 : Partir d’un noyau restreint pour avoir des utilisateurs qui maîtrisent bien l’outil et le déployer plus sereinement. Ici, le siège, puis l’ensemble des sites.
  • Conseil numéro 3 : S’appuyer sur les services d’experts externes pour vous aider dans la création des premiers rapports : un regard neuf est toujours intéressant surtout quand il faut changer les habitudes.
  • Conseil numéro 4 : Accompagner les utilisateurs à travers:
    • Des formations en interne ou en externe
    • L’instauration d’un cycle vertueux de :
      • Remontée des remarques pour optimiser et adapter les rapports aux besoins
      • Partage d’astuces et de bonnes pratiques
      • Veille sur les forums et les nouveautés de Tableau

 

Et le futur, on en parle ?

De beaux jours devant Tableau au sein de la Poste…

L’utilisation de Tableau va continuer à se développer dans les mois et années à venir au sein de La Poste avec notamment :

  • L’ajout de nouvelles sources de données pour enrichir les analyses (cartographie…)
  • L’augmentation du nombre d’analystes utilisant la version Desktop ( = conception de tableaux de bord)
  • L’extension de l’utilisation de Tableau à de nouveaux services métiers qui s’effectue de manière progressive
  • L’extension à de nouveaux terminaux d’utilisation (ex : Ipad)

 

II- Retour d’expérience : Questions / réponses

A la fin de la conférence, un jeu de questions / réponses a eu lieu pour compléter ce retour d’expérience. En voici un extrait…

Peut-on associer des définitions à nos champs calculés pour permettre aux utilisateurs d’avoir une lecture correcte du KPI ?

  • Oui

Quelles licences faut-il pour concevoir et lire des rapports ?

  • Conception + lecture
    • Tableau desktop
    • Tableau server
  • Uniquement lecture avec des données rafraîchies
    • Tableau server
  • Lecture avec données non rafraîchies
    • Tableau reader

Quelle typologie d’abonnement en termes de licences ?

  • A La Poste, il y a des milliers d’utilisateurs. Dans ce genre de cas, il est préférable de passer par un serveur sur lequel on paie un nombre de cœurs (et non plus des licences). Cela permet d’avoir autant d’utilisateurs que d’espace disponible.

Quels étaient les anciens outils ?

  • Siebel answer
  • BO V5

Y-a-t-il eu des contraintes en termes de volumes de données 

La Poste a géré plus de 15 millions de lignes en mode « In memory ». Tableau compile et indexe en une ou deux minutes. Il n’y a pas de ralentissement particulier.

Comment est géré le passage d’une version à une autre ?

Il y a une compatibilité ascendante entre les versions. Cela signifie que les dashboards des anciennes versions sont toujours compatibles avec la nouvelle version. C’est donc transparent pour le client.

Comment est gérée la sécurité sur les reporting ?

Il est possible d’appliquer un filtre utilisateur soit par rôle (groupe d’utilisateurs), soit par géographie (groupe également). Chez La Poste, la sécurité est gérée par rôle.

Le périmètre géographique est quant à lui ouvert (Les salariés du Nord peuvent voir les résultats de ceux du Sud…)

Cette dernière question vient clôturer ce retour d’expérience. J’espère qu’il aura pu vous être utile. N’hésitez pas à laisser des commentaires pour indiquer les points qu’il vous aurait semblé intéressant de traiter !

Tagué , , , ,

Power BI : Les 10 règles d’or pour faire briller vos tableaux de bord

Aujourd’hui, nous vous proposons de découvrir comment faire « briller » vos tableaux de bord. Cette formation est présentée par Miguel Ryers de chez Microsoft dans un cas pratique sur l’outil de Data Visualization de Microsoft à savoir Power BI.

Vous pouvez découvrir par vous-même ce webinar proposé par Microsoft ou bien découvrir notre récapitulatif ci-dessous.

Miguel Ryers distingue quatre grands types de visualisations que l’on retrouve dans la conception d’un tableau de bord de façon générale. Bien entendu, le niveau exigé pour reproduire ce type de visualisation en allant d’un simple clic, à la conception complète d’une maquette graphique. Il peut donc être intéressant d’avoir des graphistes dans son entourage ou bien pourquoi pas, de le devenir vous-même ;).

microsoft power bi make beautiful dahboards sexy dataviz

Les 4 façons de visualiser vos données avec Power BI

Comme nous le précise Miguel Myers, il faut disposer de compétences en infographie avant de pouvoir se lancer sur des visualisations de type Infrographics (illustrations).

En effet, cette dernière est principalement constituée d’images qui doivent être soigneusement sélectionnées, la taille et les couleurs jouent donc un rôle primordial. Sans grande surprise, Miguel utilise principalement Adobe Illustrator et Photoshop, cependant l’outil utilisé importe peu, en revanche il nous indique qu’il est impératif d’exporter ses images au format PNG pour que ces images soient correctement reconnues par Microsoft Power BI.

Microsoft Power BI bien choisir comment visualiser ses données

Adaptez vos visualisations en fonction de vos interlocuteurs

Selon Miguel Myers, il faut bien choisir le type de visualisation que l’on va livrer à son client / demandeur de projet.

En effet, les attentes de votre interlocuteur vont varier en fonction de son métier, et il est par conséquent judicieux de sélectionner le type de visualisation qui répond le plus à ses attentes.

Power-BI-10-golden-rules-dataviz

Découvrez les 10 règles d’or pour rendre vos tableaux de bord attractifs

Power BI wireframe sketch template design

Règle #1 : Faites des maquettes

Peu importe l’outil que vous choisissez (Paint, Excel …), toujours commencer par un brouillon, une maquette fil de fer (ou wireframe), ou bien une maquette graphique pour s’assurer que la charte graphique proposée répond aux attentes de votre interlocuteur.

power bi rules 2 always use grid data discovery design

Règle #2 : Toujours, utiliser une grille

Cela vous assurera un équilibre dans la répartition des éléments qui constitue votre maquette.

NB : Il existe dans Power BI une option pour afficher la grille de vos tableaux de bord

power-bi-3-use-correct-aligment-rule-design

Règle #3 : Assurer un alignement correct

Il est essentiel de s’assurer que l’ensemble des éléments qui constituent votre rapport soient parfaitement alignés les uns par rapport aux autres. Power BI dispose également d’une fonctionnalité « d’alignement des éléments » pour s’assurer de cela.

Microsoft Power BI approriate spacing design report

Règle #4 : Gérer l’espacement des objets

Disposer de la bonne répartition de l’espace entre chaque élément pour faciliter la lecture du rapport.

Microsoft Power BI select the right background

Règle #5 : Bien choisir le fond d’écran de vos rapports

Il est crucial d’utiliser une image en haute résolution, mais aussi de bien respecter les contrastes. Certains fonds d’écrans sont difficiles à intégrer dans des rapports, préférez donc des couleurs unies et offrant un bon équilibre avec les couleurs utilisées pour vos visualisations (voir règle #9).

microsoft-power-bi-6-select-the-right-background

Règle #6 : Utiliser la bonne visualisation

Miguel nous conseille d’utiliser des visualisations adaptées aux données représentées, préférez donc les graphiques de types Gauges pour des ratios, des histogrammes pour des évolutions, des camemberts ou donuts pour des répartitions ou bien des tableurs pour un affichage détaillé des données.

microsoft power bi 7 dont use many effects

Règle #7 : N’utilisez pas trop d’animations

En effet, plutôt que d’exploiter au maximum tous les effets possibles, il est préférable de se contenter d’un minimum d’animation. Posez vous la question « Cette animation apporte-t-elle réellement quelque chose de plus à mon rapport ? », ainsi vous assurerez la disponibilité mentale de vos interlocuteurs qui se concentreront davantage sur l’essentiel à savoir, l’information.

microsoft power bi 8 use empty space wisely

Règle #8 : Utilisez correctement les espaces vides

En effet, il est préférable d’afficher moins d’éléments sur une même page afin d’améliorer sa lisibilité. Évitez de rajouter trop d’informations et de vouloir afficher toutes les données possibles. Si cela est trop compliqué, pensez à découper votre page en plusieurs pages, en vous concentrant sur une thématique précise sur chacune d’entre elles.

microsoft power bi 9 choose color palette

Règle #9 : Choisissez, et tenez-vous à une palette de couleur

On distingue trois grands types de palettes de couleur : analogue, triade et monochrome.

Miguel nous avoue qu’il préfère de façon générale utiliser le monochrome, quelques fois l’analogue, et rarement la triade.  Personnellement, mon choix varie souvent en fonction des couleurs et du thème que je choisis. J’utilise un outil en ligne gratuit et disponible à l’adresse suivante : https://color.adobe.com/.

Enfin, de façon générale, les ergonomes conseillent de respecter la règle des 5, à savoir maximum 5 couleurs, 5 éléments, 5 rubriques par pages. Cette valeur peut varier, Miguel conseille par exemple 4 couleurs dans des gammes analogue et triade, contre 6 couleurs dans la gamme monochrome.

microsoft power bi enhance the important parts of pageRègle 10 : Faites ressortir les informations essentielles.

Jouez avec les contrastes et les couleurs pour faire ressortir les informations que vous (et vos utilisateurs) jugez prioritaires. En faisant ainsi, vous aiderez vos utilisateurs à se concentrer sur l’essentiel et votre tableau de bord gagnera ainsi en efficacité. C’est indéniablement un détail qui sera apprécié par vos utilisateurs.

Microsoft Power BI Finish your dashboards

Enfin, pensez à bien finaliser vos tableaux de bord. C’est la couche de vernis vous fera briller votre travail, la touche de finition qui montre incitera vos utilisateurs à passer du temps sur vos tableaux de bord et à passer par vos à nouveau pour de futurs projets.

Tagué , , , ,

Power BI Desktop – Nouvelle version d’Avril 2016

La nouvelle version de Power BI Desktop du mois d’avril 2016 (Version : 2.34.4372.322) est enfin disponible au téléchargement.

microsoft power bi desktop nouvelle version 2016

Comme nous pouvons le constater, cette année Microsoft nous montre à quel point la business intelligence « nouvelle génération » (ou self-service BI) fait partie de ses priorités. Notons d’ailleurs que Power BI s’inscrit dans les priorités dans la roadmap Microsoft en étant une des briques officielles du Workshop Cortana Analytics 2016. Nous attentons donc avec impatience de voir l’évolution de la solution tout au long de cette année 2016.

microsoft cortana analytics big data prédictif azure power bi

Les nouveautés de cette version de Power BI Desktop

Nous vous proposons ici une analyse rapide et synthétique des évolutions proposées dans
cette nouvelle version. Pour voir en détail l’ensemble des nouvelles fonctionnalités, nous vous proposons de vous rendre sur le site officiel de Microsoft Power BI (lien).

Fonctionnalités de visualisation des données dans les rapports (Power View) :

  • De nouvelles fonctionnalités permettent la personnalisation des styles visuels des graphiques tabulaires (Tableau, Matrice et Carte à plusieurs lignes)
  • Reconnaissance des relations hiérarchiques entre différents indicateurs, possibilité d’affiner la modélisation des données dans Power Pivot
  • Exploration des données à plusieurs niveaux hiérarchiques à travers la fonction « Développez tout »
  • Zoom automatique de la carte en fonction du niveau d’exploration des données.
  • Une « ligne de tendance » (simpliste) peut être ajoutée à vos histogrammes.

Fonctionnalité de modélisation des données (Power Pivot) :

  • Il est possible de modifier la structure des informations pendant que Power BI rafraîchit les données.
  • Reconnaissance intelligence du format des données de type « Date », compatible avec des données à plusieurs niveaux hiérarchiques.
  • Des synonymes peuvent être déclarés afin d’optimiser les questions via le moteur de requêtes en langage naturel (Q&A).

Fonctionnalités liées à la connexion aux données (Power Query) :

  • Il est possible de spécifier des paramètres dans vos chaînes de connexions à des sources de données.
  • Des modèles Power BI (cf. Templates) peuvent être enregistrés afin de simplifier l’industrialisation des rapports.
  • De nouveaux connecteurs à des sources de données ont été intégrés
    • Répertoire Sharepoint
    • Webtrends
    • SparkPost
    • TyGraph
  • Une interface graphique permet de simplifier la création de « Colonnes calculées ». Il n’est désormais plus obligatoire de passer par des formules DAX.
  • La disposition des colonnes dans les tableaux peut être modifiée via un simple glissé-déposé.
  • Les requêtes peuvent être effectuées sur des groupes de données, en effet, ces derniers sont automatiquement reconnus par le moteur syntaxique.

Autres liens utiles :

Tagué , , , , , , ,

Dossier 2016 : Power BI Desktop, où en sommes nous ?

La nouvelle version de Power BI Desktop de janvier 2016 (2.31.4280.361) est enfin disponible.

Depuis son entrée dans le domaine de la Business Intelligence nouvelle génération (aussi nommée Smart BI, Self-service BI, Agile BI …), Power BI a connu une forte évolution jusqu’à se positionner parmi les solutions les plus innovantes 2016 selon Gartner.

Nous vous proposons donc nous intéresser sur l’état actuel de Power BI en ce mois de févier 2016.

Environnements Power BI V2

Depuis ses premières versions où il se déclinait sous la forme d’un ensemble de plugins intégrés à Mictosoft Excel (Power Pivot, Power Map, Power Query et Power View), Power BI a élargi son panel d’interfaces jusqu’à arriver à 4 environnements distincts :

  • Power BI plugins for Excel (ensemble de plugins pour Excel)
  • Power BI Desktop (Interface Desktop)
  • PowerBI.com – Version SaaS (compatible HTML5)
  • Power BI Smartphone Apps (Compatible iOS, Android et Windows Phone)
pbi-interfaces

Environnements Power BI V2

Microsoft a clairement défini le futur positionnement de Power BI comme étant « Mobile first – Cloud First », ce qui jusque ici a été respecté puisqu’une interface 100% HTML5 compatible avec tous les périphériques est proposée par Microsoft, ainsi qu’une application mobile aboutie compatible avec iOS (iPad & iPhone), Android et Windows Phone.

Enfin, concernant l’interface SaaS de Power BI, Microsoft a choisi de stocker les tableaux de bord et les reportings sur le cloud mais en dehors de son interface Office 365, rendant ainsi accessibles les données aux utilisateurs disposant de la version gratuite de Power BI.

Business Model

 » Version gratuite ? Mais que peut-on (vraiment) faire ? « 

La réponse serait, vous pouvez tout faire avec la version gratuite sauf bénéficier de la synchronisation des tableaux de bord et reportings en ligne. Ce qui en soit vous empêche de partager votre travail à travers un site Office 365 ou l’application mobile. Toutefois, vous pouvez utiliser Power BI pour votre propre usage ou bien prendre le temps de découvrir la solution par vous même avant d’obtenir la version professionnelle. S’ajoute à cela, une limite de stockage Cloud de 1Gb (au lieu de 10Gb avec la version pro).

Pour résumer le business model actuel de Power BI se décline actuellement en 2 offres :

pricing-power-bi

 Pour plus de détails sur les fonctionnalités et le pricing model cliquez ici

Fonctionnalités

Faisons tout d’abord un point sur les principales fonctionnalités de Power BI :

  • Possibilité de créer des tableaux de bord en mode web
  • Exploration des KPIs à une granularité plus précise par « drill drown »
  • Partage et collaboration des tableaux de bord sur mobiles et tablettes (iOS, Android, WP)
  • Utilisation des plugins Power BI sur Excel
  • Possibilité de faire parler les données via des fonctionnalités Data Story Telling
  • Interrogation du moteur Power BI en langage naturel via « Q&A »

Nouvelles fonctionnalités (février 2016) :

Création de graphiques personnalisés « Custom Visuals »

La communauté a agréablement été surprise par cette nouvelle fonctionnalité. Il est en effet désormais possible de créer ses propres graphiques personnalisés, et adaptés à un contexte métier spécifique. Le développement de ces graphiques s’effectue dans un environnement full stack web (utilisation du framework D3.js), ce qui permet la réutilisation des custom visuals dans d’autres interfaces que Power BI permettant ainsi de capitaliser le temps passé sur la partie du développement.

Sans surprise, de nombreux visuels ont déjà été créés et publiés dans la « Custom Visual Gallery ». Si vous aussi vous êtes intéressés pour créer vos propres graphiques, un template Power BI Visuals est à votre disposition sur GitHub.

Roadmap 2016

Microsoft a dévoilé sa roadmap pour les prochaines versions à venir, voici un résumé de ce qui nous attend en 2016 :

  • Scheduled Refresh : Possibilité d’effectuer des rafraîchissements planifiés via Power BI Gateway (version Power BI Professionnelle uniquement)
  • Élargissement du nombre de connecteurs de sources de données utilisables dans la Power BI Gateway
  • Hybrid cloud solution : Microsoft s’engage à mettre un accent sur les fonctionnalités hybrides de la Power BI Gateway pour assurer un compromis entre performance et contrôle des données.

Résumé

Microsoft rattrape rapidement son retard dans le domaine de la business intelligence nouvelle génération. Est-il si surprenant que Power BI se trouve positionné dans les leaders selon Gartner en ce début d’année 2016 ?

Le positionnement de Microsoft dans le domaine de l’analytique est clairement identifié par Cortana Analytics, dont Power BI et Azure Machine Learning font partie intégrante, proposant ainsi un écosystème « orienté données » portant une forte valeur d’innovation et favorisant le développement d’une communauté active.

Avec une solution à moindre coût, une plateforme analytique multi-device complète et de nouvelles possibilités de personnalisation, Power BI a de fortes chances de convaincre de nombreux clients dans leur transformation digitale de l’analyse de données.

Tagué , , ,

Veille Business Intelligence juillet-août 2015

Data Vizualisation

Tabeau soft

Tableau software s’apprête à sortir la V9.1

L’outil d’analyse en self service va déployer une version très orientée « mobilité ». Ainsi, il sera désormais possible de réaliser des « impressions d’écran » de rapports ou tableaux de bord sur mobile ou tablette afin de pouvoir les visualiser hors connexion. En dehors de la mobilité, de nouveaux connecteurs vont être ajoutés (Google Cloud SQL, Amazon Aurora, Microsoft Azure SQL Data Warehouse, Spark for HDInsight, Birst, Smartsheet), de même qu’un connecteur permettant de récupérer les données du web(Facebook, Twitter, Google sheet). Enfin, une procédure de connexion unique SSO avec SAP a été développée.

La sortie de cette version est prévue pour fin octobre.

Source : Decideo

 

Power BI V2

Microsoft met en production sa nouvelle version de Power BI

Fin de la version en preview, les entreprises peuvent depuis le 24 juillet utiliser la nouvelle version de Power BI dont nous vous avons déjà parlé précédemment. La principale évolution vient de la mise en place d’une application Desktop qui centralise les fonctionnalités de Power Query, Power Pivot et Power View. Collecter des données, les transformer, modéliser et réaliser des tableaux de bord se fera désormais sur une interface dédiée à la BI beaucoup plus intuitive que sur l’ancienne version où différents modules étaient intégrés dans Excel.

Cette nouvelle version ne contient pas encore toutes les fonctionnalités présentes sur la version 1 (Excel). Je pense notamment à la gestion des KPIS ou bien même à la géolocalisation en 3D (Power Map) mais nous pouvons imaginer que cela viendra. En attendant il est toujours possible d’utiliser les deux versions en parallèle en fonction des besoins car, qu’un tableau de bord soit produit à partir de l’application ou bien à partir d’un fichier Excel, les deux types de fichiers produits pourront être intégrés dans le cloud.

Concernant la partie cloud, son interface a complètement évolué mais, sur le principe, les fonctionnalités restent les mêmes.

Enfin concernant le prix, il est de 10 dollars par mois par utilisateurs

Partie Analyse (via l’application):

Power BI V2 - Analyse - Application

Partie Partage (via le cloud):

Power BI V2 - Cloud

Source : Lemondeinformatique + complément personnel

 

Cloud

Cloud fun

Les Etats-Unis font confiance au cloud, pourquoi pas nous ? 

Une récente étude du cabinet de conseil et de benchmark « Ventana Research » a permis de mettre en lumière la propension des sociétés américaines à utiliser de plus en plus de solutions décisionnelles dans le cloud.

adoption du décisionnel cloud

Le cloud est majoritairement utilisé pour suivre les données prédictives (51%), les données clients (47%) et les données de vente (33%). Il vient également s’intégrer dans une volonté forte de partage de l’information et répond aussi à un besoin de mobilité pour près de 80% des entreprises interrogées. Pour le cabinet, le niveau d’utilisation du cloud n’est pas encore à son meilleur niveau. Seule une entreprise sur sept atteint le niveau maximum d’utilisation du cloud représenté, selon Ventana, par l’innovation. Une analyse plus poussée  montre que la technologie et les processus sont bien gérés mais qu’il y a encore des progrès à faire sur la gestion de l’information et l’adoption par les ressources humaines. Cela peut s’expliquer par certains freins au déploiement par les employés qui, malgré la volonté d’avancer des dirigeants, ont des craintes sur la sécurité des données et le manque de compétences dans l’analytique en mode cloud.

Cloud privé, hybride ou public ?

Le frein sur la sécurité des données est contourné par l’adoption d’un cloud privé à 66% tandis que 38 % des entreprises utilisent un cloud public et 30 % un cloud hybride (certaines entreprises utilisent plusieurs modes). Les cloud privés et hybrides sont majoritairement utilisés dans les domaines de la finance, de l’assurance, de l’immobilier et au niveau du gouvernement où l’aspect privé des données est une véritable préoccupation. Pour 70% des utilisateurs, le cloud privé facilite le partage d’information et permet d’améliorer la communication . Il en va de même pour 72% des utilisateurs de cloud hybride et 56 % pour le cloud public. En outre, les entreprises  qui adoptent le cloud privé ou hybride ont, par la suite, une politique d’intégration et de traitement de données beaucoup plus forte que celles qui adoptent le cloud public.

En résumé, les dirigeants américains adoptent de plus en plus les solutions décisionnelles en mode cloud et privilégient les systèmes privés ou hybrides pour verrouiller au maximum la dimension « sécurité ». A quand une tendance similaire en France ?

Source : smartdatacollective.com

 

Réflexion

consommation data

Maîtriser sa consommation d’analytique, c’est bon pour la santé de son entreprise ! 

Joanna Schloss désigné 5ième femme la plus influente dans le secteur de la BI et  membre du centre d’excellence Dell s’est intéressée à l’excès d’analyse dans les entreprises. Pour elle, l’analyse de la donnée a pour objectif de base d’apporter des éléments  extrêmement fins qu’il est impossible d’avoir autrement et qui vont permettre de prendre des décisions  plus pertinentes. L’analyse répond à deux principaux besoins : maîtriser les coûts en rationalisant les processus et innover. Malheureusement le contexte actuel, pousse les entreprises à privilégier la réponse au premier besoin au détriment du second. Comment s’en apercevoir au sein de son entreprise ? De nombreux projets innovants sont bloqués par les analystes, les modalités de financement sont décidés par des analystes financiers et non les dirigeants ou bien encore lorsque les analystes sont plus nombreux que les éléments créatifs, stratèges…

Cette stratégie entraîne souvent une limitation de la prise de risque alors que l’analyse des données devrait au contraire servir de point d’appui à des projets rentables sur le moyen-long terme dont les risques existent mais sont calculés. Un équilibre doit donc être trouvé entre l’optimisation vitale à l’heure actuelle et l’innovation si nécessaire au futur de l’entreprise.

Pour cela, Joanna propose notamment d’identifier et de former trois équipes/groupes de personnes:

  • Les  analystes qui se focalisent sur les gains d’efficacité à court terme qui vont travailler sur la rationalisation des coûts et l’optimisation des processus opérationnels
  • Les analystes spécialisés dans l’innovation immédiate qui doivent s’appuyer sur les données pour identifier les tendances et mettre en place des actions / projets dont les bénéfices se feront sur les 3 ou 5 ans à venir.
  • Les analystes qui ont pour mission d’analyser les données et détecter des potentiels d’innovation à très long terme (10 ou 20 ans) sans se préoccuper des investissements et du ROI.

Source : decideo et CMS Wire.com

 

Agenda

 

Calendrier

Je réaliserai un debrief des conférences auxquelles j’aurai assisté 😉

 

Tagué , , , , , , , , , , , , , , , , , , , , , ,

Veille business intelligence juin 2015

Outils DataViz, Data Discovery, Data Story Telling

Nouvelle version de Power BI Designer (Beta)

Microsoft vient de sortir la version du mois de mai 2015.Microsoft Power BI

Rassurez-vous, il ne s’agit pas d’une refonte complète de l’outil, mais de l’implémentation de nouvelles fonctionnalités utiles et qui vous permettront de gagner des heures dans la manipulation de vos données et de vos tableaux de bord.

Nous avons écrit un article spécialement sur ce sujet

Ressources :

Vidéo de présentation des fonctionnalités

Lien de téléchargement

Qlik Sens Self-service Business Intelligence

QlikSense sort sa V2

Qlik a lancé le 24 juin la V2.0 de QlikSense. Quatre principales fonctionnalités  accompagnent cette sortie :

  • Smart data load qui va permettre à l’utilisateur de connecter plusieurs sources de données entre elles pour pouvoir croiser des données.
  • Smart data compression qui permet à l’utilisateur d’analyser extrêmement finement ses données en se plongeant, de manière très lisible, dans des milliards de points dans des diagrammes de nuages de points.
  • Print and export qui autorise l’utilisateur à exporter  des données au format PDF et Powerpoint, ce qui, détail non négligeable, permet d’éviter les impressions écran dans le cadre de présentations des résultats/analyses aux équipes.
  • Qlik Data Market qui met à disposition des utilisateurs des données externes telles que les données météorologiques ou des taux de change.

Cette nouvelle version permet d’améliorer l’expérience utilisateur et de simplifier la prise en main de l’outil par des fonctionnels, en particulier sur la partie « connexion aux données ».

Voici le lien pour télécharger cette nouvelle version :  QlikSense Desktop 2.0

Entreprise

 

Oscaro utilise BIME comme outil de reporting !

Le site de vente en ligne de pièces auto Oscaro qui génère plus de 30Oscaro logo0 millions de CA et leader sur le marché, a décidé  il y a environ un an de s’appuyer sur ses données pour améliorer l’expérience client. Pour apporter des éléments concrets aux différents analystes métiers (marketing notamment), Oscaro a décidé de mettre en place un nouveau système décisionnel basé sur une approche big data et 100% cloud dans l’objectif de maîtriser le volume de données ainsi que les coûts d’infrastructures. La troisième problématique à maîtriser était l’accessibilité de l’outil de reporting à des fonctionnels.  Le choix final de l’outil s’est porté sur BIME qui rentre complètement dans ces trois critères.

Désormais, les utilisateurs métiers travaillent à partir de données issues de plus de 80 sources  (qui  sont centralisées et « nettoyées » dans Hadoop  puis déversées dans Big Query) et peuvent croiser, par exemple, le catalogue produits avec les données de navigation et de ventes afin d’obtenir les marges produits, des données logistiques transporteurs (ponctualité des réceptions) ou bien des informations sur la satisfaction client. La très bonne compatibilité des outils Biq Query / BIME permet aux métiers de réaliser en temps réel des analyses simples et précises sur des volumes de données considérables.

Les utilisateurs ont particulièrement apprécié certaines fonctionnalités comme les analyses temporelles  (N vs N-1, 3 derniers mois…), la capacité des outils à filtrer simplement, les types de visualisations proposés, la facilité de partage des rapports ou bien encore la simplicité de connexion entre BIME et Big Query.

Au-delà de la valeur ajoutée sur la conception des tableaux de bord (dont les mises en place se sont étalées sur deux mois), BIME a également permis à Oscaro de qualifier les données issues des systèmes sources et donc d’identifier très rapidement les incohérences.

Pour finir, ce démarrage réussi a conduit Oscaro à intégrer, à terme, les achats ainsi que les données financières dans BIME.

Source : Blog BIME

Enjeux Métiers

Les données, un puits immense de ressources pour définir sa stratégie de pricing

Les entreprises de B2B n’ont pas encore pris la pleine mesure de ce queArgent pouvait apporter l’exploitation de leurs données à leur politique de pricing. Contrairement au B2C, l’analyse des données à des fins de pricing n’est pas une action prioritaire alors que c’est pourtant un levier fort de la performance de l’activité. Des outils de pricing basés sur la segmentation client existent bien évidemment mais les entreprises les utilisant se privent d’une richesse de données qui leur permettrait d’aller beaucoup plus loin dans les analyses et la segmentation. Les prix pratiqués seraient plus adaptés et plus justes. L’entreprise pourrait également suivre l’évolution des prix, des taux de remise ou des marges et en faire des analyses plus poussées. La baisse des taux de remise pourrait s’expliquer par des ventes se déplaçant de clients bénéficiant de taux de remise élevés vers d’autres bénéficiant de taux de remise faibles ou bien par une concurrence réduite sur un type de produit. Toute une série d’indicateurs de marge, de stock, de taux de transformation, de prix des concurrents permettraient un pilotage plus fin des prix au quotidien et de faire des analyses post actions. Cela nécessite bien évidemment des compétences pointues en termes de pricing mais la valeur ajoutée est réelle. L’article ci-dessous décrit très bien les enjeux d’un tel investissement.

Source : Décideo

Tagué , , , , , , , , , , , , ,