Archives de Tag: tableau software

Tableau software : retour d’expérience Engie

engie-logoLors de la conférence Tableau qui s’est déroulée en mai sur Paris, ENGIE, entreprise de service en efficacité énergétique de 12000 salariés nous a offert son retour d’expérience  sur la mise en place de l’outil de reporting Tableau software.

 

Voici la synthèse de leur intervention sous la forme de questions / réponses…

 

tableau software 2016 tendances benchmark vendor 2016 self service business intelligence data discovery

Changement d’outil et choix de Tableau

 

Pourquoi avoir voulu mettre en place un nouvel outil décisionnel ?

La société avait besoin de piloter la performance sur une cinquantaine d’agences. Il y avait donc un objectif de langage commun mais également une volonté d’alléger le travail de reporting personnel.

Par ailleurs, Engie produisait régulièrement un COMEX en Excel et il était nécessaire d’avoir un outil de reporting commun efficace  et qui permette la consolidation. Le travail cumulé sur les 50 agences se chiffrait à 10 J par mois.

La production de rapports opérationnels était également trop longue.

Outre cette problématique de délai de production et de charges consommées, il y avait également deux besoins majeurs :

  • Avoir une interface ergonomique / user friendly
  • Pouvoir croiser les données

 

Quel outil était là auparavant ?

BO

Pourquoi avoir choisi Tableau Software ?

Une analyse du Gartner a permis de positionner rapidement Tableau Software et son statut de leader parmi les favoris. Une grille d’évaluation avec pondération ainsi que des cas d’études ont permis à Tableau d’atterrir dans la short list.

Quel a été l’argument clé en faveur de Tableau Software face aux concurrents?

Durant les phases de test et entretiens avec les éditeurs, Tableau, en moins de deux heures, a su reconstituer les deux trois grands rapports. Précisions que la production des tableaux a été réalisée par les chefs de projet et non les experts techniques de Tableau.

 

Mise en oeuvre

Mise en oeuvre

 

Quelle a été « l’architecture technique » retenue ?

Engie a opté pour la solution Server au détriment de Tableau Online. Ils ont donc mis en place Tableau Desktop et Tableau Server

D’où proviennent les données ?  

Tableau est connecté à un Datawarehouse qui centralise les données des différents outils du SI. Il n’y a pas de connexion à des outils de production. Au moment de la présentation, des datamart étaient en cours de préparation pour faciliter l’utilisation (en terme de jointures par exemple) et optimiser les performances.

Comment s’est déroulée la mise en place ?

Il y a une équipe qui recense les demandes et qui produit petit à petit les rapports.

Comment est gérée la sécurité des données ?

Des univers peuvent être créés par utilisateur ou groupe d’utilisateurs pour conserver un niveau de sécurité (vision uniquement de mon périmètre, mon agence) mais qui permet une lecture transverse (ensemble des données techniques, commerciales…)

Est-ce que tout s’est déroulé comme prévu ?

La prise en main de l’outil a été facile. En revanche il y a eu un temps de préparation des données  très important et relativement long (avec de longues phases de tests).

Des process ont dû être modifiés en amont pour avoir, dans les bases, davantage de données « propres ».

 

cles

 Les clés d’un projet réussi dans le temps…

 

Quelles sont les clés pour une bonne prise en main ?

Il faut limiter les freins à l’utilisation en passant du temps sur la préparation des données et la conception d’entrepôts de données intermédiaires.

ENGIE  essaye, par ailleurs, de développer une culture des champions. Par exemple, l’agence « B » réalise un rapport et le remonte. Si la direction estime qu’il peut avoir une vraie valeur ajoutée pour les autres agences alors celui-ci sera ré-appliqué dans celles-ci. C’est une politique de partage ascendant.

Comment prévenir les risques liés à l’industrialisation ?

Il faut travailler en amont pour identifier les règles de gestion des KPIS (définition commune d’un CA par exemple) pour éviter d’avoir des chiffres différents pour un même indicateur.

Comment maintient-on la compétence sur ce type d’outil ?

Dans un premier temps, il faut identifier et s’appuyer sur des ressources qui ont une appétence à la data.

Ensuite pour maintenir la compétence, il est nécessaire de pratiquer régulièrement et de s’appuyer sur les forums et le site de tableau qui représentent une source d’information extrêmement riche et permettent de répondre à de nombreuses interrogations.

 

deploiement

 Une réussite chiffrée et un déploiement conséquent à venir …

 

Un des objectifs était le gain de temps, peut-on chiffrer celui- ci ? 

Une fois que les données seront à 100% fiables, le temps de production sera réduit à néant car tout est automatisé.

Autrement dit, Engie devrait passer de 500 JH annuel à 2.5 JH soit 99.5 % de gain, l’équivalent de 25 ETP.

 

futur

 Et le futur, on en parle ?

Cette première mise en place étant réussie, ENGIE compte étendre le déploiement de cet outil. Ainsi l’ensemble des collaborateurs aura accès sur Tableau Server à l’ensemble des univers qui leur sont nécessaires. Cela représente plus de 1000 personnes, une centaine par filière…

Une ouverture maximale sera faite en lecture.

Le déploiement de Tableau chez Engie n’en est donc qu’à son commencement…

Tagué , , , , , ,

Let it BI vous fait son retour de la Tableau Conference 2016

Tableau Conference 2016

Pour la première fois, Tableau a choisi Paris dans son programme Tableau Conference 2016. Nous remercions tout d’abord Tableau Software et AgenceRP de nous avoir invité à cet événement.

Début de journée avec la découverte de Tableau 10

C’est dans un des plus beaux endroits de notre paysage parisien à l’hôtel Pullman Tour Eiffel, je pense que la photo ci-dessus parle d’elle même…

La journée a commencé avec une ouverture digne d’un vrai show à l’Américaine avec à l’honneur la présentation de la nouvelle version de Tableau Desktop présentée par Edouard Beaucourt (Directeur régional France Europe du Sud) et Thierry D’hers (Vice-président, développement produit Tableau).

Nous avons été agréablement surpris par les nouveautés de cette version respectant la vision de Tableau à savoir simplicité, accessibilité et perfection (allant jusqu’à développer sa propre police pour assurer un affichage parfait, quel que soit le périphérique utilisé… clin d’œil à Steve Jobs ?).tableau conference 2016 paris

Nous avons été intéressés par de nouvelles fonctionnalités que nous attentions depuis un moment telles que le Data Blending permettant de fusionner et d’interroger plusieurs sources de données, la création de zones géographiques personnalisées en un clic, l’application Mobile sous Androïd, une comptabilité de Tableau Server sur Linux et j’en passe…

Le plus simple étant de découvrir la liste complète sur le site de Tableau.

Retour d’expérience

Le programme s’est décliné sous la forme de 16 sessions sur 4 plages horaires, le plus dur a donc été de choisir… À côté de cela, un atelier « Question / réponse » s’est tenu toute la journée avec la possibilité d’échanger avec des « Tableau Doctors » (cf. Experts Tableau) sur vos problématiques pendant 30 minutes… rien de mieux pour partir l’esprit tranquille.

Pour ma part, j’ai profité de la présence d’experts Tableau dans des sessions suivantes, qui seront sûrement disponibles en ligne prochainement, voici la liste détaillée :

1 – Planification et dimensionnement du déploiement de Tableau Server (par @Gaetan Bailby)

Gaetan est un spécialiste Tableau Server, il nous partage les recommandations pour le dimensionnement des serveurs et la répartition des charges. Si vous êtes déjà à l’aise avec l’administration de Tableau Server, la session de Gaetan peut vous apporter de nombreux best practices à suivre.

Si par exemple vous vous demandez si le Back grounder & Data engine devraient être dans le même cluster, ou que vous souhaitez estimée la charge du moteur VizQL, vous êtes au bon endroit !

2- Exploration des données Internet grâce aux connecteurs de données Web de Tableau (par @Alex Ross)

Exploration des données Internet grâce aux connecteurs de données Web de Tableau Alex Ross

Alex Ross

Alex est un passionné des réseaux sociaux, et plus particulièrement de la façon d’explorer les données qui en découlent. Il participe activement au développement de nouveaux « Web Data Connector », on pourrait ainsi le surnommer « WDC Master » 😉 ?

Alex vous propose pendant sa session de découvrir comment vous connecter à Facebook et Twitter en utilisant ses connecteurs de données mis à disposition (gratuitement) sur son site web tableaujunkie.

Alex vous explique également comment développer vos propres Web Data Connectors avec un peu de code (HTML, CSS, JS), mais non, n’ayez pas peur, vous verrez, c’est très bien expliqué !

3 – Lancez-vous dans les analyses avancées (par @Mohamed El Jaafari)

« Par fois, en analysant simplement de façon visuelle nos données, vous pourriez avoir des résultats bien plus proches de la réalité qu’en utilisant des modèles prédictifs. »

Je rejoins entièrement Mohamed dans son raisonnement d’introduction. Avant de vouloir absolument passer par des algorithmes « super-quantiques » de prédiction afin de rejoindre Marty McFly dans une autre dimension, posez-vous les questions simples telles que : « Quelles sont les données à ma disposition ? et, « À quel stade dépenser le plus de temps dans mon projet ?

Si toutefois la réponse est : « Dans l’utilisation d’algorithmes et la Data Science bien sûr ! », dans ce cas, je vous invite à découvrir les analyses avancées de Mohamed.

Au programme :

  • Lancez-vous dans les analyses avancées Mohamed El Jaafari

    Mohamed El Jaafari

    Segmentation et analyse de cohorte

  • Scénario et analyse d’hypothèse
  • Calculs sophistiqués
  • Analyse de séries temporelles
  • Analyse prédictive
  • Intégration avec R
  • Pourquoi intégrer Tableau avec R ?
  • « L’Analyse de sentiments sur des commentaires »

4 – Apprenez à maîtriser le filtrage (par @Bethany Lyons)

Vous pensez tout savoir sur les filtres avec Tableau ? Nous le pensions aussi …

Apprenez à maîtriser le filtrage par Bethany Lyons

Bethany Lyons

Bethany nous explique à travers une session interactive comment fonctionne le moteur de filtres de tableau.

 

Cet exercice est une mécanique mentale très intéressante, puisqu’elle vous permet d’agréger vos données en fonction de vos besoins. En effet, aussi artistique qu’elle soit, une visualisation est censée répondre à une ou plusieurs questions très précises, et pour y répondre au mieux, il faut maîtriser au maximum cette mécanique mentale.

Bethany aime les challenges, qui ont animé toute la session. Et même quand quelques aguerris réussissent à suivre sa session jusqu’à la fin, Bethany sait lancer un challenge final pour vous creuser à nouveau les méninges. À ce sujet, je vous invite à aller vers elle pour accepter son défi du moment (qu’elle vous expliquera mieux que moi).

Une communauté active et une équipe soudée

Nous avons pris beaucoup de plaisir à faire la rencontre des experts Tableau Software, qui nous ont transmis autant de passion que de connaissances. Et c’est avec impatience que nous attendons le prochain événement.

tableau team conference paris 2016

Les experts Tableau Software

Tagué , , ,

Tableau Software : Retour d’expérience La Poste

Il y a quelques semaines, j’ai pu assister à un retour d’expérience de La Poste sur le choix, l’implémentation et le déploiement de l’outil de reporting Tableau Software.

Je vous propose ici un compte rendu de cet événement…

I- Retour d’expérience : Conférence

tableau software laposte dataviz

La Poste  en quelques chiffres

Rappel de présentation La Poste

  • Chiffre d’affaires : 22 milliards dont 18 % à l’international
  • Direction client entreprise : 630 vendeurs / 300 vendeurs télévente
  • 30 directions de vente

Qu’est ce qui a déclenché la mise en place d’un outil BI en 2012 ?

  • Un environnement économique en mutation, agité. Cela a nécessité de libérer du temps aux analystes pour passer du temps sur de l’analyse et non de la production de rapports.
  • Trop d’outils BI non connectés entre eux, ce qui avait pour conséquence une perte en efficacité car les utilisateurs avaient besoin de s’adapter aux interfaces.
  • La solution devait  répondre aux exigences :
    • De la DSI
      • Rapidité d’implémentation
      • Simplicité d’implémentation (architecture non bouleversée)
    • Des analystes :
      • Simplicité d’utilisation, intuitif et rapide pour apprentissage
    • Des managers commerciaux :
      • Simplicité de navigation

 

Quoi ? Comment ? Pour Qui ?

Quoi ? Comment ? Pour qui ?  

La démarche :

  • Bilan de l’existant : il y a un problème au niveau de l’écosystème avec des solutions non interconnectées
  • Choix de prendre une société de consulting pour :
    • Préciser les besoins actuels
    • Identifier la trajectoire future et dessiner ce qu’il faut pour l’avenir
  • Choix de l’outil (avec l’aide du cabinet) : Tableau software
  • Réalisation d’un Proof of Concept pour valider la solution Tableau vs Business Object (qui était en place au sein de La Poste).

Tableau a été choisi dans ce duel final car il satisfaisait toutes les exigences initiales mais également car il offrait une multitude de connexions natives.

Mise en place :

  • Ressources humaines
    • 30 à 40 jours hommes étalés sur 4 semaines
  • Sources de données
    • Sybase IQ (15 milions de lignes)
    • M SQL server (10 millions de ligne)
    • Fichiers Excel
  • Connexion SSO
    • Relié au LDAP de l’entreprise

Déploiement

Le déploiement s’est fait de manière progressive. Dans un premier temps, 10 licences desktop ont été attribuées aux personnes du siège pour la conception de tableaux de bord.

En parallèle, un déploiement auprès de tous les utilisateurs de Tableau Reader (outil permettant de lire gratuitement les dashboards produits)  ainsi que des formations à distance ont été réalisés.

Dans un deuxième temps, le nombre de users a été considérablement revu à la hausse et la société est passée sur une solution technique de type server 8 cœurs avec, pour accompagner ce déploiement, de l’elearning ainsi que des fiches d’utilisation intégrant des astuces.

L’objectif final est d’atteindre les 1600 utilisateurs.

Quels utilisateurs ?

Les utilisateurs sont de trois types :

  • Des commerciaux
  • Des analystes en région
  • Des analystes au siège

Quels rapports ?

Les tableaux de bord ont pour principal objectif l’analyse de la performance de l’activité commerciale (ex : Chiffre d’affaires).

Les analystes suivent notamment les forces de ventes de La poste pour les produits vendus pour le compte des filiales.

Autre exemple, le suivi du poids des portefeuilles par zone géographique a été mis en place.

Avec le temps, les besoins ont afflué. Il est par exemple possible de suivre le nombre de courriers traités versus les objectifs.

Chaque vendeur peut par ailleurs avoir une vision détaillée de son activité ou de celle de son équipe par défaut avec la possibilité d’enregistrer ses propres vues dans l’application.

 Satisfaction Tableau

Ce qui plait avec Tableau software

 

Les possibilités offertes ….

Au-delà des fonctionnalités d’analyse, Tableau offre des possibilités très utilisées par La Poste. C’est notamment le cas de :

  • La gestion des abonnements : pouvoir demander qu’un dashboard nous soit envoyé à une fréquence définie (c’est le métier qui gère cela).
  • La gestion des favoris : on positionne des tableaux de bord en tant que favoris pour ne tomber que sur eux lors de la connexion.

Les bénéfices de cette mise en place :

Aujourd’hui, la mise en place de Tableau est perçue comme un véritable atout pour de nombreuses raisons. Ainsi :

  • Le DSI se concentre sur le management stratégique des données et l’accompagnement.
  • Les analystes créent simplement et rapidement des rapports à valeur ajoutée et ont la possibilité d’y apporter des évolutions de manière plus fluide et agile.
  • Le partage des indicateurs peut se faire avec une population conséquente et à tous les niveaux de la société (avec une politique de sécurité simple à mettre en œuvre).
  • Les utilisateurs métiers sont de plus en plus autonomes (et indépendant de la DSI) pour obtenir les données qu’ils ont besoin de suivre.
  • Les restitutions sont plus « visuelles » et permettent des analyses plus rapides et donc une meilleure réactivité en termes d’actions.
  • La qualité du décisionnel dans son ensemble est améliorée grâce à l’unicité des indicateurs en termes de définitions (car un seul système).

Globalement, le projet a été très bien perçu et vu comme une réussite.

jeu de clés

 Faire adopter le système, la clé de la réussite

 Quatre conseils pour l’adoption :

 

  • Conseil numéro 1 : Commencer petit : voir si l’outil et la gouvernance qui va avec répond vraiment au besoin pour ensuite valider la solution.
  • Conseil numéro 2 : Partir d’un noyau restreint pour avoir des utilisateurs qui maîtrisent bien l’outil et le déployer plus sereinement. Ici, le siège, puis l’ensemble des sites.
  • Conseil numéro 3 : S’appuyer sur les services d’experts externes pour vous aider dans la création des premiers rapports : un regard neuf est toujours intéressant surtout quand il faut changer les habitudes.
  • Conseil numéro 4 : Accompagner les utilisateurs à travers:
    • Des formations en interne ou en externe
    • L’instauration d’un cycle vertueux de :
      • Remontée des remarques pour optimiser et adapter les rapports aux besoins
      • Partage d’astuces et de bonnes pratiques
      • Veille sur les forums et les nouveautés de Tableau

 

Et le futur, on en parle ?

De beaux jours devant Tableau au sein de la Poste…

L’utilisation de Tableau va continuer à se développer dans les mois et années à venir au sein de La Poste avec notamment :

  • L’ajout de nouvelles sources de données pour enrichir les analyses (cartographie…)
  • L’augmentation du nombre d’analystes utilisant la version Desktop ( = conception de tableaux de bord)
  • L’extension de l’utilisation de Tableau à de nouveaux services métiers qui s’effectue de manière progressive
  • L’extension à de nouveaux terminaux d’utilisation (ex : Ipad)

 

II- Retour d’expérience : Questions / réponses

A la fin de la conférence, un jeu de questions / réponses a eu lieu pour compléter ce retour d’expérience. En voici un extrait…

Peut-on associer des définitions à nos champs calculés pour permettre aux utilisateurs d’avoir une lecture correcte du KPI ?

  • Oui

Quelles licences faut-il pour concevoir et lire des rapports ?

  • Conception + lecture
    • Tableau desktop
    • Tableau server
  • Uniquement lecture avec des données rafraîchies
    • Tableau server
  • Lecture avec données non rafraîchies
    • Tableau reader

Quelle typologie d’abonnement en termes de licences ?

  • A La Poste, il y a des milliers d’utilisateurs. Dans ce genre de cas, il est préférable de passer par un serveur sur lequel on paie un nombre de cœurs (et non plus des licences). Cela permet d’avoir autant d’utilisateurs que d’espace disponible.

Quels étaient les anciens outils ?

  • Siebel answer
  • BO V5

Y-a-t-il eu des contraintes en termes de volumes de données 

La Poste a géré plus de 15 millions de lignes en mode « In memory ». Tableau compile et indexe en une ou deux minutes. Il n’y a pas de ralentissement particulier.

Comment est géré le passage d’une version à une autre ?

Il y a une compatibilité ascendante entre les versions. Cela signifie que les dashboards des anciennes versions sont toujours compatibles avec la nouvelle version. C’est donc transparent pour le client.

Comment est gérée la sécurité sur les reporting ?

Il est possible d’appliquer un filtre utilisateur soit par rôle (groupe d’utilisateurs), soit par géographie (groupe également). Chez La Poste, la sécurité est gérée par rôle.

Le périmètre géographique est quant à lui ouvert (Les salariés du Nord peuvent voir les résultats de ceux du Sud…)

Cette dernière question vient clôturer ce retour d’expérience. J’espère qu’il aura pu vous être utile. N’hésitez pas à laisser des commentaires pour indiquer les points qu’il vous aurait semblé intéressant de traiter !

Tagué , , , ,

Le Magic Quadrant 2016 de Gartner nous offre sa vision de la Self BI en 2018

Cette semaine, Gartner vient de nous livrer son nouveau rapport Magic Quadrant de 2016 concernant les outils de Business Intelligence et Plateformes Analytiques (voir ici pour découvrir le Magic Quadrant 2016).

Gartner nous propose donc de se projeter d’ici 2018, date à laquelle nous « arriverions » donc à un tournant majeur, celui d’une maturité des outils de self-service business intelligence (ou « Agile BI », « Self-BI » ou encore « Smart-BI ») permettant à un utilisateur métier de concevoir lui-même ses propres tableaux de bord interactifs.

En effet, l’ensemble du processus décisionnel évolue et se simplifie grâce à des nouvelles technologies et solutions innovantes visant à simplifier le traitement, l’analyse et la restitution des données. Nous pensons entre autres à Alteryx, permettant d’effectuer le l’extraction, le chargement et la transformation des données, mais également d’implémenter des traitements de prévision des données.

Notre grande surprise est la position de Microsoft, venant se positionner comme leader aux côté des célèbres Tableau Software et Qlik (notez que Gartner à analysé l’outil Power BI de Microsoft, couplé à sa plateforme cloud « Azure » et non le stack SQL Server BI traditionnel).

Pour plus d’informations, nous vous laissons découvrir plus en détail le rapport de Gartner.

 

Tagué , , , , , , ,

Veille Business Intelligence juillet-août 2015

Data Vizualisation

Tabeau soft

Tableau software s’apprête à sortir la V9.1

L’outil d’analyse en self service va déployer une version très orientée « mobilité ». Ainsi, il sera désormais possible de réaliser des « impressions d’écran » de rapports ou tableaux de bord sur mobile ou tablette afin de pouvoir les visualiser hors connexion. En dehors de la mobilité, de nouveaux connecteurs vont être ajoutés (Google Cloud SQL, Amazon Aurora, Microsoft Azure SQL Data Warehouse, Spark for HDInsight, Birst, Smartsheet), de même qu’un connecteur permettant de récupérer les données du web(Facebook, Twitter, Google sheet). Enfin, une procédure de connexion unique SSO avec SAP a été développée.

La sortie de cette version est prévue pour fin octobre.

Source : Decideo

 

Power BI V2

Microsoft met en production sa nouvelle version de Power BI

Fin de la version en preview, les entreprises peuvent depuis le 24 juillet utiliser la nouvelle version de Power BI dont nous vous avons déjà parlé précédemment. La principale évolution vient de la mise en place d’une application Desktop qui centralise les fonctionnalités de Power Query, Power Pivot et Power View. Collecter des données, les transformer, modéliser et réaliser des tableaux de bord se fera désormais sur une interface dédiée à la BI beaucoup plus intuitive que sur l’ancienne version où différents modules étaient intégrés dans Excel.

Cette nouvelle version ne contient pas encore toutes les fonctionnalités présentes sur la version 1 (Excel). Je pense notamment à la gestion des KPIS ou bien même à la géolocalisation en 3D (Power Map) mais nous pouvons imaginer que cela viendra. En attendant il est toujours possible d’utiliser les deux versions en parallèle en fonction des besoins car, qu’un tableau de bord soit produit à partir de l’application ou bien à partir d’un fichier Excel, les deux types de fichiers produits pourront être intégrés dans le cloud.

Concernant la partie cloud, son interface a complètement évolué mais, sur le principe, les fonctionnalités restent les mêmes.

Enfin concernant le prix, il est de 10 dollars par mois par utilisateurs

Partie Analyse (via l’application):

Power BI V2 - Analyse - Application

Partie Partage (via le cloud):

Power BI V2 - Cloud

Source : Lemondeinformatique + complément personnel

 

Cloud

Cloud fun

Les Etats-Unis font confiance au cloud, pourquoi pas nous ? 

Une récente étude du cabinet de conseil et de benchmark « Ventana Research » a permis de mettre en lumière la propension des sociétés américaines à utiliser de plus en plus de solutions décisionnelles dans le cloud.

adoption du décisionnel cloud

Le cloud est majoritairement utilisé pour suivre les données prédictives (51%), les données clients (47%) et les données de vente (33%). Il vient également s’intégrer dans une volonté forte de partage de l’information et répond aussi à un besoin de mobilité pour près de 80% des entreprises interrogées. Pour le cabinet, le niveau d’utilisation du cloud n’est pas encore à son meilleur niveau. Seule une entreprise sur sept atteint le niveau maximum d’utilisation du cloud représenté, selon Ventana, par l’innovation. Une analyse plus poussée  montre que la technologie et les processus sont bien gérés mais qu’il y a encore des progrès à faire sur la gestion de l’information et l’adoption par les ressources humaines. Cela peut s’expliquer par certains freins au déploiement par les employés qui, malgré la volonté d’avancer des dirigeants, ont des craintes sur la sécurité des données et le manque de compétences dans l’analytique en mode cloud.

Cloud privé, hybride ou public ?

Le frein sur la sécurité des données est contourné par l’adoption d’un cloud privé à 66% tandis que 38 % des entreprises utilisent un cloud public et 30 % un cloud hybride (certaines entreprises utilisent plusieurs modes). Les cloud privés et hybrides sont majoritairement utilisés dans les domaines de la finance, de l’assurance, de l’immobilier et au niveau du gouvernement où l’aspect privé des données est une véritable préoccupation. Pour 70% des utilisateurs, le cloud privé facilite le partage d’information et permet d’améliorer la communication . Il en va de même pour 72% des utilisateurs de cloud hybride et 56 % pour le cloud public. En outre, les entreprises  qui adoptent le cloud privé ou hybride ont, par la suite, une politique d’intégration et de traitement de données beaucoup plus forte que celles qui adoptent le cloud public.

En résumé, les dirigeants américains adoptent de plus en plus les solutions décisionnelles en mode cloud et privilégient les systèmes privés ou hybrides pour verrouiller au maximum la dimension « sécurité ». A quand une tendance similaire en France ?

Source : smartdatacollective.com

 

Réflexion

consommation data

Maîtriser sa consommation d’analytique, c’est bon pour la santé de son entreprise ! 

Joanna Schloss désigné 5ième femme la plus influente dans le secteur de la BI et  membre du centre d’excellence Dell s’est intéressée à l’excès d’analyse dans les entreprises. Pour elle, l’analyse de la donnée a pour objectif de base d’apporter des éléments  extrêmement fins qu’il est impossible d’avoir autrement et qui vont permettre de prendre des décisions  plus pertinentes. L’analyse répond à deux principaux besoins : maîtriser les coûts en rationalisant les processus et innover. Malheureusement le contexte actuel, pousse les entreprises à privilégier la réponse au premier besoin au détriment du second. Comment s’en apercevoir au sein de son entreprise ? De nombreux projets innovants sont bloqués par les analystes, les modalités de financement sont décidés par des analystes financiers et non les dirigeants ou bien encore lorsque les analystes sont plus nombreux que les éléments créatifs, stratèges…

Cette stratégie entraîne souvent une limitation de la prise de risque alors que l’analyse des données devrait au contraire servir de point d’appui à des projets rentables sur le moyen-long terme dont les risques existent mais sont calculés. Un équilibre doit donc être trouvé entre l’optimisation vitale à l’heure actuelle et l’innovation si nécessaire au futur de l’entreprise.

Pour cela, Joanna propose notamment d’identifier et de former trois équipes/groupes de personnes:

  • Les  analystes qui se focalisent sur les gains d’efficacité à court terme qui vont travailler sur la rationalisation des coûts et l’optimisation des processus opérationnels
  • Les analystes spécialisés dans l’innovation immédiate qui doivent s’appuyer sur les données pour identifier les tendances et mettre en place des actions / projets dont les bénéfices se feront sur les 3 ou 5 ans à venir.
  • Les analystes qui ont pour mission d’analyser les données et détecter des potentiels d’innovation à très long terme (10 ou 20 ans) sans se préoccuper des investissements et du ROI.

Source : decideo et CMS Wire.com

 

Agenda

 

Calendrier

Je réaliserai un debrief des conférences auxquelles j’aurai assisté 😉

 

Tagué , , , , , , , , , , , , , , , , , , , , , ,

Business Intelligence Next gen

La synergie des nouveaux outils de Business Intelligence

Découvrez comment les outils de business intelligence nouvelle génération répondent aux nouveaux enjeux des architectures dirigées par les données.

Une vision d’ensemble plus rapide :

Nous pouvons disposer des données dont nous avons besoin beaucoup plus rapidement.
Les projets qui prenaient auparavant 2 à 3 semaines sont désormais accessibles en une journée.

Prise de décision orientée donnée :

Les acteurs du métier ont la possibilité d’accéder à leurs données de façon simple et ergonomique leur permettant de résoudre plus rapidement leurs problèmes.
Les utilisateurs peuvent visualiser les données, faire des découvertes et ainsi trouver des réponses.

Complexité

Les outils évoluent proportionnellement au niveau d’exigence des utilisateurs, ce qui peut devenir un frein dans la productivité finalement obtenue. Il est nécessaire de définir des périmètres fonctionnels réalisables, et d’en définir les limites. Dans ce sens, il est possible d’exploiter la pleine puissance de ces nouveaux outils.

proactive vision business intelligence

L’architecture BI next gen – La Data Virtualization

La Data Integration se simplifie et s’automatise peu à peu grâce à la Data Virtualization.

De nouvelles solutions telles que Data Virtuality permettent de s’affranchir des architectures complexes et coûteuses en temps et en argent en proposant d’agréger de multiples sources externes par virtualisation des données.

Les outils de Data Virtualization utilisent des algorithmes qui s’adaptent aux caractéristiques des données présentes dans les sources de données choisies fournissant une homogénéité de la structure des données finales. Les outils MDM et ETL se simplifient donc enfin grâce à ce type de procédés, permettant non seulement de centraliser plusieurs sources de données, mais également de s’affranchir de nombreuses complexités techniques concernant le traitement des données.

Data Warehouse Next Gen

Data Warehouse Next Gen

Une synergie créatrice de valeur pour votre structure

Amazon Redshift met à portée de tous un stockage Data Warehouse as a Service, alliant rapidité et robustesse. Il est aujourd’hui possible de s’affranchir des contraintes techniques complexes pour disposer d’un entrepôt de stockage de données.

Pour ceux qui se le demandent, voici le pricing de Amazon Redshift :

Data Warehouse Redshift Amazon Pricing

Data Warehouse Redshift Amazon Pricing

Les données stockées dans votre Data Warehouse as a Service tel que Redshift peuvent par la suite être exploitée à travers des outils de Data Cleansing et Data Blending permettant de nettoyer ses données selon des règles métiers précises par des traitements Workflow tel que le propose Alteryx, leader dans les solutions de Data Blending.

Le but étant de disposer d’un outil de restitution simple, de nombreux outils répondent à des besoins nouveaux tels que les plateformes hébergées d’analyse en ligne aussi connue sous le nom de « Self service Business Intelligence » ou « Agile BI », «  Bi Light ». Tableau Software est le leader dans ce domaine dispose d’une complémentarité avec ses partenaires Amazon, Alertyx, Data Virtuality et depuis peu BIRST BI.

next-gen-bi-synergy

Alteryx and Tableau Software – Data blending Architecture

Cette synergie entre les outils nouvelle génération autour de la gestion des données offre aux entreprises des outils aux métriques adaptées, par des prix compétitifs et une durée d’implémentation considérablement réduite, permettant aux entreprises d’être réactives, flexibles, et compétitives dans un environnement concurrentiel de plus en plus réactif et complexe.

Tagué , , , , , , , , , ,

BIRST et Tableau Software signent un partenariat technologique

BIRST et Tableau software

BIRST, connu comme un des grands challengers dans les outils de BI Light (Cloud BI), vient de signer un partenariat technologique avec Tableau Software aussi connu comme le leader de ce type de solutions. À travers ce partenariat, un connecteur BIRST a été implémenté pour permettre aux entreprises utilisant actuellement BIRST de restituer l’ensemble de leurs connexions de données au sein de Tableau Software. Quelques jours après la présentation de sa nouvelle version Tableau Software 9.0, l’éditeur compte bien préserver sa position de leader dans son domaine. Pour plus d’informations, un webinaire exclusif est organisé ce mardi 21 avril 2015.

 Cliquez ici pour vous inscrire au webinaire

Tableau Software + Birst

Tableau Software + Birst

Tagué , , , , , ,

Veille Business Intelligence mars 2015

Les entreprises se mettent au Big Data

Big data, où en sont les entreprises ?

Capgemini et EMC ont souhaité faire un état des lieux du Big Data dans lesBig data drôle entreprises. Pour cela, elles ont réalisé une enquête quantitative ainsi que des entretiens qualitatifs auprès de 1000 entreprises réparties dans plus de 10 pays du monde entier et dans 9 domaines d’activités différents. Nous avons parcouru et analysé celle-ci et nous vous proposons d’en découvrir les principaux éléments à retenir via du reporting…

Perception Big data

La perception du big data par les entreprises

Deploiement Big data

Le déploiement des technologies big data

Source : Site Capgemini 

La presse et les outils de visualisation (alias DataViz)

La DataViz avec Tableau Software

Comme nous vous l’avions annoncé en début d’année, la

Tableau public

Tableau Software

presse cherche à rendre plus attractifs ses articles et, pour cela, elle a décidé d’introduire des graphiques, des diagrammes, en somme, du visuel. Elle a décidé de faire parler les données avec des moyens graphiques plutôt qu’avec de longs discours écrits parfois complexes à décrypter et qui peuvent nous noyer dans une masse de données. Cet article nous donne deux exemples d’utilisation, via l’outil de visualisation ouvert à tous « Tableau public » : l’un pour identifier et analyser les différentes vagues d’attentats en Irak ces dernières années et l’autre pour faire un focus, d’un point de vue chiffré (nombre de tornades et nombre de morts), sur les tornades dans les différentes régions des États-Unis. Un coup d’œil sur deux visuels permet d’avoir un aperçu de la situation là où du texte aurait sans doute perdu le lecteur… Qu’on se le dise, vous n’avez pas fini de voir des graphiques dans les articles… !

Source : Site Decideo

Proposez de nouveaux connecteurs de données natifs à BIME Analytics (Zendesk)

Comme vous le savez, dans le cadre de sa solution business

BIME

Zendesk BIME Analytics

intelligence orientée self-service, BIME souhaite vous faciliter l’accès à vos données. Ils ont décidé  pour cela de mettre un connecteur natif en place par semaine. Mais ce n’est pas tout… Ils vous incitent, pour répondre au mieux à vos problématiques, à leur faire des propositions de connecteurs, alors n’hésitez pas à leur transmettre vos souhaits!

Source : site Linkedin 

 

QlikView optimise la production de rapports en masse !

Avec le rachat de Vizubi, Qlik s’est offert par la même occasion le

QlikView

Qlik

leader des solutions de production et diffusion de reporting en masse, en l’occurrence Nprinting. Cet achat de QlikView / QlikSense va offrir à ses utilisateurs de nouvelles fonctionnalités de diffusion et d’interaction. Il va également permettre aux entreprises de disposer d’une solution intégrée et de limiter le nombre d’outils et de plateformes au sein de leur SI.

Source : Site Qlik

Accor Hotel : CRM et Big Data

 

L’optimisation de la connaissance client chez Accor

Le groupe Accor, leader mondial de l’hôtellerie, a travaillé sur un programme destiné à fidéliser les clients et en convertir de nouveaux en

Accor logo

Groupe Accord

communiquant de manière plus personnalisée. Concrètement, cela s’est traduit par la mise en place d’une plateforme informatique interne dédiée à business intelligence avec un CRM, une gestion des e-mails marketing, les systèmes d’informations des hôtels et bien d’autres éléments qui viennent se greffer à un suivi client reposant sur le parcours web, les réservations, la carte de fidélité, etc. Avec cette vision centrée sur le client, il est beaucoup plus simple de travailler sur du marketing personnalisé. La mise en place de ce programme a commencé à porter ses fruits puisque, entre 2014 et 2015, les bénéfices (+77%) et le chiffre d’affaires (+3.8%) sont en nette hausse.Dans un futur proche, ces axes d’analyses seront complétés par l’analyse des réseaux sociaux, ce qui devrait impliquer le passage au Big Data.

Source : Site Silicon

Tagué , , , , , , , , , , , , , , ,

Petit déjeuner Self-service BI à Montpellier

La Self-service Business Intelligence  : Le décisionnel à la portée de tous. Les outils d’aide à la décision sont en plein changement !

Slideshare : http://fr.slideshare.net/BaillyAdrien/business-intelligence-light-self-bi-smartview

Des solutions de type SaaS (Software As A Service) font leur apparition depuis quelques années ; découvrez les solutions de Business Intelligence « Light » QlikView, Power BI et BIME et comment elles peuvent répondre plus simplement et rapidement aux besoins des métiers.

À travers cette présentation, dans une première partie, Adrien BAILLY et Jérémie AURAND vous présentent :
— Une présentation du marché actuel de la BI Light
— Les problématiques concernées
— L’intérêt d’investir dans une solution de ce type
— Les prérequis à la réalisation d’un tel projet
— Le recueil du besoin
— La qualité des données
— La gouvernance des données

Dans un second temps, Adrien BAILLY et Jérémie AURAND ont réalisé pour vous :
— Une comparaison des produits Power BI, BIME et QlikView
— Une démonstration des produits BIME et Power BI

Niveau : Découverte et perfectionnement

Public concerné : Directeurs d’entreprise, Acteurs des Métiers, Utilisateurs référents et acteurs de la DSI

Intervenants : Adrien Bailly et Jérémie Aurand, consultants Business Intelligence SmartView

Tagué , , , , , , , , , ,

Veille Business Intelligence février 2015

Data Visualization, Data Discovery, Data Story Telling

 Tableau Software en pleine croissance !Tabeau soft

L’éditeur est de plus en plus présent sur le marché de la BI. A partir d’un article sur sa croissance, j’ai décidé de vous proposer quelques chiffres afin de mieux percevoir leur progression.

 

Données de vente 3

Vente de licences Tableau Software

 

Nombre de clients 2

Nombre de clients Tableau Software

Effectif 2

Nombre d’employés Tableau Software (Effectif)

Investissement en recherche 2

Montant de l’investissement en recherche de Tableau Software

Légende : les flèches vertes indiquent une croissance par rapport à la période indiquée (en taux ou en valeur)

Source : blog Tableau Software

Un connecteur de données de plus par semaine

Comme vous le savez, l’une des forces de BIME est le nombre

BIME

Zendesk BIME Analytics

de connecteurs dont il dispose. Cela permet aux utilisateurs de pouvoir récupérer des données à partir de nombreuses sources sans expertise technique. Et bien sachez que ce nombre va désormais continuer à croître puisque BIME a annoncé ce mois-ci vouloir intégrer un connecteur par semaine dans sa solution, le premier étant MongoDB, un système de gestion de base de données.

Pour rappel, voici les connecteurs déjà présents dans l’outil:

Source : Site Zendesk BIME ANalytics

Une appli dédiée au recrutement des grandes sociétés informatiques

Vadim Vichniakov, ex consultant Microsoft, a mis en place une application permettant de suivre le marché du travail dans les grandes sociétés informatiques. Elle permet en particulier de suivre le nombre d’offres publiées par région dans le temps  et d’en dégager des saisonnalités. La solution BIME Anlytics a été retenue car elle offre un accès à partir d’une simple connexion internet et qu’elle permet une excellente expérience utilisateur. A l’avenir, l’application devrait être enrichie de nouvelles données, d’analyses prédictives mais également d’une segmentation par secteur d’activité.

exemple appli recrutement informatique

Source : Blog BIME Analytics

Entreprises

AirBnB revoit son plan d’actions à partir de ses données

Le spécialiste de l’hébergement entre particulier AirBnB s’est plongé airbnbdans ses données pour identifier des axes d’améliorations. Le responsable de la donnée a voulu connaître les éléments déterminants dans le choix d’un appartement. Les différentes analyses menées ont permis de mettre en avant la valeur des photos dans le choix final. La direction a alors décidé de proposer des photographes professionnels aux particuliers pour refaire des photos. Les résultats ont été au rendez-vous puisque cette évolution a conduit à une augmentation des réservations et une fidélité accrue. Ce changement bénéfique a permis de consolider le crédit accordé à la donnée et de nouvelles décisions fondées sur celles-ci devraient voir le jour.

Source: Site Le monde informatique

Les acteurs de la Business Intelligence

Le rôle du Chief Data Officer

Un nouvChief data officereau rôle de Chief Data Officer (CDO) commence à apparaître dans les entreprises. Cela fait suite à un recentrage de la donnée au coeur des décisions stratégiques. Cela se traduit dans les faits par l’intégration de ce nouveau responsable dans les comités de direction. Il a fait son apparition dans le domaine bancaire pour répondre aux enjeux de gestion des risques puis dans le secteur de la distribution où tout va de plus en plus vite et où l’analyse du comportement client est capitale (analyse par l’intonation de la voix…). Au-delà de la profonde et transverse connaissance des données de l’entreprise qu’il doit avoir, le CDO doit optimiser l’utilisation des données possédées et mettre en avant la valeur de celles-ci. Il doit également identifier les nouvelles opportunités et suivre de près les technologies.

Source : Site Decideo

Tagué , , , , ,