Je parle de Data Explorer depuis quelques articles mais sans rentrer dans le dur : une démo.
L’objectif de cet article est de vous proposer un tutorial pour démarrer, un one-o-one comme dit dans le jargon.
Avant de commencer
Il vous faut un accès à Data Explorer. La beta est publique mais il faut quand même une invitation. Ca se passe ici : https://dataexplorer-signup.sqlazurelabs.com/
Vous pouvez aussi commencer avec la version on-premices : télécharger Data Explorer
En premier lieu, choisir la source
C’est simple, il suffit de piocher dans les types de sources disponibles. On retrouve les classiques (fichiers, SQL, web, etc.). Je détaillerai dans d’autres articles les sources un peu exotiques. Là on va faire simple, on va prendre un CSV.
On choisit donc notre source en cliquant sur Import File.
Un peu de vocabulaire et de bases :
- en haut à gauche, c’est le mashup, l’équivalent d’un package en ETL (retenez le, c’est là que vous faites Ctrl+S)
- dans la colonne de gauche, ce sont les ressources. On peut les comparer à des flux (Data Flow Task pour les SSIS-guys) mais c’est plus “compliqué” que cela, j’y reviendrai dans d’autres articles
l’icone en forme d’oeil à côté indique si la ressource (ie. le flux) est visible, c’est à dire s’il sera publié, ou s’il est purement interne - Tâches de la ressource : c’est un fil d’Ariane qui montre l’enchainement des tâches à appliquer sur le flux de données (comme des composants de DFT)
- Tools : c’est votre Toolbox où vous choisissez les tâches à ajouter dans la ressource
- Formule : toute tâche peut s’écrire avec une formule à la Excel. Vous noterez ici que lire un fichier se fait avec la méthode Embedded.Content().
- Configuration de la tâche : si vous ne connaissez pas la syntaxe des tâches, vous pouvez utiliser le panneau de configuration de la tâche
Ajouter des transformations
Nous avons notre source CSV dans la ressource qui s’appelle Musees (c’est la liste des musées de France). Appliquons maintenant des transformations pour exploiter cette source. Dans l’ordre, nous allons :
- typer la source en CSV
- déclarer la première ligne comme entête des colonnes
- filtrer des lignes
- supprimer des colonnes
Typage de la source
Il suffit juste de cliquer sur la tâche CSV dans la toolbox.
Déclaration des entêtes
On promeut la première ligne comme entête de colonnes
Filtrer les lignes
On ne veut que les musés ouverts (donc colonne ferme=NON).
On verra dans d’autres articles la notion de type; ici on considère le champ comme du texte (Text.Type) donc attention à la casse. Pour sécuriser, on aurait pu utiliser la fonction Text.Upper()
Supprimer des colonnes
La colonne “ferme” ne nous sert plus à rien donc on va la supprimer (masquer) du flux.
Vous devez avoir un flux qui ressemble à cela :
Note : vous pouvez renommer les tâches pour donner un peu plus de sens (documentez !)
Publication
Il nous reste à publier le flux pour une exploitation (PowerPivot, SSRS, etc.).
La première chose est de sauvegarder (en haut à gauche) et de revenir sur votre workspace (en haut à droite).
Clic-droit –> Publish, simple non ? Vous avez aussi un bouton Publish en bas et les options de publication.
Une fois publié, vous avez accès à une page contenant tous les liens d’accès aux données (OData, Excel, CSV, etc.).
Et voila.
Bon mashup !
Excellent! Merci Djeepy, j’essaye ça rapidos 🙂
Nickel, une belle intro pour ce service qui promet.
Très bon post,j’avais déjà pris un peu le temps de jouer avec, et je continue de m’interroger sur le positionnement de cet outil? pour qui ? pourquoi ? ne va t’on pas un peu loin dans les outils end users ? Il me semble qu’un utilisateur métier a d’autres priorités que de faire du mini ETL .. m’enfin .. je ne sais pas trop . quel est ton avis sur le sujet ?