Des Frenchies aux conférences internationales

La communauté française SQL Server est très active, soyons en fiers. Ce sont plus de 80 speakers qui vous offrent des sessions sur SQL Server tout au long de l’année lors des différents événements proposés (TechDays, SQLSaturday, Webcasts, Journées SQL Server, ITCamps, etc.).

Je suis ravi d’en faire partie mais je suis toujours un peu frustré de ne pas voir ces talents mieux représentés à l’international, même en tant que simples participants (TechEd, PASS Summit, PASS BAC, SQLSaturday européens, SQLBits,etc.). Nos homologues européens et américains ont moins d’appréhension et c’est un plaisir de les retrouver régulièrement lors de ces conférences, principalement car ils nous proposent du contenu intéressant mais partager ensemble est très enrichissant.

image

Alors, pour essayer de changer la donne, je me suis dit : et pourquoi ne pas me lancer et proposer des sessions ? C’est donc avec mes acolytes Florian (Blog/Twitter) et David (Blog/Twitter) que nous nous sommes lancés  dans l’aventure.

Nous avons soumis des sessions pour le prochain SQLBits (Angleterre) et le prochain SQLSaturday Rheinland (Allemagne).

 

SQLSaturday Rheinland – 28 juin 2014

http://sqlsaturday.com/313

SQLBits XII – 17 au 19 juillet 2014

https://www.sqlbits.com

Submit a session for SQLBitsimage

Les sessions proposées :

http://sqlsaturday.com/313/schedule.aspx?sat=313

https://www.sqlbits.com/information/PublicSessions.aspx

Power Query vs. SSIS, which one is the most Powerful ?

Is Power Query as powerful as SSIS ? That session will show all the capabilities of Power Query to manipulate data and compare it to SSIS.
Warning M-code inside. 100% demos

Level 400

 

Hybrid architecture with Power BI

That session will focus on the hybrid facet of Power BI. Power BI have one foot on-prem and another one in the cloud and Data Management Gateway is not the only link between each side.
That session will dive into the subject and answer many questions. Where are your data stored ? Where are you queries executed ?

Keywords : Power Query, Data Management Gateway, Data Catalogue, Power BI Admin Center, Network

Level 300

 

Fasten Seat Belt and look at the Data Steward

In that session we will discuss about Data Governance, mainly around that fantastic platform Power BI (but also around on-prem concerns). How to avoid dataset-hell ? What are the best practices for sharing queries ? Who is the famous Data Steward and what is its role in a department or in the whole company ? How do you choose the right person ?

Keywords : Power Query, Data Management Gateway, Power BI Admin Center, Datastewardship, SharePoint 2013, eDiscovery

Level 200

 

Survival Guide to Power BI Q&A for French people

Power BI Q&A is, at the moment, english-speaking oriented. How do you tame it when you are French and are not fluent ? That session will dig into language grammar of Power BI Q&A and help people (not only French ) to create Q&A-ready semantic models.

Keywords : Power Pivot, Power BI Q&A, Semantic Model, Datastewardship

Level 200

 

Florian a également proposé une session autour de la BI Agile avec SCRUM (Agile Datawarehousing: tips and tricks to deliver your BI solution using Agile methodolgy like SCRUM)

 

La bonne nouvelle c’est que la session Fasten Seat Belt and look at the Data Steward a été retenue pour le SQLBits. Nous attendons encore la sélection des sessions pour les SQLSat Rheinland.

 

Et vous ?

J’en profite pour vous rappeler les opportunités pour être speaker aux événements français.

Webcasts du GUSS

Ils ont lieu tout les mois (dernier mercredi du mois), le format est une session courte d’une demi-heure, sur un sujet précis. 30 minutes, c’est court mais ça permet de se lancer (ou de s’entrainer).

Pour postuler : contact@guss.pro

SQLSaturday Paris 2014

C’est la prochaine conférence organisée par le GUSS. Sur une tonalité internationale, c’est un événement focalisé sur la technique. Il aura lieu le 13 septembre prochain, sur le campus SUPINFO dans la Tour Montparnasse à Paris.

Pour postuler : http://sqlsaturday.com/323/callforspeakers.aspx – deadline le 1er juin !

Journées SQL Server

La 4ème édition des Journées SQL Server aura lieu en décembre prochain à Paris. Vous en saurez plus dans quelques semaines mais n’hésitez pas à vous manifester dès maintenant.

 

 

 

 

-

Nouveautés #PowerBI annoncées à la PASS Business Analytics Conference

imageEn ce moment a lieu la PASS Business Analytics Conference (#passbac pour les intimes) à San José en Californie. Cette conférence organisée par le PASS (que je ne présente plus) fait un focus particulier sur la Business Intelligence.

Cette conférence n’a pas l’ampleur du PASS Summit de novembre mais ce n’est encore que la deuxième édition. Et à la vue des annonces que Microsoft y a fait, ainsi que la qualité des keynotes (par les talentueux Kamal Hathi @kamalh et Amir Netz @amirnetz) et des sessions, il y a fort à parier qu’elle va prendre de l’importance dans le paysage Data dans les années à venir.
Allez, point de suspens, voyons tout de suite ces annonces qui ont floodé mon fil Twitter hier soir (merci la #SQLFamily internationale).

Note : je mettrai des screenshots dès que j’aurai un peu de temps pour jouer avec ces nouveautés. Mais je ferai également des articles dédiés à certaines d’entre elles

SSRS dans Power BI

C’est pour moi la plus grosse annonce ! Plébiscité de longue date par les utilisateurs et la communauté (avec les MVP SQL comme lobbyistes auprès de Microsoft), Reporting Services va bientôt être disponible sur Office 365 (via l’option Power BI). Cela fait sens car Power View n’est pas (encore?) un outil pour faire du reporting de masse et je ne connais pas un client qui n’ait pas besoin de faire un rapport “statique”, que ce soit dans un contexte BI ou pas.

Avec SSRS dans Power BI, le prix de l’option devient vraiment intéressant (et plus que compétitif). Les utilisateurs vont ainsi avoir à disposition un outil de reporting supplémentaire sur leurs modèles Power Pivot mais aussi (et c’est la seconde partie de l’annonce), sur leur données OnPrem puisque SSRS pourra utiliser les sources de la Data Management Gateway !

SSRS est mature et s’intègre très bien à SharePoint depuis 2012 (OnPrem) ; ça aurait été dommage de ne pas le rendre disponible aux utilisateurs. J’entends déjà mes confrères râler sur la “piètre” qualité “vieillissante” des composants visuels de SSRS mais cet outil a le mérite d’exister et d’être simple à appréhender par les utilisateurs/développeurs.

Note : Comme le dit Chris Webb, on espère qu’il y aura un support sur les applications mobiles (Windows 8, iOS et Android)

 

Power View sur SSAS dans Power BI

Dans un site Power BI, Power View ne peut se connecter que sur un modèle Power Pivot. D’ailleurs, le seul moyen de créer un tableau de bord Power View est de le créer dans Excel avant de l’uploader sur le site Power BI.

La nouveauté, c’est qu’il va être possible de créer des tableau de bord Power View sur un site Power BI en se connectant sur une source SSAS Tabulaire OnPrem. (note : aucune info sur le multidim)

 

Un éditeur en ligne de KPI

Hier a été présenté un éditeur de KPI, directement intégré dans un site Power BI permettant aux utilisateurs de créer simplement des KPI mais aussi de les consolider dans un tableaux de bord. Pour réaliser des portails décisionnels depuis longtemps, je trouve cette initiative excellente, en espérant que la performance d’affichage sera au rendez-vous.

Une des dernières fonctionnalités exclusives de PerformancePoint Services (les Scorecards) a trouvé son alternative.

image

 

Edition de Power View en ligne

Un éditeur en ligne de Power View (directement dans un site Power BI) a été présenté hier soir. Avec un mode Data Exploration, cet éditeur offre de nouvelles fonctionnalités comme la possibilité de sortir des points d’un graphe pour créer un autre graphe plus précis. C’est une façon de faire du drill-down et du changement d’axe en live dans un rapport Power View.

J’ai vraiment hâte de jouer avec cette fonctionnalité qui enrichit encore plus l’aspect interactif de Power View, notamment pour un usage en réunion.

 

Time Series Forecasting

On ne dit plus Data Mining mais Predictive Analytics. Predictive Analytics, c’est une tendance à la mode dans l’univers des Data; on dit même que c’est la clé de demain (wait & see). Dans le détail, Data Mining et Predictive Analytics ne sont pas la même chose. Dans le second, on se concentre sur la prédiction et principalement les algorithmes de Forecast.

Faire une projection dans le temps, c’est maintenant une fonctionnalité de Power View. Rien de plus simple : vous choisissez votre courbe ou une partie de votre courbe et vous étirer le graphe pour faire avancer l’axe des abscisses (souvent l’axe temps). Power View fait le reste et exécute l’algorithme de Forecasting pour vous. Vous n’avez plus qu’à ajuster les options (variables) de l’algo.

Et le plus fort, c’est que c’est disponible maintenant sur votre site Power BI en ligne

imageimage

image

Ressources et démos

 

Une Treemap dans Power View

Annonce claire, simple, efficace. Power View se voit doté d’un nouveau composant visuel : la Treemap !

Je ne vais pas polémiquer pour savoir si ce composant est bien ou pas, visuellement utile ou pas, etc. Tout ce que je peux dire c’est que c’est une demande de longue date des mes clients. Et ce que client veut… D’autant plus que, depuis que ce composant a disparu de Performance Point (dans sa version initiale : ProClarity), Microsoft n’avait aucune alternative et les clients devaient se rabattre sur des produits concurrents (comme SAPBI – ex-BO par exemple).

imageimage

 

Note : Avec l’éditeur de KPI, la Treemap et la décomposition de graphe dans Power View, on voit bien que l’ensemble des spécificités de Performance Point se retrouvent dans les différentes briques de Power BI. C’est certainement pourquoi beaucoup proclamaient hier sur Twitter “R.I.P Performance Point, PerfPoint est mort !”

 

Power BI Mobile App sur iOS

On en parle depuis un moment déjà, la date est maintenant officielle : l’application iOS pour consulter ses rapports Power BI sortira à la fin de cet été. Je ne vous en dirai pas plus, de toute façon, je n’ai pas d’iPad Tire la langue

 

Mais encore ?

Quelques jours avant la PASS Business Analytics Conference, il y avait déjà eu quelques annonces de nouveautés, dans le cadre de la mise à jour mensuelle de Power BI.

 

Support de Power Query pour le Data Refresh Power Pivot

Il est maintenant possible de rafraichir les données d’un modèle Power Pivot alimenté par une requête Power Query dans un site Power BI via la Data Management Gateway. Ca parait trivial mais ce n’était pas encore disponible.

Il y a encore quelques limitations, notamment le fait que toutes les sources Power Query ne sont pas encore supportées. On est limité entre autre par la Data Management Gateway qui ne supporte que SQL Server et Oracle à ce jour. Mais on voit bien que les équipes Power BI de Microsoft travaillent d’arrache-pied à enrichir tout cela mois après mois.

A noter aussi plein de nouveautés dans Power Query lui même mais je vous laisse voir cela dans les liens ci-dessous.

Ressources

 

Amélioration de la version HTML5 de Power View

Power View online (ie. dans un site Power BI) existait déjà en version HTML5 (au lieu du Silverlight originel) mais cette version ne supportait pas encore tous les composants visuels. Avec la récente mise à jour, les cartes sont maintenant supportées. Il y a également quelques améliorations plus mineures mais je vous laisse voir ça dans l’article officiel de l’équipe Power BI.

http://blogs.msdn.com/b/powerbi/archive/2014/05/07/new-in-power-view-in-html5-and-the-power-bi-app.aspx

 

PASS_BA14_788x165

Transform Data into Action, la keynote Data des patrons de Microsoft

image

Hier soir, il y avait un événement exceptionnel en ligne : une Keynote par Satya Nadella (CEO de Microsoft), Kevin Turner (COO de Microsoft) et Quentin Clark (Corporate Vice-President pour SQL Server) dont le sujet était les données… et par extension la plate-forme Data de Microsoft avec en son coeur SQL Server.

D’ailleurs, les titres et les accroches ne laissaient planer aucun doute sur le sujet : Transform Data into Action, Accelerate your insights

Je ne vais pas vous faire une retranscription complète de l’événement. Tout d’abord parce que je n’ai pas été attentif pendant toute la conférence (je vous passe de commentaires) mais surtout parce que les journalistes font cela mieux que moi :

Et puis, comme on peut s’en douter, la Com’ de Microsoft s’est activée en temps réel et les blogs officiels ont déjà posté leurs résumés.

Je vais donc vous faire une synthèse toute personnelle, en y mêlant mes avis et mes convictions.

Quelques annonces

Commençons avec le plus croustillant (comme dirait Closer ou Voici), à savoir les annonces.

Intelligent Systems Services

On parle souvent des “capteurs de données” (je dirais plutôt générateur de données personnellement).
On parle des données personnelles (position, fréquence cardiaque, poids, tension artérielle ou encore glycémie) ou des données d’environnement (météo, température, humidité, etc.).
On parle aussi de l’IoT, Internet-of-Things (ie. Internet des Objets), des objets communiquants, qui produisent ces données ou les consomment.
Tout cela est d’ailleurs souvent associé au Big Data, technologies adaptées à dompter cette masse de données générées.

Satya Nadella a annoncé hier la disponibilité en Preview de Microsoft Azure Intelligent Systems Services (ça fait MAISS Sourire) dans le Cloud :

En 2 mots, cette nouvelle technologie a pour but de gérer et collecter les données en provenance de multitudes de capteurs, dans un contexte d’entreprise principalement (…managing and capturing machine-generated data from industry devices, sensors…).

Je ne vous en dirais pas plus, il faut maintenant s’inscrire à la beta et essayer.

 

Analytics Platform System

Après avoir expliqué qu’avoir plein de données c’est bien mais qu’il faut des outils (des systèmes analytiques) pour en tirer quelque chose, Quentin Clark a annoncé la disponibilité de APS pour Analytics Platform System.

Présentée comme l’évolution de PDW, APS traite aussi le Big Data et se présente sous la forme d’une appliance (avec du matos HP, Dell ou Quanta selon la Product Sheet) toute prête pour gérer des tombereaux de données.

La bête : http://www.microsoft.com/en-us/server-cloud/products/analytics-platform-system/

Donc du PDW, du ColumnStore, du HDInsight, du Petabytes… Microsoft a sorti la grosse artillerie pour s’aligner avec les SAP HANA, Oracle Exalytics ou encore SAS HPA. On ne va pas s’en plaindre, surtout qu’en voyant ce qu’il y a dedans, on voit qu’on sait déjà travailler avec et que ça s’intègre très bien avec le reste de la plate-forme de données de Microsoft.

C’est donc du “packaging” des solutions data qui vient enrichir les appliances avec des technos Microsoft. A suivre car ça a l’air prometteur (et super crédible pour un DSI qui veut de la puissance de calcul et qui fait un benchmark des différents éditeurs).

Une philosophie

En dehors des annonces de produits et des démos, j’ai retenu la philosophie de Microsoft autour des données. Ca tombe bien car elle est totalement en phase avec la mienne (même si on n’a pas les mêmes mots ou les mêmes images).

J’ai retenu 3 expressions de la conférence d’hier. Je ferai court sur chacune mais je pense que je vais revenir dessus, quand j’aurai plus de temps, pour vous faire un édito (cet été par exemple).

Data Culture

imagePour tirer partie des données, pour en extraire la valeur ajoutée, les outils ne sont pas suffisants. Il est important d’éduquer les utilisateurs (par extension, tous les acteurs qui gravitent autour) afin que les données soient incluses dans leurs réflexions, dans leur quotidien. Ce doit être une démarche d’entreprise : la culture des données.

Cela passe par tous les acteurs de l’entreprise qui doivent comprendre et maitriser toutes les données disponibles. On est toujours dans le BI for Masses de Ballmer en 2006 chez Microsoft. Mais la phase 2 implique les gens et plus seulement les outils. La plate-forme est là, “Libérez les données, Libérez les usages !”.

Data Dividend

Même s’il y a eu une petite polémique hier soir sur Twitter avec mon ami Florian sur le sens à donner à “Dividend”, ce que j’ai retenu c’est : on peut valoriser ses données mais en les exploitant mieux/plus, on peut augmenter cette valeur (son rendement) de façon spectaculaire.

Satya Nadella estime à plusieurs centaines de milliards le revenu qui pourrait être généré de l’exploitation des données (insights). De mémoire, le chiffre annoncé était $1,76 trillion.

Selon Microsoft, l’équation est :

Data Dividend = [ Data + Analytics + People ] x Speed

image

Ambient Intelligence

imageL’intelligente ambiante… quelle drôle d’idée ? L’idée est de se dire que tout est BI, que chaque donnée contribue à la BI. Et même les données “ambiantes” qui justement, permettent de contextualiser les choses et apporter encore plus de valeur (insights).

Je pense que je vais réécouter la conférence, m’imprégner des transcripts et revenir sur cette notion qui m’intéresse mais que j’ai tout de même du mal à définir.

 

Pour conclure

Sur le fond, Microsoft mets au coeur de sa stratégie la donnée elle-même et fournit les outils pour la gérer. A tous les niveaux, des barbus qui construisent des DataWarehouse monstrueux, aux analystes qui font des camemberts dynamiques dans Power View en passant par les Data Scientists qui passent des algo de folie sur les données.

Une plate-forme intégrée pour transformer les données en valeur ajoutée, depuis le temps que je le dis… (mais n’oubliez pas la Gouvernance au dessus…)

image

Création de sorties asynchrones sur le composant script de SSIS

Cet article est un article invité du blog de Jean-Pierre.

Cet article va expliquer de manière détaillée comment générer un flux asynchrone à partir du composant Script de SSIS. C’est-à-dire générer une sortie déconnectée du flux d’entré.

Nous allons prendre un exemple trivial. En entré, nous avons un flux composé de 2 colonnes : NS et Reste. Ce flux provient d’un fichier avec un séparateur de colonne point-virgule. La colonne Reste contient 2 valeurs séparées par des virgules. Nous voulons obtenir 1 ligne en sortie pour chaque valeur de Reste et en conservant le même NS.

Fichier en entré :

NS;Reste
A;Hello,World
B;Salut,Monde

En sortie, nous souhaitons avoir 2 lignes par ligne d’entrée :

A Hello
A World
B Salut
B Monde

Il s’agit de « dépivoter » les données en entrée. Ce qui correspond à un UNPIVOT en SQL.

Mise en place de l’asynchronisme

Une fois le composant script branché sur une entrée, allez dans l’onglet Inputs and Outputs et passer la sortie en mode asynchrone (Propriété SynchronousInputID = None).

async_ssis1

Figure 1: Propriétés Inputs and Outputs du script

A la sortie MaSortie, ajoutez les deux colonnes du flux souhaitées en sortie. Pour des raisons de simplification, elles seront de type DT_STR et de taille 50. Cette étape se fait à la main et s’il y a beaucoup de colonnes, peut être fastidieuse.

async_ssis2

Figure 2: Ajout des colonnes de sortie

Il faut indiquer maintenant au script de traiter les lignes une par une. Cela est effectué en ajoutant dans le code, la méthode suivante :

public override void Input0_ProcessInput(Input0Buffer Buffer)
    {        
        //Tant qu'il y a des lignes à traiter
        while (Buffer.NextRow())
        {
            //Appel du traitement d'une ligne
            Input0_ProcessInputRow(Buffer);
        }

        //quand il n'y a plus de lignes
        if (Buffer.EndOfRowset())
        {
            //Fermeture du flux de sortie
            MaSortieBuffer.SetEndOfRowset();
        }
    }

Le nom de méthode est suffixé par le nom du flux d’entrée du composant. Dans notre exemple Input0. Pensez à le changer si besoin. Par défaut, le VSTA de SSIS 2008 ne donne pas le prototype de cette méthode, il faut l’écrire à la main.

Ce code renvoie chaque ligne (Row) lue du tampon (Buffer) d’entré vers une méthode de traitement.

Une fois le tampon d’entré entièrement lu, le tampon de sortie est fermé.

Le composant est prêt à être utilisé en mode asynchrone. Il ne reste qu’à écrire le traitement métier.

Traitement métier

Le code est très simple. Il s’agit de la méthode classique XXX_ProcessInputRow dont le prototype est présent dans le code (avec XXX le nom du flux d’entré). Dans notre exemple : Input0_ProcessInputRow.

Il suffit de maintenant de séparer les valeurs de la colonne Reste et en faire deux lignes de sortie (en utilisant le tampon MaSortieBuffer).

Le code de notre exemple est le suivant.

public override void Input0_ProcessInputRow(Input0Buffer Row)
    {
        //Traitement d'une ligne

        //Séparation de la valeur de la colonne Reste par la virgule
        var valeurs = Row.Reste.Split(',');

        //Pour chaque valeur, il faut créer une ligne dans le flux de sortie et l'associer au NS
        foreach (var valeur in valeurs)
        {
            MaSortieBuffer.AddRow();
            MaSortieBuffer.NS = Row.NS;
            MaSortieBuffer.MaValeur = valeur;
        }
    }

Notons que c’est à ce niveau que la méthode AddRow est employée sur le tampon de sortie pour créer une ligne par valeur séparée.

Pour des raisons de simplification, aucun contrôle (taille, …) n’est effectué.

Résultat

En exécutant notre Data Flow, nous obtenons la séparation désirée, chaque valeur séparée par une virgule donne lieu à une ligne de sortie. Dans notre exemple, cela donne pour une ligne d’entré, deux lignes en sortie.

async_ssis3

Figure 3: Résultat de l’exécution de notre script

Il ne reste qu’à poursuivre le traitement SSIS avec nos données « dépivotées ».

Le code complet du script se trouve ci-dessous en annexe.

A quoi ça sert ?

Bonne question !

Dans une mission, il m’est arrivé de recevoir une colonne contenant une règle mathématique sous forme d’une liste de code A + B +C = D (bon, les règles étaient un peu plus complexes, il y avait des moins). La demande client était d’effectuer des agrégations de valeurs suivant ces règles. La valeur de code D est obtenue par la somme des valeurs des codes A, B et C. Un développeur .NET s’est chargé de développer un parseur syntaxique, me permettant d’obtenir un tableau des codes à sommer.

L’utilisation du code ci-dessus a simplement permis de normaliser la règle en deux colonnes code_parent et code_a_sommer. Et ensuite … c’est du SQL à base de SUM et GROUP BY.

Annexe : code complet du script

/* Microsoft SQL Server Integration Services Script Component
* Write scripts using Microsoft Visual C# 2008.
* ScriptMain is the entry point class of the script.*/

using System;
using System.Data;
using Microsoft.SqlServer.Dts.Pipeline.Wrapper;
using Microsoft.SqlServer.Dts.Runtime.Wrapper;

[Microsoft.SqlServer.Dts.Pipeline.SSISScriptComponentEntryPointAttribute]
public class ScriptMain : UserComponent
{

public override void PreExecute()
{
base.PreExecute();
/*
Add your code here for preprocessing or remove if not needed
*/
}

public override void PostExecute()
{
base.PostExecute();
/*
Add your code here for postprocessing or remove if not needed
You can set read/write variables here, for example:
Variables.MyIntVar = 100
*/
}

/// <summary>
/// Code de traitement asynchrone de l'entrée
/// Code à ajouter
/// </summary>
/// <param name="Buffer"></param>
public override void Input0_ProcessInput(Input0Buffer Buffer)
{
//Tant qu'il y a des lignes à traiter
while (Buffer.NextRow())
{
//Appel du traitement d'une ligne
Input0_ProcessInputRow(Buffer);
}

//quand il n'y a plus de lignes
if (Buffer.EndOfRowset())
{
//Fermeture du flux de sortie
MaSortieBuffer.SetEndOfRowset();
}
}

public override void Input0_ProcessInputRow(Input0Buffer Row)
{
//Traitement d'une ligne

//Séparation de la valeur de la colonne Reste par la virgule
var valeurs = Row.Reste.Split(',');

//Pour chaque valeur, il faut créer une ligne dans le flux de sortie et l'associer au NS
foreach (var valeur in valeurs)
{
MaSortieBuffer.AddRow();
MaSortieBuffer.NS = Row.NS;
MaSortieBuffer.MaValeur = valeur;
}
}

public override void CreateNewOutputRows()
{
/*
Add rows by calling the AddRow method on the member variable named "<Output Name>Buffer".
For example, call MyOutputBuffer.AddRow() if your output was named "MyOutput".
*/
}

}

Merci à JP pour mettre à disposition cet article en le publiant sur son blog.

Formations Self-Service BI avec AZEO

Disclaimer : encore un peu de pub pour mon boulot autour de la Self-Service BI.
Cette fois-ci, je suis très fier de pouvoir vous proposer des formations, en partenariat avec, certes des confrères que je croise aux événements internationaux, mais surtout les meilleurs professionnels sur Power Pivot et le DAX.
Surtout qu’ils viennent juste de sortir un super site (en anglais) sur les patterns DAX

imageDans le cadre de son offre de Self-Service BI, AZEO vous propose un éventail de formations dédiées à l’apprentissage des outils de BI personnelle.

Module disponibles Durée
Création de modèles décisionnels avec Power Pivot 2j
Business Intelligence avancée avec Power Pivot 3j
Reporting opérationnel avec Report Builder 2j
Analyse et reporting avec Excel et Power View & Power Map 2j
Façonnage et nettoyage de données avec Power Query 2j

sqlbi-logo-bigPour les formations Power Pivot, AZEO a signé un partenariat avec SQLBI (Marco Russo & Alberto Ferrari) afin de dispenser les PowerPivot Workshops en France, Belgique et Suisse.

livre-powerpivot-big    image

Les 2 versions de ces cours seront disponibles prochainement en français (et dès aujourd’hui en anglais).

Basique Complète

Introduction à Power Pivot et aux modèles de données dans Excel

coche coche

Chargement des données en utilisant différentes sources de données

coche coche

Bases de modélisation de données avec Power Pivot

coche coche

Introduction au langage de calcul DAX

coche coche

Calculs temporels et bonnes pratiques de modélisation

coche coche

Intégration à SharePoint

coche coche

Création de rapports avec Power View

coche coche

Mise en forme de rapports

coche coche

Contexte d’évaluation des formules et instruction CALCULATE

coche

Utilisation de DAX comme langage de requête

coche

Techniques avancées en DAX

coche

Modèles de calcul avec DAX

coche

AZEO est organisme de formation agréé. Toutes nos formations sont éligibles au DIF.

Inscriptions et détails sur le site AZEO
La première session publique aura lieu
du 8 au 10 avril à Paris

image

Vous ne savez pas ce qu’est la Self-Service BI ?

Nous (ré)organisons un événement le 25 mars pour vous présenter le sujet et ma démarche pour l’aborder dans votre SI et votre stratégie Data.

Inscrivez vous à la Self-Service Business Intelligence le 25 Mars 2014(lien vers la 1er édition en décembre)

 

Ma candidature au Board du GUSS 2014

Il vous reste encore quelques jours pour voter pour le Board du GUSS.

Pourquoi c’est important ?

Voter pour les membres du Board, ce n’est pas juste comme l’élection des délégués de classe mais ce n’est pas non plus les présidentielles.
La communauté grandit, son organisation aussi. Il est important qu’elle prenne une direction qui vous corresponde. C’est pourquoi cet exercice démocratique est nécessaire.

Comment ça marche ?

C’est simple, nous sommes 10 candidats, il y a 9 places. Vous choisissez 1, 2, 9 personnes qui dirigeront l’association pour l’année à venir.

Votez !

Les candidats ?

Voici les 10 candidats : Candidats au Board

Evidemment, dans votre choix, votez pour moi ! Voici mon speech de candidature :

Pour ceux qui ne me connaissent pas, je suis MVP, consultant, manager, patron de pôle. Je travaille sur SQL Server depuis la version 7 et je me suis spécialisé dans la Self-Service BI.

Je suis l’actuel président du GUSS, que j’ai rejoint en 2011 en organisant les premières Journées SQL Server.

Pour moi le GUSS est un point de ralliement, un catalyseur, pour toute personne travaillant avec SQL Server et souhaitant apprendre, partager ou tout simplement échanger sur le produit.

Ma "vision" est que chaque personne qui dans son quotidien est proche de SQL Server sache qu’il peut passer par le GUSS pour avoir des infos, poser des questions, donner son avis, trouver un expert, donner de son temps, etc.

Evidemment, il faut stimuler cela et ce sont les actions du GUSS qui anime la communauté, lui donne du rythme, ce que j’ai contribué à mettre en œuvre ces 3 dernières années.

Le GUSS encourage, motive, promeut les acteurs de la communauté (DBA, développeurs, DSI, consultants, MVP, entreprise, etc.).

Le GUSS doit aussi avoir pour rôle d’élargir la communauté en ayant un rôle dans l’adoption de SQL Server notamment auprès des futurs informaticiens ou des utilisateurs d’autres produits.

Mes ambitions pour le GUSS

  • Continuer sur le rythme des événements
  • Etre véritable acteur dans l’écosystème Data en France, représentatif des entreprises,
  • Travailler sur la formation et l’emploi
  • Répondre aux interrogations et aux enjeux des entreprises sur les données avec des tables rondes ou des livres blancs
  • Promouvoir la communauté française à l’international et tisser des liens avec nos homologues étrangers.

J’ai notamment quelques marottes que j’essaye de mettre en place depuis 3 ans et j’espère bien poursuivre ces chantiers :

  • Collaborer avec les acteurs de l’écosystème SSII et éditeurs
  • Nouer des liens avec les DSI utilisant SQL Server
  • Participer à des conférences au-delà de SQL Server (Big Data, DataViz, etc.)
  • Ecrire des livres blancs sur le marché SQL Server en France et en Europe (marché du travail, salaires, parts de marché, usages, etc.)

 

Voila, n’oubliez pas de voter avant dimanche. C’est important pour nous et pour vous.

 

Self-Service BI, une offre clé en main

Je vous en parlais il y a quelques semaines. Lors des Journées SQL Server, j’ai lancé une offre de Self-Service BI chez AZEO. Nous avions organisé un petit événement pour l’occasion, chez Microsoft, avec quelques clients.

Evènement de lancement

photo 1

Il est temps de vous en dire un plus.

Tout d’abord, bien plus qu’une offre de service, c’est avant tout une démarche que nous proposons.
Mettre en place de la Self-Service BI, ce n’est pas juste installer des outils. Le chalenge n’est pas seulement de mettre en place la plate-forme mais bien que vos utilisateurs l’utilisent naturellement et quotidiennement afin de créer de la valeur ajoutée aux données de l’entreprise.

 

La démarche AZEO

image

1. Vision Scope

Parce que chaque SI est différent, chaque projet aura sa physionomie propre.

Architecture, dimensionnement, licencing, Cloud, On-Premises ou hybride, rôles de l’IT, budget, etc.
Toutes ces questions et tous ces paramètres sont à prendre en compte et vont influer sur le périmètre et la façon de mener le projet.

Nous proposons une première phase permettant de cadrer et maitriser le projet selon vos besoins et votre existant.

 

2. Mise en place de la plate-forme

Une fois toutes les composantes définies et l’architecture posée, il n’y a plus qu’à dérouler et “installer” la plate-forme technique.

Selon le périmètre, nous irons jusqu’à opérer pour vous cette plate-forme que ce soit techniquement ou sur la mise en place de règles de gouvernance.

L’objectif est de vous mettre à disposition une plate-forme clé en main.

 

3. Accompagnement

Comme je le disais, mettre à disposition des outils n’est pas suffisant. Il faut ensuite que vos utilisateurs la mette à profit.

La démarche AZEO fait une grande place à l’accompagnement de vos utilisateurs.
Coaching, Formation, Suivi… Nos experts sont là pour aider vos utilisateur à tirer le meilleur de la Self-Service BI.

A noter que les formations que nous proposons sont disponibles hors du cadre d’un projet de Self-Service BI. En plus, c’est éligible au DIF.
J’en reparlerai dans un prochain article, notamment sur Power Pivot

image

Le plan d’accompagnement sera défini pendant le Vision Scope.

 

4. Industrialisation

Notre expérience montre que la mise en place de Self-Service BI développe les projets de BI dite traditionnelle. Elle fait notamment émerger de nouveaux besoins : Master Data Management, Data Quality, Sécurité, Big Data, etc.

Les passerelles passant d’un type de BI à l’autre existent et nous serons ravis de vous accompagner dans l’industrialisation de votre BI d’entreprise en se basant d’ailleurs sur les réalisations  Self-Service BI de vos utilisateurs.

 

Quelques références

Je m’intéresse à la Self-Service BI depuis 2009, premières betas de PowerPivot et de Report Builder. J’ai pu œuvrer à sa mise en place chez quelques clients, de la petite PME au grand compte.

Les outils et les versions évoluent mais la démarche reste la même. Et c’est ce que nous vous proposons avec l’offre SSBI d’AZEO : expérience, méthodologie et savoir-faire.

imageJ’ai participé à une session “Retour d’expérience” aux dernières Journées SQL Server avec l’un de nos clients, la Banque de France, sur son implémentation dans une entreprise de 13000 agents.
Même si la mise en œuvre n’est pas du 100% AZEO, il y a une bonne part de notre démarche à l’intérieur. La session est une mine d’information si vous souhaitez vous lancer dans la SSBI.

Infos sur la session

 

Ce qu’il faut retenir

Vous avez des données ? Vous souhaitez mettre à la disposition de vos utilisateurs des outils leur permettant de créer de la valeur ajoutée à partir de celles-ci ?

Mettez une touche de Self-Service BI dans votre SI.

AZEO vous propose une démarche complète vous assurant le succès de la mise en œuvre de la Self-Service BI dans le but d’offrir de nouvelles perspectives à vos utilisateurs et ainsi les aider à créer de la valeur ajoutée.

image

 

La fiche de l’offre est disponible ici.

 

Pour toute information, envoyez moi un mail :

jean-pierre.riehl@azeo.com

 

 

.