Board du GUSS 2015

Je pourrais vous parler des derniers webcasts du GUSS où j’ai pu montrer d’un peu plus près Azure Data Factory. Je pourrais vous parler des TechDays, du stand Data Insights ou des sessions que j’ai pu donner sur la Gouvernance et le Data Stewardship. Je pourrais vous parler du dernier Afterwork ou encore des nouveautés Power BI, je pourrais vous dire que je serai Speaker au grand SQLSaturday de Lisbonne… Mais ce n’est pas le sujet.

Voila pour les actualités qui auraient mérité des article sur ce blog (…et qui j’espère seront traitées prochainement). Beaucoup de choses à faire, peu de temps, vous connaissez la rengaine.

Toutefois, je prends le temps de rédiger cet article pour vous parler de l’épisode annuel du GUSS : les élections.

 

Des élections ?

VoteOn ne le répètera jamais assez, le GUSS, c’est nous, c’est vous. Ce sont les speakers, les participants aux événements, les sponsors, le Board, tout à chacun qui participe à la création de cet écosystème autour de la plate-forme de données Microsoft. Et quoi de mieux que de nous laisser l’opportunité de décider tous ensemble comment doit avancer l’association.

Cette année, l’intégralité du Board remet sa place en jeu. Et pourtant les statuts prévoient un mandat de 2 ans, alors pourquoi ? Parce qu’on veut avoir une rotation de l’équipe et qu’on a besoin de vous pour savoir qui doit être dans le premier tour. Alors on remet les compteurs à zéro et on ajoute une règle : “les 4 moins bons scores ne seront élus que pour une année”. En dehors de cela, les règles restent les mêmes, conformément aux statuts.

 

Vote et Liste des candidats 2015

 

Alors, ça change quoi ?

Chacun suit le cours de sa vie (professionnelle) et les choses ne sont pas immuables. Alors, on a des nouveaux candidats et d’autres qui s’en vont.

Nous sommes heureux d’accueillir 3 candidates (oui, toutes des filles Sourire) :

  • Galla Pupel
  • Isabelle Van Campenhoudt
  • Sarah Bessard

Vous les avez toutes déjà croisées lors d’événements en tant que volontaires ou speakers. Elles sont motivées et souhaitent s’investir dans l’organisation.

 

Mais nous avons aussi le regret de compter le départ de 2 membres du Board : Florian et Alexandre. Gageons qu’ils seront toujours actifs à nos côtés car il n’y a pas besoin d’être élu au Board pour participer à la vie de l’écosystème.

 

Et moi dans tout cela ?

imageBien évidemment je fais partie des candidats. Je souhaite continuer à donner mon énergie et mon temps à cette belle communauté et j’espère bien le faire en 2015.

Je vous rappelle ma candidature de 2014, ma vision et mes idées n’ont guère changé. En dehors de continuer sur le rythme actuel des événements (Webcasts mensuels, Afterwork bimestriels, préconférences, SQLSaturday et JSS), ma vision est d’étendre notre audience et de créer plus de contenu premium autour de notre écosystème.

Si je suis élu, je compte sur mes condisciples pour m’aider dans cette voie et surtout pour bien s’investir dans le quotidien opérationnel, pas forcément visible mais essentiel.

J’ai également un projet plus perso en tête, connexe au GUSS (oui, c’est lié aux Data, on ne se refait pas). Je n’en dirai pas plus mais un indice, cela fait quelques années que je souhaite monter un Think Tank Clignement d'œil

 

Je suis disponible pour échanger avec vous sur tout cela. Vous ne devriez pas avoir de mal à me contacter ; via les commentaires de ce blog, via Twitter, par Facebook, par mail, par Linkedin… Je serai ravi de discuter du futur du GUSS avant que vous preniez votre décision.

 

Assemblée Générale

En parlant d’échange, je vous rappelle que l’AG se tiendra le 9 mars à 18h00 au Centre de conférences de Microsoft à Issy-les-Moulineaux. En dehors de l’ordre du jour habituel dans ce genre d’événement (Bilan, Finance, etc.), cet événement sera l’occasion de discuter avec les membres et de savoir ce que vous voulez, ce que vous ne voulez pas, ce qu’on doit améliorer, etc.

 

Alors ?

Alors, vous attendez quoi ? Passez en revue les candidats et votez !

Vote et Liste des candidats 2015

Power BI, Bilan et Perspectives

On avait des pistes sur l’évolution de Power BI lors de chaque conférence (PASS Summit 2013, WPC, conférence de presse de Satya Nadella, PASS BAC jusqu’au dernier PASS Summit 2014). Mais difficile d’avoir des échéances ou une Roadmap. C’est comme l’hiver, it’s coming.

 

Après, je ne jette pas la pierre car on a été gâté en 2014 avec :

  • La sortie officielle de Power BI (on dit GA dans les milieux mondains).
  • Power Q&A
  • Predictive Analytics dans Power View
  • Data Management Gateway v1
  • Data Management Gateway v1.2 (extension des Data Sources supportées)
  • Mises à jour de Power Map
  • Mises à jour de Power Query (on a tous crié houra avec le connecteur SSAS Sourire)

Et si j’étends le spectre, je peux ajouter:

  • Azure Machine Learning
  • Azure Stream Analytics
  • Azure Data Factory
  • Et toutes les avancées autour de la plate-forme Hadoop de Microsoft (HDInsight)

Toutefois, il manque une annonce sur 2014 dans cette liste. Elle est arrivée tard dans l’année, en guise de cadeau de Noël.

 

C’est la Preview de ce que j’appelle la vNext de Power BI (en effet car ça s’appelle Power BI). Rapidement, voici les Key Features :

  • Nouveaux éléments graphiques (treemap, gauges, KPI, etc.)
  • Dashboard Tiles : le principe des tuiles de Windows pour construire son tableau de bord

Dashboard Tiles

  • Live Query : pour brancher ses dashboards sur des cubes (tabulaires) On-Prem

Live Query

  • AS Connector : une sorte de DMG pour SSAS (pour que Live Query fonctionne)
  • Power BI Designer : un client complet pour construire son mashup Power Query, son modèle Power Pivot et ses dashboards Power View (même si on peut tout faire en ligne)

 Power BI Designer

J’en ferai le tour complet dans un prochain article. Restons sur à un niveau macro et essayons d’avoir une lecture de cette annonce.

 

 

Premièrement, on voit enfin apparaitre des fonctionnalités qu’on attendait avec impatience, et depuis longtemps pour certaines (treemap, connexion directe à SSAS, application iPad, etc.).

En second lieu, il y a ces connecteurs, de plus en plus verticaux et qui répondent directement aux attentes métiers. L’idée est d’une part de raccourcir au maximum le chemin vers la donnée et d’une autre part de lui donner une valeur de moins en moins technique.

Enfin, on voit la direction que prend le dashboarding (et par extrapolation la BI) chez Microsoft. D’aucun dirait que Microsoft ne fait que copier la concurrence (comme Tableau qui a le vent en poupe). Mais quand on regarde la vision d’ensemble, on retrouve la patte Microsoft avec une « BI for masses » managée et intégrée.

Et puis, visuellement, je suis fan du principe de tuile dynamique que je trouve super intéressant dans une démarche BI.

 

Mais pour moi le point important est Power BI Designer. Power BI Designer, c’est Power Query + Power Pivot + Power View dans un outil autonome (seulement 53Mo !!) et super bien intégré (seamless).

On est en droit de penser qu’Excel, longtemps mis au coeur de la stratégie BI de Microsoft ne sera plus un prérequis. Est-ce une bonne chose ? Je dirais oui s’il y a une bijectivité; on ne fait qu’élargir l’audience.

Mais Power BI Designer propose des fonctionnalités supplémentaires comme les relations bidirectionnelles dans Power Pivot, ce qui permet de gérer le plus simplement du monde les modélisations Many-to-Many (voir l’article de Chris Webb). Alors quid de l’alignement des versions… Avec une SKU Office 365 d’Excel, pas de souci car Excel se met à jour tout seul et en continu. Mais pour les versions « boites » ?
Il est trop tôt dans le cycle de développement de ce nouveau Power BI pour avoir des réponses mais bien évidemment, la question est au coeur des préoccupations de Microsoft qui est dans une démarche de déploiement continue sur son offre BI SaaS.

 

A bientôt pour un article complet sur le nouveau Power BI.

 

#JSS2014 – Cloud et BI, quelle architecture en 2014 ?

Aux dernières Journées SQL Server, j’ai présenté une session sur le Cloud et quelle architecture BI on peut y construire. Je vous avouerais que je ne suis pas super satisfait de ma session, principalement à cause du timing. Explications…

Pour cette session, j’ai voulu faire l’exercice à l’envers, c’est à dire poser toutes les pièces possibles sur la table et voir comment construire quelque chose avec, à la manière d’un puzzle ou d’un mécano.
Evidemment, ce n’est pas comme cela qu’on fait de l’architecture, on part du besoin et on met les briques ensuite. Mais cela m’a permis de présenter l’ensemble des briques Data que l’on trouve sur le Cloud, ce que je pense primordial dans une session niveau 200.

Le problème, c’est qu’il y en a ENORMEMENT !

image

Donc j’ai été un peu court sur la fin et sur l’explication de ce slide qui est la Big Picture : le placement des briques dans une logique BI.

image

Sans parler de tous les sujets transverses comme la sécurité, la virtualisation des données, le “Data Lake”, l’hybride, etc. qui mériteraient une session à eux seul. Bref, j’ai tout de même conclu sur un point qui me semble important, les DSI doivent se doter d’un Architecte Data, qui, lui, doit connaitre toutes les briques, savoir comment elles se connectent, leurs limitations, etc. afin de trouver la meilleure architecture Cloud.

image

Enfin, la question qui aurait pu conclure cette session :

Le Cloud est-il prêt à recevoir de la BI ?

En tant que consultant, ma réponse devrait être : ça dépend ! Sourire  Dans le fond, ma réponse est “Oui”.
Côté IaaS, les VM disponibles font saliver la plupart des équipes BI qui galèrent avec un petit serveur seul dans un coin. Côté PaaS, entre la richesse fonctionnelle et la possibilité de démarrer instantanément à moindre coût ouvrent de très belles perspectives. Et l’offre SaaS offre le denier kilomètre pour apporter la BI sur un plateau aux utilisateurs.

Donc, même si ça dépend toujours de quelque chose, le Cloud est une réelle solution crédible pour construire votre système décisionnel.

Les slides de la session :

A bientôt pour la vidéo.

 

 

Mais ce sont les JSS ??!

JSS2-Mini Le temps de tourner la tête et je m’aperçois que les JSS sont dans moins de 10 jours…

Dois-je présenter les Journées SQL Server ? Chaque année je vous fais le coup et normalement, en bons professionnels de la Data avec les technos Microsoft, vous devez connaitre et attendre impatiemment ce grand rendez-vous annuel…

Mais bon, pour les visiteurs de passage sur ce blog, les étourdis, les moteurs de recherche, je recommence :

Les JSS, c’est tout simplement le plus grande conférence sur la plate-forme de données Microsoft en France. Nous en sommes déjà à la 4ème édition et le GUSS et moi-même sommes toujours autant heureux de vous proposer cet événement qui réunit la communauté SQL.

Cette année, ce sont 50 speakers et 14 sponsors qui vous proposent 40 sessions et 2 keynotes lors de ces 2 jours de conférences gratuites. Il est encore tant de vous inscrire à l’évènement.

Inscription

Et pensez à construire votre planning. Même si les salles sont déjà attribuées et le programme parti à l’impression, c’est important pour nous d’avoir ce feedback.

Pourquoi il ne faut pas louper les JSS cette année ?

Si vous suivez ce blog mon fil Twitter (et plus généralement les fils d’infos de la communauté…), il ne vous a pas échappé que l’actualité était très dense depuis cet été, voire même depuis les dernières JSS…

Entre les évolutions de Power BI, la release de SQL Server 2014, les produits en preview sur Azure (Azure Machine Learning, Azure Stream Analytics, Azure Data Factory), l’offre Big Data qui a considérablement grandie (Storm, HBase, etc.), les appliances qui s’enrichissent avec APS et Polybase ou encore les Cloud-Databases (SQL Azure, DocumentDB, etc.)…vous avez certainement loupé un épisode.

En effet, il est difficile de suivre les annonces et nouveautés présentées aux événements qui eux-mêmes s’intensifient : PASS Business Analytics Conference, PASS Summit, conférence de Satya Nadella sur les data, WPC
J’avoue que même moi j’ai dû mal à tout assimiler (mais mes confrères MVP prennent bien le relai, n’est-ce pas Florian, David et Romain ?)

Pour faire court, les Journées SQL Server sont l’occasion de prendre une grosse séance de rattrapage !
Tous les produits de la plate-forme de données Microsoft, Cloud, OnPrem et Hybrid seront couverts…*

Et moi dans cette histoire ?

Comme chaque année, je suis très investi dans l’organisation de cette conférence. Et le meilleur investissement, c’est de proposer du contenu en présentant une session. Cette année, j’ai le plaisir de présenter 1 session, d’animer un retour d’expérience et d’accompagner une jeune speakeuse.

Cloud et BI, quelle architecture pour 2014 ?

La BI Microsoft a bien changée depuis 2005. Aujourd’hui, c’est Cloud-First et Mobile-First, mais comment s’y retrouver et choisir la bonne architecture ? Power BI, HDInsight, DMG, IaaS, SQL Azure, etc.
Dans cette session nous ferons le tour des composants BI et verrons comment ils s’articulent ensemble pour construire un système de gestion de l’information moderne.

Cette session sera l’occasion de mettre sur la même partition toutes les nouvelles briques Cloud et Hybrides et de comprendre leurs interactions et les scénarios d’usage.
J’espère également vous faire une petite démo de Azure Data Factory

Inscription

Retour d’expérience avec Power BI

Découvrir Power BI en écoutant les retours d’expérience d’utilisateurs, c’est un bon moyen de se faire un avis sous un prisme différent.
Dans cette session, venez écoutez l’histoire de clients comme Deezer et Sarenza qui utilisent Power BI au quotidien. Les points forts, les points de vigilance, les succès mais aussi les galères.
Ce sera l’occasion également de poser toutes les questions que vous souhaitez aux intervenants.

Dans cette session, les stars ce sont Deezer et Sarenza. Ils ont implémenté Power BI et viennent en parler. Moi, je serai là pour animer le débat avec quelques questions.

Inscription

Power View, Power Q&A : avoir un bon modèle

Power Q&A permet d’interroger vos modèles en langage naturel. Mais comment bien construire son modèle ? Comment bien configurer la sémantique pour une utilisation optimum ?
Nommage, typage, métadonnées, synonymes, phrasings…nous aborderons tous les concepts qui permettront à vos modèles de répondre à vos questions..

La jeune speakeuse Galla vous montrera comment bien construire votre modèle sémantique pour une utilisation optimum dans Power View et Power Q&A. Quant à moi, je ferai la potiche et peut-être quelques démos.

Inscription

Vous pourrez également me retrouver aux Keynotes pour parler de la communauté.

 

*(ou presque…ma session Deep Dive sur la Data Management Gateway n’a pas été retenue, je ne comprends pas pourquoi…)

 

Mon retour sur le SQLSaturday Paris 2014

SQLSAT323_webIl y a des moments dans la vie où on est heureux d’avoir accompli quelque chose.
Des évènements, nous en organisons depuis un moment et, là, j’ai l’impression d’avoir fait quelque chose d’exceptionnel.

Évidemment, vous pouvez vous dire qu’il n’y a rien d’exceptionnel à recevoir des gens, leur donner un badge et des cadeaux et d’avoir des sessions. Après tout, il y a des tas d’évènements comme celui-là, je pense au TechDays par exemple (qui est à une échelle bien supérieure d’ailleurs).

Mais là, il s’agit d’un évènement communautaire, organisé par des personnes bénévoles, qui ont fait tout cela soir et week-end.
Il s’agit de speakers qui ont pris l’avion ou le train à leurs frais (pour certains depuis l’autre côté de l’Atlantique) pour offrir à la communauté leur savoir.
Il s’agit de vous qui avez “sacrifié” un samedi pour vous perfectionner sur les technologies Data de Microsoft.
Il s’agit des sponsors qui nous suivent alors que nous ne sommes qu’une petite association sans garantie ni engagement.

La communauté et l’écosystème autour de la plateforme de données Microsoft (que l’on appelle de façon courte la communauté SQL), c’est vous, c’est nous et nous devons être fiers de ce que nous avons accompli.

Bien sûr, il y a des choses à améliorer et on espère que vous nous le remonterez dans les jours qui viennent. Mais dites nous également ce que vous avez aimé. C’est important car, d’une part ça nous fait plaisir, mais aussi car nous comprenons ainsi mieux vos attentes.

Donc merci, merci, merci la communauté SQL Server pour avoir joué le jeu de ce SQLSaturday.

Je tiens tout particulièrement à remercier David Joubert, Grégory Boge, Philippe Geiger et Charles-Henri Sauget. Ils ont abattu un boulot formidable lors des nombreux mois de préparation mais aussi le jour J, où, même si ça passe toujours inaperçu, il y a des dizaines de choses à traiter.
Merci à vous les gars !

Je terminerai avec un mot sur les pré-conférences. Pour nous, c’est une véritable réussite. Sans aller jusqu’à dire que nous n’y croyions pas du tout (nous ne les aurions pas tentées), nous étions sceptiques sur un tel format en France. Ailleurs dans le monde, dépenser quelques euros et passer une journée avec un expert, c’est tout à fait normal car c’est investir pour soi-même. En France, on le réclame comme un dû et on tombe vite dans le volume subventionné plutôt que la qualité et l’objectif initial.
Et pourtant, les professionnels SQL ont répondu présents…
Vous étiez 35 à venir nous écouter parler de nos domaines d’expertise et c’est au-delà de ce que nous attendions. J’espère que vous avez trouvé ce format, à mi-chemin entre la conférence et la journée de formation, adapté et intéressant.
Nous espérons le renouveler par la suite alors dites nous ce qu’on doit améliorer.

 

Sachez que moi j’ai pris un réel plaisir à organiser ce SQLSaturday. Parce que ces moments de communauté sont importants pour mon travail quotidien, pour partager un peu de moi, mais aussi parce que je fais ça avec les copains et néanmoins confrères (et inversement).

 

Le retour à la vie réelle est compliqué. C’est ce qu’on appelle l’effet boomerang où tout ce que vous avez mis en attente depuis 2 semaines vous revient dans la tête… Mais je ferai prochainement un article pour vous remonter quelques chiffres (après tout, on fait aussi de la BI au GUSS) ainsi qu’un article où je reviendrai plus spécialement sur mes sessions sur Power BI et le Data Stewardship.

Merci !

 

image

Une petite vue de la Tour Montparnasse à la sortie du déjeuner lors de la pré-conférence du vendredi

Propriété Slice dans le partitionnement de cube

Lors de la mise en place d’une évolution sur un cube que j’avais fait il y a un moment, j’en profite pour ajouter un peu de partitionnement étant donné que le cube avait bien grossi. Voulant aller vite, je crée 3 partitions, je déploie et paf, une erreur :

3240034361 : Erreurs dans le moteur de stockage OLAP : Les restrictions imposées sur un secteur de partition n’ont pas été respectées

(en anglais : Errors in the OLAP storage engine: The restrictions imposed on partition slice where violated)

Le problème vient de la propriété Slice de mes partitions que j’ai mis un peu hâtivement.

Explications en repartant du début…

 

Définir les partitions

Première chose à faire, définir les partitions. Pour cet article, je vais prendre la base Contoso (un AdventureWorks un peu plus épais) et je vais partitionner par Magasin (StoreKey).

En étudiant les données, je vois qu’elles ne sont pas distribuées également ; quelques magasins sortent du lot.

image

Je vais donc définir un schéma de partitionnement non linéaire en créant 7 partitions.

image

image

Je déploie, je process, tout va bien. Sauf qu’en testant, on peut voir que les partitions ne sont pas correctement utilisées dans les requêtes MDX.

image

Avec une requête sur un Magasin précis, on voit avec le Profiler que plusieurs partitions sont lues.

SELECT
[Measures].[Sales Amount] ON 0
,[Calendar].[Year].Children ON 1
FROM  [Contoso]
WHERE ([Stores].[Store].&[310])

Rappelons toutefois qu’il y a 2 avantages au partitionnement :

  • Optimisation des requêtes (on vient d’en parler)
  • Optimisation du Process en ne traitant que la “dernière” partition

Ce second point peut à lui seul justifier la mise en place de partitions. A ce propos, Microsoft recommande de partitionner à partir de 2 millions de lignes.

Propriété Slice

Si le moteur ne pointe pas directement sur la bonne partition, c’est parce que, dans mon partitionnement, je dois lui indiquer sur quel critère.

En SSAS multidim, cette clé de partitionnement s’appelle un Slice (traduit par “tranche” dans les outils en français). On trouve cette propriété Slice sur l’objet Partition.

image
(cliquer pour agrandir)

Cette propriété attend une expression en MDX qui renvoie un Tuple ou un Set. Ainsi pour notre partitionnement par Magasin, on aura une instruction comme celle-ci :

{[Stores].[Store].&[199],[Stores].[Store].&[200]}

Etant donné que j’ai plus de 300 magasins sur 7 partitions, je pars sur un Range (avec un : entre mes bornes) :

{[Stores].[Store].&[201]:[Stores].[Store].&[305]}

Et pour la première et la dernière partition,

{null:[Stores].[Store].&[198]}
{[Stores].[Store].&[311]:null}

En testant dans une requête MDX, cela fonctionne très bien.

SELECT
[Measures].[Sales Amount] ON 0
,{null:[Stores].[Store].&[199]} ON 1
FROM  [Contoso]

Sauf que c’est ce Range qui est à l’origine de l’erreur au Processing !

Pourquoi ?

Au traitement, Analysis Services utilise ce que vous avez mis dans la propriété Slice dans une instruction StrToMember(“propriété slice”, CONSTRAINED). Et la fonction StrToMember, en mode CONSTRAINED, ne supporte pas les Range… Triste

image
(cliquer pour agrandir)

Quelques références sur les limitations de STRTOMEMBER :

La solution ?

Elle est simple, il vous faut indiquer TOUS les membres de la partitions dans votre Set. Ou encore créer plus de partitions.  C’est pourquoi la gestion des partitions est souvent automatisée (PowerShell avec AMO, SSIS), mais ça, ce sera pour un prochain article.

Pour conclure, une fois les slices correctement définis sur les partitions, ma requête MDX requête la bonne partition, et uniquement celle-ci.

image

AutoSlice

Si vous avez correctement suivi, vous avez dû remarquer qu’il y a un truc qui ne colle pas. J’ai 7 partitions et quand j’ai requêté sans les Slices définis, il n’a scanné que 4 partitions. Pourquoi ?

Tout simplement car Analysis Services essaye quand même de déduire le critère de partitionnement au moment du Processing. Dans ces métadonnées, il indique les valeurs min et max de chaque dimension.

image
(cliquer pour agrandir)

C’est pour cela qu’il arrive à se débrouiller pour retrouver les partitions éligibles. Mais comme vous avez pu le voir, ce n’est pas parfait (principalement car il peut y avoir de l’overlap).

Pour creuser l’AutoSlice, je vous renvoie à l’article de Shabnam Watson : http://shabnamwatson.wordpress.com/2013/06/27/setting-the-slice-for-ssas-partitions/

 

Session sur le Data Stewardship au #SQLBits

Voilà, ça c’est fait ! Notre tournée internationale en tant que speakers s’achève avec une session au SQLBits, en Angleterre.

Le SQLBits, c’est la plus grosse conférence SQL Server en Europe. Organisée depuis 2007 par la communauté du Royaume-Uni (très riche et très active), ils en sont à leur 12 édition, gage de sérieux. Je participais à mon premier SQLBits et je dois dire que j’ai été bluffé par la qualité et l’importance de l’événement.

  • 1300 participants (!!)
  • 3 jours de conférences dont 1 journée gratuite consacrée à la communauté
  • 8 tracks, + de 100 sessions
  • 1 “Distingued Engineer” de l’équipe SQL Server en Keynote : Niguel Ellis
  • Des speakers venus des 4 coins du monde
  • 1 soirée absolument A-WE-SO-ME !!

 

Pour ma part, je présentais une session avec Florian Eiden (b|t) sur le Data Stewardship : “Fasten your seat belt and listen to the (Data) Steward

image

Nous avons parlé de Self-Service BI et de Gouvernance des données en entreprise autour de Power BI (et au delà). Nous avons apporté un éclairage sur le profil et le rôle d’un Data Steward dans une organisation qui développe la BI personnelle pour ses utilisateurs.

 

imageimageimage

Etant donné que la session était tôt le matin (8h15) et le sujet non-technique, la salle était peu remplie mais nous sommes ravis d’avoir pu partager notre approche et notre expérience. Et le tout…en anglais ; et je dois dire que ça a été la partie la plus compliquée, n’étant pas bilingues. Mais on a fait le job et on s’excuse encore pour les fautes de grammaire, le vocabulaire pas forcément précis et notre French-accent Sourire.

Je remercie fortement les organisateurs de nous avoir fait confiance pour cette session.