POSTE : Consultant BI
CLIENT : Saint-Gobain Ville de Paris, Île-de-France, France · Hybride
3/2022 - 10/2022
EQUIPE : 7 membres
PROJET : Conception et développement d&rsquoun systéme décisionnel de reporting dédié au pole achats dugroupeendéveloppant les rapports «Spend bridge» , «Cost of Factors», «Orders forecast» et «Consignment stock». Taches :
> Prendre contact avec les métiers Saint-Gobain afin de les aider dans l&rsquoidentification et la satisfaction de leurs besoinssur le périmètre technico-fonctionnel. > Accompagner mes interlocuteurs et les différents contributeur sur les différentes phases projet
> Recueillir les requis fonctionnelles et spécifier les besoins techniques de la solution
> Effectuer la conception de l&rsquoinfrastructure Data flow et du modèle dimensionnel du Data warehouse
> Estimer et planifier les délais et les taches du projet
> Préparation des données brutes SAP et transformations selon les normes de gouvernance
> Conception et développement des pipelines d'ingestion sous Azure Synapse
> Mise en place du Data flow (ETL) sous PBI services et alimentation du datamart dédié. > Calcul des KPIs et développement des métriques selon différents axes d'analyse et règles de gestion
> Mise en place de la sécurité aux nveau lignes RLS dynamique selon des régles hierarchique et géographiques. > Maintenance et administration des workspaces , roles et droits, sécurité , audit d'utilisation
MOTS CLE : Incremental refresh | VNet Data Gateway | RLS | Data flow | Variables d'environnement | Datamart|Pipelines de déploiement
KPIs : Inflation-Deflation | Currency effect et conversion | Variance Invoice-Order | Conversion et consolidationMISSIONS & EXPÉRIENCE
POSTE : Analyste de données | Chef de mission
CLIENT : Humania Assurance Inc Montréal, Québec, Canada · À distance
3/2021 - 2/2022
EQUIPE : 9 membresPROJET :RS 17 (International Financial Reporting Standard), reporting reglementaire
Taches :
Assurer et garantir la cohérence, la qualité et l'accessibilité des données plus fiables et selon une mailleplusfine, importés dans des délais courts de différents sources financières et actuarielles à l'aide d'un stockagededonnées centralisé dans MS Dynamics Business Central. Générer des &ldquoGeneral Ledger entries&rdquo et fichiers de transactions à l&rsquoaide de flux de données controlés dansIFRS 17 sub-Ledger module de comptabilité (Moody's RiskIntegrity). Créer les mapping entre Les plans comptables (GL & Etats financiers) et un modéle de donnée (DWH)
respectant la logique comptable. Utilisation systématique de Azure Data Factory pour l&rsquoimplémentation des nouveaux flux de données
Développer des rapports au niveau entité et groupe en analysant les changements et les actions des produitsdans les états financiers et bilans sur Power BI. Création des rôles de sécurité au niveau lignes (RLS) et gestion des droits des membres des workspaces. Administration des workspaces et des capacités premium sur Power BI service. Maintenance de la connexion à la passerelle entreprise, configuration de l&rsquoactualisation planifiée et
développement d&rsquoun bouton d&rsquoactualisation on-demand. Développement des pipelines de déploiement entre les environnements de développement, test et prod. Développement et intégration de Power BI activity log afin de suivre les métriques d&rsquoutilisation à travers
Powershell cmdlet. Mise en place de scénarios de test des données des rapports et participation aux tests de validationutilisateur Rédaction de la documentation technique (guides de deploiement et des utilisateurs) et formationdes
consommateurs finaux des rapports. ENVIRONNEMENT TECHNIQUE : Power BI | AZURE (Data Factory, LogicApp & Functions) | SQL Server 2019(SSMS&SSIS) | MS Dynamics Business Central | Microsoft Visio
ENVIRONNEMENT Fonctionnel : Moody's RiskIntegrity | Axis | CAPSIL | Business Central | IBMCognos
d'unités de mesures | effets volume | Effets prix | Variance Budget-Spend...
ENVIRONNEMENT TECHNIQUE : Power BI premium capacity | Azure Synapse | SAP
ENVIRONNEMENT Fonctionnel : SAP IBIS | Sabre | Vinhedo | QAD | Exact
METHODOLOGIE : Agile SCRUM
POSTE : Consultant BI
CLIENT : Saint-Gobain ille de Paris, Île-de-France, France · Hybride
3/2022 - 10/2022
EQUIPE :7 membres
PROJET : Conception et développement d&rsquoun systéme décisionnel de reporting dédié au pole achats dugroupeendéveloppant les rapports «Spend bridge» , «Cost of Factors», «Orders forecast» et «Consignment stock». Taches :
> Prendre contact avec les métiers Saint-Gobain afin de les aider dans l&rsquoidentification et la satisfaction de leurs besoinssur le périmètre technico-fonctionnel. > Accompagner mes interlocuteurs et les différents contributeur sur les différentes phases projet
> Recueillir les requis fonctionnelles et spécifier les besoins techniques de la solution
> Effectuer la conception de l&rsquoinfrastructure Data flow et du modèle dimensionnel du Data warehouse
> Estimer et planifier les délais et les taches du projet
> Préparation des données brutes SAP et transformations selon les normes de gouvernance
> Conception et développement des pipelines d'ingestion sous Azure Synapse
> Mise en place du Data flow (ETL) sous PBI services et alimentation du datamart dédié. > Calcul des KPIs et développement des métriques selon différents axes d'analyse et règles de gestion
> Mise en place de la sécurité aux nveau lignes RLS dynamique selon des régles hierarchique et géographiques. > Maintenance et administration des workspaces , roles et droits, sécurité , audit d'utilisation
MOTS CLE : Incremental refresh | VNet Data Gateway | RLS | Data flow | Variables d'environnement | Datamart|Pipelines de déploiement
KPIs : Inflation-Deflation | Currency effect et conversion | Variance Invoice-Order | Conversion et consolidationMISSIONS & EXPÉRIENCE
POSTE : Analyste de données | Chef de mission
CLIENT : Humania Assurance Inc Montréal, Québec, Canada · À distance
3/2021 - 2/2022
EQUIPE : 9 membres
PROJET :RS 17 (International Financial Reporting Standard), reporting reglementaire
Taches :
Assurer et garantir la cohérence, la qualité et l'accessibilité des données plus fiables et selon une mailleplusfine, importés dans des délais courts de différents sources financières et actuarielles à l'aide d'un stockagededonnées centralisé dans MS Dynamics Business Central. Générer des &ldquoGeneral Ledger entries&rdquo et fichiers de transactions à l&rsquoaide de flux de données controlés dansIFRS 17 sub-Ledger module de comptabilité (Moody's RiskIntegrity). Créer les mapping entre Les plans comptables (GL & Etats financiers) et un modéle de donnée (DWH)
respectant la logique comptable. Utilisation systématique de Azure Data Factory pour l&rsquoimplémentation des nouveaux flux de données
Développer des rapports au niveau entité et groupe en analysant les changements et les actions des produitsdans les états financiers et bilans sur Power BI. Création des rôles de sécurité au niveau lignes (RLS) et gestion des droits des membres des workspaces. Administration des workspaces et des capacités premium sur Power BI service. Maintenance de la connexion à la passerelle entreprise, configuration de l&rsquoactualisation planifiée et
développement d&rsquoun bouton d&rsquoactualisation on-demand. Développement des pipelines de déploiement entre les environnements de développement, test et prod. Développement et intégration de Power BI activity log afin de suivre les métriques d&rsquoutilisation à travers
Powershell cmdlet. Mise en place de scénarios de test des données des rapports et participation aux tests de validationutilisateur Rédaction de la documentation technique (guides de deploiement et des utilisateurs) et formationdes
consommateurs finaux des rapports. ENVIRONNEMENT TECHNIQUE : Power BI | AZURE (Data Factory, LogicApp & Functions) | SQL Server 2019(SSMS&SSIS) | MS Dynamics Business Central | Microsoft Visio
ENVIRONNEMENT Fonctionnel : SAP IBIS | Sabre | Vinhedo | QAD | Exact
METHODOLOGIE : Agile SCRUM
Page 4 sur 5
POSTE : Consultant Data
CLIENT : EY
1/2020 - 12/2020
EQUIPE : 4 membresPROJET : Datamart et reporting feedbacks clients & survey automatisé Satisfaction clients
TACHES : Conception & développement d&rsquoune application modèle Power BI permettent aux utilisateurs d'obtenirdesinformations immédiates grâce à des tableaux de bord et à des rapports prépackagés qui peuvent être connectésàdessources de données actives et permettant l&rsquoautomatisation de Survey satisfaction client et centralisation des donnéesfeedbacks. Analyse et spécification des besoins fonctionnels. Etude des indicateurs clés de performance KPI et des axes d'analyse. Modélisation et architecture du Datawarehouse et des flux de données modèle en boule de neige (Snowflake). Discussion avec les différentes entités du groupe pour définir des interfaces d&rsquoexports vers le cloud. Préparation des templates UX UI des rapports sur Power BI. Extraction, transformation et chargement des données brutes de plusieurs sources sous SSIS. Collecter les informations des surveys reçus vers un query sur Power BI à l&rsquoaide d&rsquoun web API. Développement des rapports satisfaction client sous Power BI. Administration du workspace sur Power BI Services. La création des rôles (RLS) et administration des utilisateurs et des permissions. Formation des utilisateurs finaux. ENVIRONNEMENT TECHNIQUE : Power BI | SQL Server 2019 (SSMS | SSIS) | Power Automate | Power Apps | AzureDB| Excel | Qualtircs
ENVIRONNEMENT FONCTIONNEL : CRM interne | Microsoft Dynamics AX
METHODOLOGIE : Agile SCRUM.
POSTE : Développeur BI
CLIENT: DSI , Filiales internes
2/2018 - 11/2019
EQUIPE : 5 membres
PROJET 1 : Industrie 4.0 , performances commerciales , achats, logistique
TACHES:
Analyse et spécifications des besoins métier. Proposition de la solution technique et l&rsquoarchitecture de l&rsq...