EXPERIENCES PROFESSIONNELLES
ADEO LEROY MERLIN—6 MOIS
Chez ADEO, au sein de l’équipe In-Store Operations Data, j’ai travaillé en tant qu’Analytics Engineer, avec une forte
orientation Data Engineering, en charge de la conception, de la structuration et de l’industrialisation des pipelines de
données analytiques.Mes missions comprenaient la modélisation des données, la mise en place de flux ELT de bout en
bout via dbt sur GCP, la création de tables analytiques et la fiabilisation des données consommées par plus de 35
dashboards. J’ai également assuré la résolution d’incidents data impactant les reportings et contribué à l’amélioration
continue de la qualité, de la performance et de la maintenabilité de la plateforme data. L’ensemble des développements
et mises à jour était versionné, testé et déployé via des pipelines CI/CD, dans un cadre Agile, en collaboration étroite
avec les Product Owners et les équipes métiers.
Missions
1. Retraitement et migration de données existantes avec dbt
· Situation : Des sources de données existantes, issues de GCP, n’étaient plus adaptées à un usage
analytique long terme et ne répondaient plus aux besoins de l’équipe In-Store Operations (ISO)
· Tâche : Retraiter ces données directement dans dbt afin d’en améliorer la qualité, la structure et
l’adéquation avec les besoins métier.
· Action : Refonte complète des modèles dbt en structurant les transformations selon une
architecture en couches (staging, intermediate, publish), permettant de nettoyer, transformer
et modéliser les données de manière cohérente et maintenable.
· Résultat : Migration réalisée avec succès, réduction des anomalies de données et
amélioration des performances, notamment une diminution de la latence sur les dashboards.
2. Résolution d’incidents sur les dashboards (ServiceNow)
· Situation : Des incidents étaient remontés par les utilisateurs finaux via ServiceNow suite à
l’utilisation des dashboards.
· Tâche : Analyser et corriger rapidement les anomalies en priorisant les interventions selon l’impact
métier et la criticité pour les utilisateurs.
· Action : Prise en charge des tickets ServiceNow, identification des causes (exemple : donnée
manquante d’une boutique à ajouter) et application des correctifs nécessaires sur les données ou les
dashboards.
· Résultat : Rétablissement rapide de la fiabilité des dashboards et continuité des analyses
métier.
3. Amélioration et création continue de nouveaux dashboards (Jira)
· Situation : De nouveaux besoins analytiques étaient régulièrement exprimés par les équipes métiers
( exemple création d’un nouveau Kpi, nouvelle page sur power bi..).
· Tâche : Concevoir, faire évoluer et créer des dashboards en fonction des demandes
utilisateurs, formalisées via Jira.
· Action : Réalisation de patchs d’amélioration, création de nouvelles pages et KPI, intégration de
nouvelles données, conception de nouvelles tables analytiques et mise en place de nouveaux
pipelines ELT avec dbt pour répondre aux besoins identifiés.
· Résultat : Dashboards enrichis, mieux alignés avec les usages métiers et facilitant la prise de
décision opérationnelle.
Environnement et outils : Dbt, SQL, BigQuery, GCP (Cloud Storage), Git, GitHub, CI/CD, VS Code, Power BI
(DAX, M), ServiceNow, Jira, Confluence.
CHRISTIAN DIOR—2 ans et 6 mois
Chez Christian Dior, au sein de l’équipe Data Factory, Data Gouvernance, j'ai travaillé en tant que Analytics Engineer
en accompagnant les métiers pour l’amélioration de la qualité de la donnée dans les diverses sources de donnée. Mes
missions principales étaient liées à la création, l'amélioration et l'automatisation des reporting mais aussi la création
des différents flux de données et le retraitement de la donnée.
Missions
1. Migration de données de M3 vers GCP/SAP
· Situation : L'équipe Data Factory de Christian Dior effectuait une migration des données produit de
M3 vers Google Cloud Platform (GCP), une initiative clé pour améliorer la qualité et l'accessibilité
des données.
· Tâche : J'étais responsable de la recette de la donnée sur Power BI afin d'assurer que les données
migrées vers GCP soient précises et fiables.
· Action : J'ai conçu et exécuté des scénarios de test sur Power BI pour valider la migration, en
utilisant des requêtes et des dashboards pour visualiser les écarts. J'ai collaboré avec les équipes
techniques et métiers pour comprendre les écarts et apporter les ajustements nécessaires.
· Résultat : La migration a été effectuée avec succès, réduisant les anomalies de données, tout en
augmentant la rapidité des processus d’analyse.
2. Création et automatisation d’un Dashboard de qualité des données produits via GCP
· Situation : Dior nécessitait un tableau de bord pour surveiller la qualité des données produits et
assurer la conformité aux normes environnementales (notamment CITES). Les processus de mise
· Tâche : J'étais chargé de créer un dashboard Power BI pour vérifier la conformité des produits aux
normes CITES, notamment la vérification des noms scientifiques et groupes environnementaux.
· Action : Création d’un algorithme de conformité CITES avec visualisation sous Power BI extraction des
données via API (Cognos, DataGalaxy), nettoyage et préparation sous Python, ingestion dans BigQuery via
GCS, automatisation des flux sur GCP et modélisation des données avec Dataform (raw, staging, mart).
· Résultat : Le dashboard a permis d'améliorer la conformité des produits aux normes CITES, avec une
augmentation des vérifications réussies en temps réel.
3. Automatisation des Dashboards Power BI via GCP
· Situation : Les dashboards de qualité des données produits, initialement manuels, prenaient trop de
temps à être mis à jour et à générer.
· Tâche : Mon objectif était d'automatiser ces processus via l'infrastructure GCP afin d'améliorer
l'efficacité et la réactivité des analyses.
· Action : Mise en place des tables et des flux de données via GCP (BigQuery, Scheduler, pub/sub)
pour automatiser la génération et la mise à jour des dashboards. Cela incluait la gestion des
extractions Cognos et M3.
· Résultat : L'automatisation a permis de réduire le temps nécessaire à la mise à jour des rapports et
d'améliorer l'exactitude des données en temps réel.
4. Retraitement des données brutes avec GCP
· Situation : L’équipe Digital avait besoin de retraiter des données brutes issues de plusieurs
sources afin d’améliorer leur qualité, leur structuration et leur exploitabilité pour les analyses
· Tâche : Mettre en place un processus automatisé de retraitement des données brutes afin de les
transformer, les structurer et les charger dans BigQuery, tout en garantissant la fiabilité et la
régularité des traitements.
· Action : J'ai utilisé Dataform pour retraiter, transformer, en structurer la donnée selon une architecture
en couches raw, staging et mart (gold), puis chargement de la donnée dans BigQuery afin de modéliser
et structurer les données. J'ai automatisé le processus avec Scheduler, et orchestré l’ensemble via
Workflow pour connecter Scheduler et Dataform. Développement d'algorithmes basé sur des règles
métiers pour identifier les produits à risque de blocage en douane.
· Résultat : Ce retraitement a permis d'améliorer la qualité des données et d’automatiser les flux de
transformation, offrant ainsi des données prêtes à l’analyse en continu pour les équipes métiers.
Environnement et outils : ServiceNow, Confluence, JIRA, GCP (Cloud Storage, BigQuery, Pub/Sub, Dataform,
Scheduler, Workflow), Power BI (DAX, M), SaS, IBM Cognos, SAP, Akeneo/PIM, M3 (Infor),DataGalaxy, SQL, SQLX, T-SQL,
SSIS, Azure DEVOPS, API, Python, JSON.
CRÉDITAGRICOLEASSURANCES—7MOIS
Chez Credit Agricole Assurance, au sein de l’équipe Tableaux de bord, Reporting et Amélioration,
j’ai travaillé en tant que data analyst pour les équipes de la Direction des systèmes d’information
(DSI) mettant en œuv re la résolution des incidents survenus sur les applications. Mes missions
principales étaient liées à la création, l'amélioration et l'automatisation des reporting mise en place dans
les différentes équipes.
Missions
· Situation : Les équipes de la DSI avaient besoin de mieux comprendre l'utilisation des outils et les
mises à jour de données pour assurer une bonne adoption des systèmes en place.
· Tâche : Organiser des rituels réguliers d'échanges avec les équipes de la DSI pour expliquer les
mises à jour et garantir la bonne utilisation des outils.
· Action : Mise en place de réunions hebdomadaires pour expliquer les mises à jour des outils et
répondre aux questions des équipes. Accompagnement sur les bonnes pratiques d'utilisation pour
assurer une meilleure intégration des outils.
· Résultat : Amélioration de la compréhension et de l’adoption des outils par les équipes, facilitant
une gestion plus fluide des processus et des mises à jour.
2. Automatisation de la mise à jour des données pour améliorer la qualité
· Situation : Les processus de mise à jour manuelle des données entraînaient des erreurs, et des
tests de complétude et de cohérence étaient nécessaires pour garantir la qualité des données.
· Tâche : Automatiser la mise à jour des données et mettre en place des tests de cohérence et de
complétude.
· Action : Création d’un dictionnaire de données pour définir les règles de remplissage, mise en place
de tests automatiques de qualité des données, et automatisation des processus de mise à jour pour
garantir la fiabilité des informations.
· Résultat : Réduction des erreurs et augmentation de la qualité des données grâce à des mises à
jour automatisées, améliorant la cohérence et la fiabilité des analyses.
3. Création d'un reporting commun pour Pôle Vie France, Pacifica, et Predica
· Situation : Un reporting commun pour trois entités (Pôle Vie France, Pacifica, et Predica) devait être
mis en place pour améliorer la qualité et la cohérence des données utilisées dans le suivi...