CV/Mission de Data analyst BIGQUERY freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions d'Amine,
Data analyst BIGQUERY habitant Paris (75)

EXPERIENCES PROFESSIONNELLES

ADEO LEROY MERLIN—6 MOIS
Chez ADEO, au sein de l’équipe In-Store Operations Data, j’ai travaillé en tant qu’Analytics Engineer, avec une forte
orientation Data Engineering, en charge de la conception, de la structuration et de l’industrialisation des pipelines de
données analytiques.Mes missions comprenaient la modélisation des données, la mise en place de flux ELT de bout en
bout via dbt sur GCP, la création de tables analytiques et la fiabilisation des données consommées par plus de 35
dashboards. J’ai également assuré la résolution d’incidents data impactant les reportings et contribué à l’amélioration
continue de la qualité, de la performance et de la maintenabilité de la plateforme data. L’ensemble des développements
et mises à jour était versionné, testé et déployé via des pipelines CI/CD, dans un cadre Agile, en collaboration étroite
avec les Product Owners et les équipes métiers.
Missions
1. Retraitement et migration de données existantes avec dbt
· Situation : Des sources de données existantes, issues de GCP, n’étaient plus adaptées à un usage
analytique long terme et ne répondaient plus aux besoins de l’équipe In-Store Operations (ISO)
· Tâche : Retraiter ces données directement dans dbt afin d’en améliorer la qualité, la structure et
l’adéquation avec les besoins métier.
· Action : Refonte complète des modèles dbt en structurant les transformations selon une
architecture en couches (staging, intermediate, publish), permettant de nettoyer, transformer
et modéliser les données de manière cohérente et maintenable.
· Résultat : Migration réalisée avec succès, réduction des anomalies de données et
amélioration des performances, notamment une diminution de la latence sur les dashboards.
2. Résolution d’incidents sur les dashboards (ServiceNow)
· Situation : Des incidents étaient remontés par les utilisateurs finaux via ServiceNow suite à
l’utilisation des dashboards.
· Tâche : Analyser et corriger rapidement les anomalies en priorisant les interventions selon l’impact
métier et la criticité pour les utilisateurs.
· Action : Prise en charge des tickets ServiceNow, identification des causes (exemple : donnée
manquante d’une boutique à ajouter) et application des correctifs nécessaires sur les données ou les
dashboards.
· Résultat : Rétablissement rapide de la fiabilité des dashboards et continuité des analyses
métier.
3. Amélioration et création continue de nouveaux dashboards (Jira)
· Situation : De nouveaux besoins analytiques étaient régulièrement exprimés par les équipes métiers
( exemple création d’un nouveau Kpi, nouvelle page sur power bi..).
· Tâche : Concevoir, faire évoluer et créer des dashboards en fonction des demandes
utilisateurs, formalisées via Jira.
· Action : Réalisation de patchs d’amélioration, création de nouvelles pages et KPI, intégration de
nouvelles données, conception de nouvelles tables analytiques et mise en place de nouveaux
pipelines ELT avec dbt pour répondre aux besoins identifiés.
· Résultat : Dashboards enrichis, mieux alignés avec les usages métiers et facilitant la prise de
décision opérationnelle.
Environnement et outils : Dbt, SQL, BigQuery, GCP (Cloud Storage), Git, GitHub, CI/CD, VS Code, Power BI
(DAX, M), ServiceNow, Jira, Confluence.

CHRISTIAN DIOR—2 ans et 6 mois
Chez Christian Dior, au sein de l’équipe Data Factory, Data Gouvernance, j'ai travaillé en tant que Analytics Engineer
en accompagnant les métiers pour l’amélioration de la qualité de la donnée dans les diverses sources de donnée. Mes
missions principales étaient liées à la création, l'amélioration et l'automatisation des reporting mais aussi la création
des différents flux de données et le retraitement de la donnée.
Missions
1. Migration de données de M3 vers GCP/SAP
· Situation : L'équipe Data Factory de Christian Dior effectuait une migration des données produit de
M3 vers Google Cloud Platform (GCP), une initiative clé pour améliorer la qualité et l'accessibilité
des données.
· Tâche : J'étais responsable de la recette de la donnée sur Power BI afin d'assurer que les données
migrées vers GCP soient précises et fiables.
· Action : J'ai conçu et exécuté des scénarios de test sur Power BI pour valider la migration, en
utilisant des requêtes et des dashboards pour visualiser les écarts. J'ai collaboré avec les équipes
techniques et métiers pour comprendre les écarts et apporter les ajustements nécessaires.
· Résultat : La migration a été effectuée avec succès, réduisant les anomalies de données, tout en
augmentant la rapidité des processus d’analyse.
2. Création et automatisation d’un Dashboard de qualité des données produits via GCP
· Situation : Dior nécessitait un tableau de bord pour surveiller la qualité des données produits et
assurer la conformité aux normes environnementales (notamment CITES). Les processus de mise
· Tâche : J'étais chargé de créer un dashboard Power BI pour vérifier la conformité des produits aux
normes CITES, notamment la vérification des noms scientifiques et groupes environnementaux.
· Action : Création d’un algorithme de conformité CITES avec visualisation sous Power BI extraction des
données via API (Cognos, DataGalaxy), nettoyage et préparation sous Python, ingestion dans BigQuery via
GCS, automatisation des flux sur GCP et modélisation des données avec Dataform (raw, staging, mart).
· Résultat : Le dashboard a permis d'améliorer la conformité des produits aux normes CITES, avec une
augmentation des vérifications réussies en temps réel.
3. Automatisation des Dashboards Power BI via GCP
· Situation : Les dashboards de qualité des données produits, initialement manuels, prenaient trop de
temps à être mis à jour et à générer.
· Tâche : Mon objectif était d'automatiser ces processus via l'infrastructure GCP afin d'améliorer
l'efficacité et la réactivité des analyses.
· Action : Mise en place des tables et des flux de données via GCP (BigQuery, Scheduler, pub/sub)
pour automatiser la génération et la mise à jour des dashboards. Cela incluait la gestion des
extractions Cognos et M3.
· Résultat : L'automatisation a permis de réduire le temps nécessaire à la mise à jour des rapports et
d'améliorer l'exactitude des données en temps réel.
4. Retraitement des données brutes avec GCP
· Situation : L’équipe Digital avait besoin de retraiter des données brutes issues de plusieurs
sources afin d’améliorer leur qualité, leur structuration et leur exploitabilité pour les analyses
· Tâche : Mettre en place un processus automatisé de retraitement des données brutes afin de les
transformer, les structurer et les charger dans BigQuery, tout en garantissant la fiabilité et la
régularité des traitements.
· Action : J'ai utilisé Dataform pour retraiter, transformer, en structurer la donnée selon une architecture
en couches raw, staging et mart (gold), puis chargement de la donnée dans BigQuery afin de modéliser
et structurer les données. J'ai automatisé le processus avec Scheduler, et orchestré l’ensemble via
Workflow pour connecter Scheduler et Dataform. Développement d'algorithmes basé sur des règles
métiers pour identifier les produits à risque de blocage en douane.
· Résultat : Ce retraitement a permis d'améliorer la qualité des données et d’automatiser les flux de
transformation, offrant ainsi des données prêtes à l’analyse en continu pour les équipes métiers.
Environnement et outils : ServiceNow, Confluence, JIRA, GCP (Cloud Storage, BigQuery, Pub/Sub, Dataform,
Scheduler, Workflow), Power BI (DAX, M), SaS, IBM Cognos, SAP, Akeneo/PIM, M3 (Infor),DataGalaxy, SQL, SQLX, T-SQL,
SSIS, Azure DEVOPS, API, Python, JSON.

CRÉDITAGRICOLEASSURANCES—7MOIS
Chez Credit Agricole Assurance, au sein de l’équipe Tableaux de bord, Reporting et Amélioration,
j’ai travaillé en tant que data analyst pour les équipes de la Direction des systèmes d’information
(DSI) mettant en œuv re la résolution des incidents survenus sur les applications. Mes missions
principales étaient liées à la création, l'amélioration et l'automatisation des reporting mise en place dans
les différentes équipes.
Missions
· Situation : Les équipes de la DSI avaient besoin de mieux comprendre l'utilisation des outils et les
mises à jour de données pour assurer une bonne adoption des systèmes en place.
· Tâche : Organiser des rituels réguliers d'échanges avec les équipes de la DSI pour expliquer les
mises à jour et garantir la bonne utilisation des outils.
· Action : Mise en place de réunions hebdomadaires pour expliquer les mises à jour des outils et
répondre aux questions des équipes. Accompagnement sur les bonnes pratiques d'utilisation pour
assurer une meilleure intégration des outils.
· Résultat : Amélioration de la compréhension et de l’adoption des outils par les équipes, facilitant
une gestion plus fluide des processus et des mises à jour.
2. Automatisation de la mise à jour des données pour améliorer la qualité
· Situation : Les processus de mise à jour manuelle des données entraînaient des erreurs, et des
tests de complétude et de cohérence étaient nécessaires pour garantir la qualité des données.
· Tâche : Automatiser la mise à jour des données et mettre en place des tests de cohérence et de
complétude.
· Action : Création d’un dictionnaire de données pour définir les règles de remplissage, mise en place
de tests automatiques de qualité des données, et automatisation des processus de mise à jour pour
garantir la fiabilité des informations.
· Résultat : Réduction des erreurs et augmentation de la qualité des données grâce à des mises à
jour automatisées, améliorant la cohérence et la fiabilité des analyses.
3. Création d'un reporting commun pour Pôle Vie France, Pacifica, et Predica
· Situation : Un reporting commun pour trois entités (Pôle Vie France, Pacifica, et Predica) devait être
mis en place pour améliorer la qualité et la cohérence des données utilisées dans le suivi...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data analyst BIGQUERY, Missions Data analyst BIGQUERY, Data analyst BIGQUERY freelance

Les nouvelles missions de Data analyst BIGQUERY

Business Analyst Data

SQL Teradata Jira Google Cloud Platform
ASAP
95 - ROISSY-EN-FRANCE
12 mois
Voir la mission

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Data Scientist / Data Analyst IA

Google Cloud Platform SQL Python
ASAP
94 - Charenton le Pont
3 mois
Voir la mission

Consultant Dataiku

SQL Data Python Dataiku
ASAP
75 - PARIS
12 mois
Voir la mission

Consultant Talend

SQL Data Talend Talend MDM Talend DI
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer

Data Python Apache Hadoop Apache Spark PySpark
ASAP
75 - PARIS
12 mois
Voir la mission

Data Analyst

SQL Excel Data Microsoft Power BI Dataiku
ASAP
75 - PARIS
12 mois
Voir la mission

🚀 Consultant Data Scientist / Machine Learning – Environnement GCP & MLOps

Big Data BigQuery Microsoft Azure Machine Learning DataRobot MLOps
ASAP
75 - PARIS
86 mois
Voir la mission

Expert Dataviz / POWER BI

Microsoft Power BI SQL Azure Synapse Google Cloud Platform BigQuery
ASAP
94 - Charenton le Pont
6 mois
Voir la mission

Tech Lead Data Analyst

Business Objects Data Python Google Cloud Platform Databricks
ASAP
75 - PARIS
24 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data analyst BIGQUERY disponibles

CV Data Analyst
Mathon

Data Analyst

  • FACHES-THUMESNIL
BigQuery SQL Adobe Campaign
CV Chef de projets réglementaires | Product manager | PMO
Matthieu

Chef de projets réglementaires | Product manager | PMO

  • PARIS
Project Management Office Gestion multi-projets Agile Scrum MOA Bâle III Risques Data Jira SQL
CV Data Engineer DBT
Abdelkarim

Data Engineer DBT

  • CHEVILLY-LARUE
BigQuery Google Cloud Platform SQL Python Looker Marketing Automation
CV Data Analyst/Data Engineer
Mugisha Christian

Data Analyst/Data Engineer

  • VILLIERS-SUR-MARNE
SQL Agile Microsoft Power BI Tableau Software Microsoft Power Query Scrum BigQuery Google Cloud Platform Azure
CV Data Analyst / Scrum Master
Nawal

Data Analyst / Scrum Master

  • PARIS
Big Data TIBCO Spotfire Data Warehouse Business Objects Agile Scrum Microsoft Power BI Tableau Software Talend SQL Server Reporting Services
CV Data Engineer Semarchy
Ayoub

Data Engineer Semarchy

  • BOULOGNE-BILLANCOURT
Semarchy SQL Python Microsoft Power BI BigQuery Google Cloud Platform Snowflake
CV Expert Web Analyst
Mickael

Expert Web Analyst

  • PARIS
Google Analytics Google Tag Manager (GTM) Data SQL Excel
CV Data Engineer & Data Analyst
Amine

Data Engineer & Data Analyst

  • SARTROUVILLE
Talend SQL
Bientôt disponible
CV Data Engineer Senior / Data Architect
Ismail

Data Engineer Senior / Data Architect

  • PARIS
Data Science Python SQL Cloud AWS PySpark Git Microsoft Power BI LLM Docker Kubernetes BigQuery PostgreSQL MongoDB Data Lake Azure Google Cloud Platform Airflow HashiCorp Terraform Google Vertex AI Snowflake
Bientôt disponible
CV Data Analyst Google Cloud Platform
Ahmed Khalil

Data Analyst Google Cloud Platform

  • BAGNEUX
Excel Looker Airflow Google Cloud Platform Python Data SAS SQL BI Microsoft Power BI
Bientôt disponible
CV Machine Learning Engineer
Nelly

Machine Learning Engineer

  • PARIS
Python Docker SQL SAS CSS Google Cloud Platform HashiCorp Terraform Apache Kafka Apache Spark Github
Bientôt disponible
Je trouve mon freelance