Freelance BigQuery : Trouvez les compétences que vous recherchez

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé d'expériences de Ndèye Ndiémé,
freelance BIGQUERY résidant dans la Seine-Saint-Denis (93)

Expériences clés récentes.

L’oreal - L’Oréal France
Data Engineer
Contexte.
Dans le but de conduire et d’opérer la stratégie Business Intelligence du groupe L’Oréal, en tant que Data
engineer, je devais effectuer des transformations sur les Kpis et de déployer ses changements sur tous les
différents environnement après validation des tests
Responsabilité.
● Créer des pipelines de données avec la suite de Google Cloud Platform
● Travail en méthode agile
● Collaborer avec les data analystes, datascientists et le chef de projet
Livrables.
● Exposition de données transformées dans la couche use case
● Déploiement du travail jusqu’à l’environnement de production
● Récupération des données par les data analystes à des fins de dataviz sur Power BI
Environnement technique.
● BigQuery pour exécuter les requêtes SQL
● Cloud Tasks
● Cloud Build
● Docker
● Cloud Run
● Github
● Git
● Terraform
● SQL
● Workflows
● Pub/Sub
● Cloud scheduler
● Culture Devops
● Service Now

Antalis
Data Engineer
Contexte.
Mise en place d’un Data Lake dans GCP : BigQuery, un pont entre GA4 et Qlik Sense
Responsabilité.
● Créer de connecteur entre GA4 et BigQuery
● Créer la connexion entre Bigquery et Qlik Sense
● Effectuer certaines transformations sur les champs imbriqués et répétés spécifiques à
BigQuery pour rendre les données lisibles dans Qlik Sense
Livrables.
● Chargement des données GA4 à une fréquence quotidienne
● Chargement des données dans Qlik Sense
Environnement technique.
● BigQuery pour effectuer une transformation de données et les fusionner des différents
datasets sources
● Google Analytics, source de données
● Qlik Sense, Outil BI
L’Oréal France
Data Engineer
Contexte.
Dans le but de conduire et d’opérer la stratégie Business Intelligence du groupe L’Oréal, en tant que Data
engineer, je devais effectuer des transformations sur les Kpis et de déployer ses changements sur tous les
différents environnement après validation des tests
Responsabilité.
● Créer des pipelines de données avec la suite de Google Cloud Platform
● Travail en méthode agile
● Collaborer avec les data analystes, datascientists et le chef de projet
Livrables.
● Exposition de données transformées dans la couche use case
● Déploiement du travail jusqu’à l’environnement de production
● Récupération des données par les data analystes à des fins de dataviz sur Power BI
Environnement technique.
● BigQuery pour exécuter les requêtes SQL
● Cloud Tasks
● Cloud Build
● Docker
● Cloud Run
● Github
● Git
● Terraform
● SQL
● Workflows
● Pub/Sub
● Cloud scheduler
● Culture Devops
● Service Now

Antalis
Data Engineer
Contexte.
Mise en place d’un Data Lake dans GCP : BigQuery, un pont entre GA4 et Qlik Sense
Responsabilité.
● Créer de connecteur entre GA4 et BigQuery
● Créer la connexion entre Bigquery et Qlik Sense
● Effectuer certaines transformations sur les champs imbriqués et répétés spécifiques à
BigQuery pour rendre les données lisibles dans Qlik Sense
Livrables.
● Chargement des données GA4 à une fréquence quotidienne
● Chargement des données dans Qlik Sense
Environnement technique.
● BigQuery pour effectuer une transformation de données et les fusionner des différents
datasets sources
● Google Analytics, source de données
● Qlik Sense, Outil BI

Hivebrite
Data Engineer
Contexte.
Transformation de données avec DBT et BigQuery. Ces données devenues exploitables
sont exposées dans des dimensions et tables de faits dans BiqQuery puis sont utilisées
pour la visualisation avec Looker.
Responsabilité.
● Faire du data profiling, Extraire les données différentes APIs, charger les données dans le
datawarehouse BigQuery, faire des requêtes SQL
● Faire la phase de transformation grâce à DBT
● Exposer les dimensions et tables de de faits dans l'environnement de Prod
● Environnement technique.: DBT et BigQuery
Livrables.
● Description des livrables : code, documentation, revue de code
● Data Lineage grâce à DBT
● Développement du pipeline sous python
● Transformation de données SQL.
● Tests avec DBT

Moët Hennessy
Data engineer junior
Contexte.
Mise en place d’une consumer data platform (CDP)
Responsabilité.
● Récupérer les données à partir divers sources de données marketing
● Intégrer les données dans Bigquery et effectuer les transformations avec DBT
● Exposer les données dans la couche UC
Livrables.
● Description des livrables : code, documentation, revue de code
Environnement technique.
● Les premiers jalons du projet : récupérer les données facebook ads, google ads
et radarly et les rendre exploitables
● Fivetran/data transfer pour faire l’intégration des données dans Bigquery
● DBT pour transformer les données et les déplacer dans d’autres projets GCP

Croix Rouge
Data engineer - Business Intelligence
Contexte.
Mieux adapter l’accompagnement des personnes pendant la période de pandémie
grâce au dispositif “Croix Rouge Chez Vous”. “Croix Rouge Chez Vous” mis en place en
2020 consiste à venir en aide aux personnes ayant un besoin d’accompagnement
Responsabilité. ● Intégrer des données dans BigQuery à partir Cloud Storage
● Transformer les données et implémenter des KPIs
● Faire du reporting avec Datastudio
Livrables.
● Pipeline d’intégration des données dans BigQuery depuis Cloud Storage
● Données préparées
● Calcul de Kpis
● Création de reportings
Environnement technique.
● Développement du code avec python
● Déploiement de la solution dans GCP avec cloud scheduler, cloud Pub/Sub, Cloud
functions

Carrefour
Data Engineer
Contexte.
Mise en place de pipelines de données mutualisés pour le feature engineering des projets
de machine learning et business intelligence
Responsabilité.
● Faire du data wrangling, Extraire les données différentes APIs, charger les données dans
le datawarehouse BigQuery, faire des requêtes SQL
● Faire la phase de transformation (Feature Engineering) et de tests grâce à DBT
● Exposer les données dans l'environnement de Prod
● Faire de la CI/CD grâce aux outils de GCP (Sources Repository, Container Registry,
Cloud Build, Cloud Run), Créer des Pull Requests
● Planifier l'exécution d'un script python grâce à Cloud scheduler, Pub/Sub et Cloud
functions
Livrables.
● Description des livrables : code, documentation, revue de code
● Environnement technique.
● Développement du pipeline sous python
● Transformation de données avec Python et SQL.
● Outils GCP (cloud scheduler, cloud Pub/Sub, Cloud functions, Bigquery)
● Tests avec DBT

SODEXI
Data Analyst
Contexte.
Participer au cadrage et au suivi des études de la performance avec la collaboration des
responsables opérationnels
Responsabilité.
● Participer au cadrage et au suivi des études de la performance avec la collaboration des
responsables opérationnels
● Garantir la fiabilité, Automatiser les tâches récurrentes de reporting et d’intégration des
données dans l’outil de BI (SQL)
● Produire des rapports d'étude ou des tableaux de bord/Dashboard avec Power BI,
Collecter, Participer à la construction des systèmes de traitement de données robustes et
scalables, Formaliser et implémenter de nouveaux KPIs sur la base des besoins recueillis,
Développer un support de visualisation de données
Livrables.
● Données préparées
● Création de reportings avec Power BI
Environnement technique.
● Python pour effectuer le nettoyage de données et les fusionner des différents datasets
sources
● Power BI pour ressortir les Kpis afin de mesurer leur performance

Voir le profil complet de ce freelance

Les derniers freelances BigQuery

CV Expert Web Analyst
Mickael

Expert Web Analyst

  • PARIS
Google Analytics Google Tag Manager (GTM) Data SQL Excel
Disponible
CV Big Data Engineer & Mlops
Aina

Big Data Engineer & Mlops

  • CARRIÈRES-SOUS-POISSY
Data Big Data Python SQL PySpark Cloud AWS Google Cloud Platform Azure
Disponible
CV Data Scientist Python
Dorsaf

Data Scientist Python

  • LE PRÉ-SAINT-GERVAIS
Python SQL Data Apache Spark Google Cloud Platform Deep Learning Microsoft Azure Machine Learning Azure HashiCorp Terraform
Disponible
CV Data - Tech - Finance
Charles

Data - Tech - Finance

  • BOULOGNE-BILLANCOURT
Data SQL Python Scrum Jira Git Agile Finance Google Cloud Platform Microsoft Power BI
Disponible
CV Chef de projet AMOA
Djamila

Chef de projet AMOA

  • MONTREUIL
Agile Jira Maîtrise d'ouvrage SAP SAP MM Gestion multi-projets
Disponible
CV Administrateur Bases de Données Salesforce
Jorhan

Administrateur Bases de Données Salesforce

  • SERRIS
Salesforce
Disponible
CV Cloud Data Engineer
Yazid

Cloud Data Engineer

  • PARIS
Databricks Azure Google Cloud Platform Apache Spark Python Scala Big Data SQL Airflow Snowflake
Disponible
CV Business Analyst
Maxime

Business Analyst

  • VILLEJUIF
SQL Python Jira
CV Chef de projet data
Emmanuel Arthur

Chef de projet data

  • VERSAILLES
Microsoft Power BI SQL Qlik Sense Excel Jira Looker Tableau Dataiku Cloud AWS Snowflake
Disponible
CV Data Analyst
Soumia

Data Analyst

  • LIMAS
SQL Data Microsoft Power BI
Disponible
Je trouve mon freelance BigQuery

Les nouvelles missions BigQuery

📢 Offre de mission – Business Analyst SI Logistique / WMS – Oracle

Oracle OMS WMS TMS
ASAP
92 - MONTROUGE
86 mois
Voir la mission

Data Engineer(FT)

SQL Python HashiCorp Terraform Apache Spark BigQuery
ASAP
75 - PARIS
12 mois
Voir la mission

Data Architect

MDM Cloud AWS Google Cloud Platform
02/02/2026
Neuilly sur Seine
6 mois
Voir la mission

Développeur Java Spark Scala

Java Scala Apache Spark Adobe Spark
02/02/2026
75 - PARIS
12 mois
Voir la mission

Consultant Dataiku

SQL Data Python Dataiku
02/02/2026
75 - PARIS
12 mois
Voir la mission

Consultant Talend

SQL Data Talend Talend MDM Talend DI
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer

Data Python Apache Hadoop Apache Spark PySpark
ASAP
75 - PARIS
12 mois
Voir la mission

Data Analyst

SQL Excel Data Microsoft Power BI Dataiku
02/02/2026
75 - PARIS
12 mois
Voir la mission

Directeur / Directrice de Projets Data / Manager de Transition

Data Décisionnel Agile Management de transition Gestion multi-projets
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

🚀 Consultant Data Scientist / Machine Learning – Environnement GCP & MLOps

Big Data BigQuery Microsoft Azure Machine Learning DataRobot MLOps
ASAP
75 - PARIS
86 mois
Voir la mission
Je trouve ma mission BigQuery

Les freelances maîtrisant BigQuery ont postulé à :

Ingénieur Data Analyst / BI

SQL Python Grafana
ASAP
92 - CLICHY
12 mois
Voir la mission

Mission de mécénat de compétences – Programmateur Tag Manager & Google Analytics

Google Tag Manager (GTM) Google Analytics Google Ads
ASAP
Télétravail
1 jours ouvrés
Voir la mission

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Profil Data et BI

Data
ASAP
Genève
12 mois
Voir la mission

Consultant Data

Data
ASAP
75 - PARIS
6 mois
Voir la mission

Business Analyst – BI

SQL Data BI
ASAP
75 - PARIS
6 mois
Voir la mission

Data Analyst PowerBI

Google Cloud Platform Power BI
ASAP
59 - LILLE
3 mois
Voir la mission

Data Engineer GCP

GitLab Google Cloud Platform Looker
ASAP
91 - MASSY
3 mois
Voir la mission

Data Engineer

Python Microsoft Power BI Azure Data Factory Azure Synapse
ASAP
San Sebastian
24 mois
Voir la mission

Data engineer

Data
ASAP
75 - PARIS
5 mois
Voir la mission
Je trouve ma mission BigQuery