Freelance BigQuery : Recevez facilement les meilleurs CV

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu d'expériences de Ndèye Ndiémé,
freelance BIGQUERY habitant la Seine-Saint-Denis (93)

  • Data Engineer

    L’oreal - L’Oréal France
    aujourd'hui

    Contexte.
    Dans le but de conduire et d’opérer la stratégie Business Intelligence du groupe L’Oréal, en tant que Data
    engineer, je devais effectuer des transformations sur les Kpis et de déployer ses changements sur tous les
    différents environnement après validation des tests
    Responsabilité.
    ● Créer des pipelines de données avec la suite de Google Cloud Platform
    ● Travail en méthode agile
    ● Collaborer avec les data analystes, datascientists et le chef de projet
    Livrables.
    ● Exposition de données transformées dans la couche use case
    ● Déploiement du travail jusqu’à l’environnement de production
    ● Récupération des données par les data analystes à des fins de dataviz sur Power BI

    Environnement technique. ● BigQuery pour exécuter les requêtes SQL ● Cloud Tasks ● Cloud Build ● Docker ● Cloud Run ● Github ● Git ● Terraform ● SQL ● Workflows ● Pub/Sub ● Cloud scheduler ● Culture Devops ● Service Now
  • Data Engineer

    Antalis
    aujourd'hui

    Contexte.
    Mise en place d’un Data Lake dans GCP : BigQuery, un pont entre GA4 et Qlik Sense
    Responsabilité.
    ● Créer de connecteur entre GA4 et BigQuery
    ● Créer la connexion entre Bigquery et Qlik Sense
    ● Effectuer certaines transformations sur les champs imbriqués et répétés spécifiques à
    BigQuery pour rendre les données lisibles dans Qlik Sense
    Livrables.
    ● Chargement des données GA4 à une fréquence quotidienne
    ● Chargement des données dans Qlik Sense

    Environnement technique. ● BigQuery pour effectuer une transformation de données et les fusionner des différents datasets sources ● Google Analytics, source de données ● Qlik Sense, Outil BI
  • Data Engineer

    L’Oréal France
    aujourd'hui

    Contexte.
    Dans le but de conduire et d’opérer la stratégie Business Intelligence du groupe L’Oréal, en tant que Data
    engineer, je devais effectuer des transformations sur les Kpis et de déployer ses changements sur tous les
    différents environnement après validation des tests
    Responsabilité.
    ● Créer des pipelines de données avec la suite de Google Cloud Platform
    ● Travail en méthode agile
    ● Collaborer avec les data analystes, datascientists et le chef de projet
    Livrables.
    ● Exposition de données transformées dans la couche use case
    ● Déploiement du travail jusqu’à l’environnement de production
    ● Récupération des données par les data analystes à des fins de dataviz sur Power BI

    Environnement technique. ● BigQuery pour exécuter les requêtes SQL ● Cloud Tasks ● Cloud Build ● Docker ● Cloud Run ● Github ● Git ● Terraform ● SQL ● Workflows ● Pub/Sub ● Cloud scheduler ● Culture Devops ● Service Now
  • Data Engineer

    Antalis
    aujourd'hui

    Contexte.
    Mise en place d’un Data Lake dans GCP : BigQuery, un pont entre GA4 et Qlik Sense
    Responsabilité.
    ● Créer de connecteur entre GA4 et BigQuery
    ● Créer la connexion entre Bigquery et Qlik Sense
    ● Effectuer certaines transformations sur les champs imbriqués et répétés spécifiques à
    BigQuery pour rendre les données lisibles dans Qlik Sense
    Livrables.
    ● Chargement des données GA4 à une fréquence quotidienne
    ● Chargement des données dans Qlik Sense

    Environnement technique. ● BigQuery pour effectuer une transformation de données et les fusionner des différents datasets sources ● Google Analytics, source de données ● Qlik Sense, Outil BI
  • Data Engineer

    Hivebrite
    aujourd'hui

    Contexte.
    Transformation de données avec DBT et BigQuery. Ces données devenues exploitables
    sont exposées dans des dimensions et tables de faits dans BiqQuery puis sont utilisées
    pour la visualisation avec Looker.
    Responsabilité.
    ● Faire du data profiling, Extraire les données différentes APIs, charger les données dans le
    datawarehouse BigQuery, faire des requêtes SQL
    ● Faire la phase de transformation grâce à DBT
    ● Exposer les dimensions et tables de de faits dans l'environnement de Prod

    ● Environnement technique.: DBT et BigQuery Livrables. ● Description des livrables : code, documentation, revue de code ● Data Lineage grâce à DBT ● Développement du pipeline sous python ● Transformation de données SQL. ● Tests avec DBT
  • Data engineer junior

    Moët Hennessy
    aujourd'hui

    Contexte.
    Mise en place d’une consumer data platform (CDP)
    Responsabilité.
    ● Récupérer les données à partir divers sources de données marketing
    ● Intégrer les données dans Bigquery et effectuer les transformations avec DBT
    ● Exposer les données dans la couche UC
    Livrables.
    ● Description des livrables : code, documentation, revue de code

    Environnement technique. ● Les premiers jalons du projet : récupérer les données facebook ads, google ads et radarly et les rendre exploitables ● Fivetran/data transfer pour faire l’intégration des données dans Bigquery ● DBT pour transformer les données et les déplacer dans d’autres projets GCP
  • Data engineer - Business Intelligence

    Croix Rouge
    aujourd'hui

    Contexte.
    Mieux adapter l’accompagnement des personnes pendant la période de pandémie
    grâce au dispositif “Croix Rouge Chez Vous”. “Croix Rouge Chez Vous” mis en place en
    2020 consiste à venir en aide aux personnes ayant un besoin d’accompagnement
    Responsabilité. ● Intégrer des données dans BigQuery à partir Cloud Storage
    ● Transformer les données et implémenter des KPIs
    ● Faire du reporting avec Datastudio
    Livrables.
    ● Pipeline d’intégration des données dans BigQuery depuis Cloud Storage
    ● Données préparées
    ● Calcul de Kpis
    ● Création de reportings

    Environnement technique. ● Développement du code avec python ● Déploiement de la solution dans GCP avec cloud scheduler, cloud Pub/Sub, Cloud functions
  • Data Engineer

    Carrefour
    aujourd'hui

    Contexte.
    Mise en place de pipelines de données mutualisés pour le feature engineering des projets
    de machine learning et business intelligence
    Responsabilité.
    ● Faire du data wrangling, Extraire les données différentes APIs, charger les données dans
    le datawarehouse BigQuery, faire des requêtes SQL
    ● Faire la phase de transformation (Feature Engineering) et de tests grâce à DBT
    ● Exposer les données dans l'environnement de Prod
    ● Faire de la CI/CD grâce aux outils de GCP (Sources Repository, Container Registry,
    Cloud Build, Cloud Run), Créer des Pull Requests
    ● Planifier l'exécution d'un script python grâce à Cloud scheduler, Pub/Sub et Cloud
    functions
    Livrables.
    ● Description des livrables : code, documentation, revue de code
    ● Environnement technique.
    ● Développement du pipeline sous python
    ● Transformation de données avec Python et SQL.
    ● Outils GCP (cloud scheduler, cloud Pub/Sub, Cloud functions, Bigquery)
    ● Tests avec DBT

  • Data Analyst

    SODEXI
    aujourd'hui

    Contexte.
    Participer au cadrage et au suivi des études de la performance avec la collaboration des
    responsables opérationnels
    Responsabilité.
    ● Participer au cadrage et au suivi des études de la performance avec la collaboration des
    responsables opérationnels
    ● Garantir la fiabilité, Automatiser les tâches récurrentes de reporting et d’intégration des
    données dans l’outil de BI (SQL)
    ● Produire des rapports d'étude ou des tableaux de bord/Dashboard avec Power BI,
    Collecter, Participer à la construction des systèmes de traitement de données robustes et
    scalables, Formaliser et implémenter de nouveaux KPIs sur la base des besoins recueillis,
    Développer un support de visualisation de données
    Livrables.
    ● Données préparées
    ● Création de reportings avec Power BI

    Environnement technique. ● Python pour effectuer le nettoyage de données et les fusionner des différents datasets sources ● Power BI pour ressortir les Kpis afin de mesurer leur performance
Voir le profil complet de ce freelance

Les derniers freelances BigQuery

CV Data Scientist Python
Matthieu

Data Scientist Python

  • CHÂTILLON
Python SQL Google Cloud Platform Data BigQuery Git Airflow Databricks R Google Vertex AI GitLab Docker Tableau Looker Microsoft Power BI
Disponible
CV Data Scientist Python
Yacine

Data Scientist Python

  • VILLEPARISIS
Python SQL Data Azure Google Cloud Platform Dataiku BigQuery Microsoft Power BI LLM
Disponible
CV Data Analyst Spécialisé en Impact Métier
Shreeraj

Data Analyst Spécialisé en Impact Métier

  • VITRY-SUR-SEINE
Excel Tableau Software SQL Python Google Cloud Platform Power BI Azure BigQuery Dataiku
Disponible
CV Data Scientist Python
Alhassane

Data Scientist Python

  • VILLEJUIF
Python SQL Microsoft Power BI
Disponible
CV Data Analyst SQL
Nassim

Data Analyst SQL

  • SAINT-SAULVE
SQL Data Microsoft Power BI Excel Big Data Google Cloud Platform Tableau
Disponible
CV Data Engineer Power BI
Kang

Data Engineer Power BI

  • VINCENNES
Power BI SQL Python Data Apache Spark BigQuery Google Cloud Platform PySpark Pandas
Disponible
CV Lead développeur CI/CD
Paul

Lead développeur CI/CD

  • MONTPELLIER
iOS CI/CD SWIFT Objective-C iOS SDK SDK
Disponible
CV Data Engineer Data
Quentin

Data Engineer Data

  • VILLEURBANNE
Data Apache Spark Airflow SQL Angular R Python Scala Java PostgreSQL Elasticsearch TypeScript Spring Apache Hadoop Cloud AWS Google Cloud Platform Apache Kafka
Disponible
CV Architecte d'entreprise
Yassine

Architecte d'entreprise

  • CROISSY-SUR-SEINE
Data TOGAF Enterprise Architect Stratégie d'entreprise ArchiMate
Disponible
CV Data Analyst SQL
Oussema

Data Analyst SQL

  • PARIS
SQL Microsoft Power BI Power BI Google Cloud Platform Python SSIS SSAS Azure
Disponible
Je trouve mon freelance BigQuery

Les nouvelles missions BigQuery

Digital Data Engineer

Looker BigQuery Google Tag Manager (GTM)
18/05/2026
79 - NIORT
3 mois
Voir la mission

Datas & AdTech developper

Github BigQuery
01/06/2026
35 - RENNES
12 mois
Voir la mission

Expert en IA & Data Science

Python Cloud AWS RGPD PySpark TensorFlow
01/06/2026
75 - PARIS
3 mois
Voir la mission

Tech Lead Data / GCP / DBT (H/F) – Contexte Grand Compte

Data Google Cloud Platform
04/05/2026
79 - NIORT
6 mois
Voir la mission

MLOps Engineer Senior

Python HashiCorp Terraform Kubernetes MLflow Kubeflow
ASAP
91 - MASSY
13 mois
Voir la mission

Business Analyst Data

SQL Teradata Jira Google Cloud Platform
ASAP
95 - ROISSY-EN-FRANCE
12 mois
Voir la mission

Sr. Data Platform Engineer

SQL Python Google Cloud Platform BigQuery Airflow
ASAP
75 - PARIS
12 mois
Voir la mission

Directeur / Directrice de Projets Data / Manager de Transition

Data Décisionnel Agile Management de transition Gestion multi-projets
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Expert Cloud Data/IA AWS/GCP

Amazon AWS Google Cloud Platform Data
01/06/2026
92 - Colombes
6 mois
Voir la mission
Je trouve ma mission BigQuery

Les freelances maîtrisant BigQuery ont postulé à :

Consultant Junior/confirmé DataScience DataEng.

SQL Python Apache Spark Microsoft Power BI Google Cloud Platform
ASAP
75 - PARIS
6 mois
Voir la mission

Data Analyst Tableau / Power BI

Tableau Power BI
ASAP
92 - LA GARENNE-COLOMBES
9 mois
Voir la mission

Test Lead DATA

Data
ASAP
93 - SAINT-DENIS
12 mois
Voir la mission

Data Analyst

SQL Python Dataviz PySpark Power BI
ASAP
33 - BORDEAUX
12 mois
Voir la mission

Data analyst Tableau Software - Secteur automobile

Microsoft Power BI Power BI Gestion multi-projets
ASAP
75 - PARIS
12 mois
Voir la mission

Consultant Décisionnel /BI

SAP Oracle BI Power BI
ASAP
75 - PARIS
12 mois
Voir la mission

Senior AI Systems Engineer

Python
ASAP
75 - PARIS
4 mois
Voir la mission

BI Analyst – Power BI - Bruxelles

SQL Power BI
ASAP
Bruxelles (Belgique)
12 mois
Voir la mission

Mécénat de compétences

Microsoft Power BI Power BI
ASAP
Télétravail
1 mois
Voir la mission

DATA ANALYST SENIOR H/F - RENNES

SQL SQL Server Data Microsoft Power BI
ASAP
35 - RENNES
3 mois
Voir la mission
Je trouve ma mission BigQuery