Missions BigQuery : Trouvez votre prochain emploi indépendant

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions BigQuery à pourvoir

🚀 Consultant Data Scientist / Machine Learning – Environnement GCP & MLOps

Big Data BigQuery Microsoft Azure Machine Learning DataRobot MLOps
ASAP
75 - PARIS
86 mois
Voir la mission

Chef de Projet Data GCP

Google Cloud Platform BigQuery SQL
01/01/2026
75 - PARIS
12 mois
Voir la mission

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Data Engineer GCP

GitLab Google Cloud Platform Looker
ASAP
91 - MASSY
3 mois
Voir la mission

TechLead Data

Google Cloud Platform BigQuery Tableau Kafka
ASAP
79 - NIORT
6 mois
Voir la mission

Ingénieur DevOps, DevSecOps et Cloud

HashiCorp Terraform DevOps Kubernetes Google Cloud Platform DevSecOps
ASAP
44 - NANTES
12 mois
Voir la mission

Chef(fe) de projet / Senior Business Analyst – cas d'usage data client et produits

SQL Data Décisionnel Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Chef(fe) de projet ou Senior Business Analyst Data - collecte et intégration de données

SQL Data Décisionnel Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Devops cloud GCP

Google Cloud Platform DevOps HashiCorp Terraform
ASAP
92000 - Nanterre
12 mois
Voir la mission

Expert GCP Cloud

Google Cloud Platform
ASAP
92000 - Nanterre
12 mois
Voir la mission
Je trouve ma mission BigQuery

Les intervenants BigQuery ont aussi candidaté à :

Data Engineer

SQL Data Python Git PySpark
15/12/2025
92 - COURBEVOIE
12 mois
Voir la mission

Data Analyst PowerBI

Google Cloud Platform Power BI
ASAP
59 - LILLE
3 mois
Voir la mission

Data Engineer

Python Microsoft Power BI Azure Data Factory Azure Synapse
ASAP
San Sebastian
24 mois
Voir la mission

Data engineer

Data
ASAP
75 - PARIS
5 mois
Voir la mission

Data Ops/ Data Ingénieur

GitLab HashiCorp Terraform Docker Google Cloud Platform Airflow
ASAP
75 - PARIS
12 mois
Voir la mission

Business Analyst

SQL Excel Reporting Services Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Architecte Solution Cloud, Data et IA

Data DevOps Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

DATA ENGINEER

Python Git Django Docker Python (Pandas, NumPy)
ASAP
75 - PARIS
12 mois
Voir la mission

DevOps AWS Migration

HashiCorp Terraform Cloud AWS Data Docker BDD
ASAP
92 - PUTEAUX
12 mois
Voir la mission

Data engineer

SQL Python Amazon AWS Apache Spark
ASAP
91 - MASSY
3 mois
Voir la mission
Je trouve ma mission BigQuery
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences d'Ahmed Khalil,
freelance BIGQUERY résidant dans les Hauts-de-Seine (92)

Data Analyst / Data Engineer, 07/2023 - Actuel
Carrefour Banque - Paris
Analyse des Données et Visualisation
Consolidation des données :
Centralisation des données issues de diverses sources dans BigQuery.
Création de tableaux de bord interactifs sur Looker Studio :
Suivi des performances des collaborateurs.
Analyse des stocks liés à l'octroi et suivi en temps réel de l'évolution des dossiers d'octroi depuis le Web.
Visualisation et suivi des performances des campagnes Web via les UTM :
- Centralisation des données en temps réel dans BigQuery.
- Conception d'une vue permettant de visualiser les étapes clés d'une demande via les UTM.
- Comparaison des performances des différentes campagnes.
Suivi des dossiers à chaque étape du processus de recouvrement.
Évaluation des performances individuelles des équipes.
Le suivi des logs d'ingestion et d'implémentation des tables dans bigQuery.
Data Engineering
Gestion des ingestions journalières des données :
Automatisation des processus d'intégration et d'envoi des données entre Google Drive et BigQuery (et
inversement).
Mise en place de logs détaillés pour assurer un suivi précis étape par étape via un socle d'ingestion.
Logging des DAGs et suivi des ingestion quotidienne.
Conception et déploiement de DAGs pour la consolidation et l'automatisation de l'ingestion des données
depuis Google Cloud Storage.
Déploiement de workflows robustes pour la gestion des données.
Transition des DAGs d'Airflow 1 vers Airflow 2 (Google Composer).
Stream Ingestion des données en temps réel dans BigQuery.
PROFIL PROFESSIONNEL
COMPÉTENCES
PARCOURS PROFESSIONNEL
Environment Technique : GCP, Cloud Composer, Google Analytics, Cloud Storage, Looker Studio,
Python, Airflow, BigQuery, Cloud Functions, GitLab, Pub/Sub,
Data scientist , 02/2022 - 06/2023
Better & Stronger
Mise en place de plan de taggage des sites: Google Tag Manager.
Visualisation et analyse des données : Google Analytics : GAU, GA4 et Looker Studio.
Automatisation de création des dashboards:
* Collect des données via les API (Python): Facebook, Instagram, Google Ads, Twitter, Amazon, Pinterest ..
* Structuration et centralisation des données dans Google Bigquery: CRM + Plateform.
* Manipulation et nettoyage des données: Python ou Google Bigquery.
* Automatisation des dashboards : Looker studio
Implementation des solutions Google: Enhanced Conversions, Consent Mode
Implementation des bandeaux de cookies et adaptation des trigger GTM.
Création des segments de clients selon les besoins, (Google Bigquery).
Automatisation de ciblage.
Création d'une infrastructure data automatisé: Bigquery, Google Cloud Platform
Environnement technique : Google Analytics (V3, V4) · Google Cloud Platform (GCP) · Google
BigQuery · Google Looker Studio · Google Tag Manager · Ads plateformes · Python (langage de
programmation), Hubspot, sage, Salesforce.
Data scientist, 06/2021 - 09/2021
ENEDIS
Détection d'anomalies sur la consommation électrique des points de livraison
Prédiction des courbes de charges
Analyse préalable et nettoyage des données
Etude des séries temporelles de consommation
Évaluation des fonctionnalités, de la forme et de la facilité d'utilisation de logiciels.
Travaux de recherche sur de nouveaux modèles non supervisés applicables
Débogage de code et recherche des principales causes des problèmes grâce à la consultation des fichiers et
journaux de configuration.
Environnement technique : Python, Gitlab, MangoDB, TensorFlow/Keras, Docker
Data scientist, 03/2020 - 08/2020
Quantylix
Backtesting des modèles internes de notation
Création d'une application shiny
Automatisation du processus de backtesting
Production de reporting de suivi des modèles de notation
Modélisation de la probabilité de défaut
Vérification de la qualité de données (Data Quality Check)
Évaluation des fonctionnalités, de la forme et de la facilité d'utilisation de logiciels.
Environnement technique : R, Excel, Rshiny
Data Analyst, 04/2019 - 10/2019
Université de technologie de Troyes-France Troyes
Valuation de la performance des lignes de productions
Modélisation de la productivité des lignes de production en séries
Compréhension et anticipation des tendances dans le domaine d'expertise
Conception et lancement d'une solution innovante d'intelligence artificielle pour estimer la performance
Simulation de scénarios de productions en séries
Benchmarking entre les modèles
Environnement technique : R, Lingo

Voir le profil complet de ce freelance