Freelance Google Cloud Platform : Choisissez les savoir-faire qui vous manquent

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Mohammed,
freelance GOOGLE CLOUD PLATFORM résidant dans le Val-d'Oise (95)

  • Lead Data Engineer

    Zodiac Maritime
    Jan 2022 - aujourd'hui

    ● Migration d'énormes volumes de données historiques d'Oracle 10 vers Azure SQL Database.
    ● Construire un entrepôt de données de classe mondiale dans Azure.
    ● Travailler avec des analystes commerciaux, le business et le directeur de programme pour créer une feuille de route de migration de notre base de données Oracle sur site vers Azure Cloud.
    ● Recodage des SQL volumineux et lents dans Oracle pour améliorer le traitement des données
    ● Construire des modèles de données efficaces, introduire des normes de développement de base de données, gérer l'architecture de données de bout en bout pour l'entrepôt de données afin de permettre une exécution optimale et rapide des pipelines de données de production.
    ● Approche DevOps préconisée et appliquée pour mettre en œuvre des pipelines d'intégration continue et de livraison continue (CI/CD).
    ● Intégrer les fonctionnalités techniques, assurer l'accessibilité, l'exactitude et la sécurité des données.

    _Oracle, Azure, Azure Data Factory, Azure DevOps, SQL, Docker, Terraform, JIRA, Git
  • Lead Data Engineer

    Zodiac Maritime
    Jan 2022 - aujourd'hui

    ● Migration d'énormes volumes de données historiques d'Oracle 10 vers Azure SQL Database.
    ● Construire un entrepôt de données de classe mondiale dans Azure.
    ● Travailler avec des analystes commerciaux, le business et le directeur de programme pour créer
    une feuille de route de migration de notre base de données Oracle sur site vers Azure Cloud.
    ● Recodage des SQL volumineux et lents dans Oracle pour améliorer le traitement des données
    ● Construire des modèles de données efficaces, introduire des normes de développement de base de
    données, gérer l'architecture de données de bout en bout pour l'entrepôt de données afin de
    permettre une exécution optimale et rapide des pipelines de données de production.
    ● Approche DevOps préconisée et appliquée pour mettre en œuvre des pipelines d'intégration
    continue et de livraison continue (CI/CD).
    ● Intégrer les fonctionnalités techniques, assurer l'accessibilité, l'exactitude et la sécurité des
    données.

    _Oracle, Azure, Azure Data Factory, Azure DevOps, SQL, Docker, Terraform, JIRA,Git
  • Lead Data Engineer & Architecte des données

    Huboo
    Jan 2022 - Jan 2022

    ● Utilisation d'une technologie de pointe sur AWS pour créer un entrepôt de données de classe mondiale dans Snowflake à partir de zéro.
    ● Travailler côte à côte avec des ingénieurs DevOps, des Data Scientists et des Software Engineers hautement qualifiés pour créer des produits et services de données puissants, améliorant ainsi l'expérience de nos clients.
    ● Travailler quotidiennement avec une grande base de code Python, trouvant des erreurs courantes et de mauvais modèles de données et les corrigeant.
    ● Rédaction de tests unitaires, d'intégration et de tests end to end.
    ● Recodage des tâches Pyspark volumineuses et lentes dans AWS Glue pour améliorer le traitement des données
    ● Effectuer des modélisations de données et des améliorations architecturales pour permettre une exécution optimale et rapide des pipelines de données de production.
    ● Approche DevOps préconisée et appliquée pour mettre en œuvre des pipelines d'intégration continue et de livraison continue (CI/CD).
    ● Gestion de l'architecture de données de bout en bout, depuis la sélection de la plate-forme et des outils, la conception de l'architecture technique et le développement de la solution jusqu'au test final de la solution.
    ● Développer et mettre en œuvre une stratégie globale de données organisationnelles qui est en ligne avec les processus d’entreprise. Cette stratégie comprend la conception de modèles de données, les normes de développement de bases de données, la mise en oeuvre et la gestion d'entrepôts de données et de systèmes d'analyse de données
    ● Intégrer les fonctionnalités techniques, assurer l'accessibilité, l'exactitude et la sécurité des données.

    _Python 3, AWS, Snowflake, PostgreSQL, Pyspark, ECS, Fargate, Azure DevOps, Airflow, Docker, Kubernetes, Terraform, JIRA, Git
  • Lead Data Engineer & Architecte des données

    Huboo
    Jan 2022 - Jan 2022

    ● Utilisation d'une technologie de pointe sur AWS pour créer un entrepôt de données de classe
    mondiale dans Snowflake à partir de zéro.
    ● Travailler côte à côte avec des ingénieurs DevOps, des Data Scientists et des Software Engineers
    hautement qualifiés pour créer des produits et services de données puissants, améliorant ainsi
    l'expérience de nos clients.
    ● Travailler quotidiennement avec une grande base de code Python, trouvant des erreurs courantes
    et de mauvais modèles de données et les corrigeant.
    ● Rédaction de tests unitaires, d'intégration et de tests end to end.
    ● Recodage des tâches Pyspark volumineuses et lentes dans AWS Glue pour améliorer le traitement
    des données
    ● Effectuer des modélisations de données et des améliorations architecturales pour permettre une
    exécution optimale et rapide des pipelines de données de production.
    ● Approche DevOps préconisée et appliquée pour mettre en œuvre des pipelines d'intégration
    continue et de livraison continue (CI/CD).
    ● Gestion de l'architecture de données de bout en bout, depuis la sélection de la plate-forme et des
    outils, la conception de l'architecture technique et le développement de la solution jusqu'au test final
    de la solution.
    ● Développer et mettre en œuvre une stratégie globale de données organisationnelles qui est en
    ligne avec les processus d’entreprise. Cette stratégie comprend la conception de modèles de
    données, les normes de développement de bases de données, la mise en oeuvre et la gestion
    d'entrepôts de données et de systèmes d'analyse de données
    ● Intégrer les fonctionnalités techniques, assurer l'accessibilité, l'exactitude et la sécurité des
    données.

    _Python 3, AWS, Snowflake, PostgreSQL, Pyspark, ECS, Fargate, Azure DevOps,Airflow, Docker, Kubernetes, Terraform, JIRA, Git
  • Sénior Data Engineer

    HSBC
    Jan 2021 - Jan 2022

    ● Utiliser des technologies de pointe sur GCP pour créer des pipelines de données de classe
    mondiale (en batch & en temps réel) et des services de données
    ● Construire et maintenir une plate-forme en libre-service pour aider les équipes de modélisation de
    données à être aussi autonomes que possible sans avoir à se soucier de l'infrastructure et du
    déploiement
    ● Travaillez côte à côte avec des ingénieurs DevOps, des ingénieurs ML, des Data Scientist et des
    Software Engineers hautement qualifiés pour créer des produits et services de données puissants
    (y compris MLOps) qui amélioreraient vraiment l'expérience de nos clients.
    ● Amélioration des services d'API backend.
    ● Travailler quotidiennement avec une grande base de code Python et Pyspark, trouvant des erreurs
    courantes et de mauvais modèles de données et les corrigeant.
    ● Fournir une architecture de solution dans GCP pour des projets à grande échelle utilisant à la fois le
    des processus de streaming et de batch (axé sur DataProc / Spark)
    ● Rédaction de tests unitaires, d'intégration et de tests de bout en bout.
    ● Extraire et ingérer des données à partir d'une grande variété d'API afin d'enrichir et de soutenir
    l'analyse interne.
    ● Effectuer des modélisations de données et des améliorations architecturales pour permettre une
    exécution optimale et rapide du pipeline de données de production afin de soutenir tous les
    aspects, de la stratégie d'entreprise à l'acquisition d'utilisateurs.
    ● Travailler avec les parties prenantes de l'entreprise en interne, y compris au plus haut niveau, pour
    planifier une feuille de route et conseiller sur la meilleure stratégie de solution cloud qui soit rentable
    et efficace.
    ● Suivre la méthodologie Agile Scrum pour travailler en étroite collaboration avec différentes équipes
    afin de réaliser des sprints dans une approche incrémentale et itérative.
    ● Approche DevOps préconisée et appliquée pour mettre en œuvre des pipelines d'intégration
    continue et de livraison continue (CI/CD).

    _Python 3, SwaggerUI, Google Cloud Platform, BigQuery, Pyspark, PostgreSQL, GCPDatastore, Airflow, Docker, Kubernetes, Terraform, Ansible, JIRA, Git
  • Sénior Data Engineer

    Epidemic Sound
    Jan 2020 - Jan 2021

    ● Travailler avec les parties prenantes de l'entreprise en interne et concevoir des modèles de
    données pour soutenir quantitativement tout ce qui va de la stratégie d'entreprise à l'acquisition
    d'utilisateurs.
    ● Modélisation des entrepôts de données et des marts de données et amélioration de l'architecture
    des données pour permettre une exécution optimale et rapide du pipeline de données de
    production.
    ● Construire et concevoir des sources de données robustes et efficaces pour permettre une
    extraction rapide et efficace des données pour l'analyse, les rapports et les tableaux de bord
    ● Configurer et créer des outils d'analyse, à la fois via des logiciels développés en interne et sur
    Google Cloud Platform.
    ● Agir en tant que partie prenante et collaborer avec les équipes d'ingénieurs pour mettre en place
    l'infrastructure et le suivi nécessaires.
    ● Collaborer avec des Data Scientists, des analystes et des ingénieurs ML pour produire des
    solutions qui mettre à jour le business.
    ● Maintenir des normes élevées de qualité logicielle et SRE au sein de l'équipe en établissant de
    bonnes pratiques et habitudes.

    _Python 3, PostgreSQL, Google Cloud Platform, BigQuery, Dataflow, Airflow, Docker,Kubernetes, Terraform, Data Studio, JIRA, Co__
Voir le profil complet de ce freelance

Les derniers freelances Google Cloud Platform

CV Data Engineer Google Cloud Platform
Canh Hieu

Data Engineer Google Cloud Platform

  • HOUILLES
Google Cloud Platform Python PySpark Apache Hadoop Airflow SQL
Disponible
CV Data Scientist Python
Yann Junior

Data Scientist Python

  • CRÉTEIL
Python Data SQL Apache Spark Cloud AWS PySpark Snowflake DevOps Google Cloud Platform
Disponible
CV Chef de projet digital SQL
Ludovic

Chef de projet digital SQL

  • COLOMBES
SQL Agile Maîtrise d'ouvrage MOA (Maîtrise d'ouvrage) Jira
Disponible
CV Developpeur FullStack JAVA / Next / React
Hichame

Developpeur FullStack JAVA / Next / React

  • LILLE
HTML CSS JavaScript Java React.js Spring Boot Next.js
Disponible
CV Data Scientist
Kamal

Data Scientist

  • LYON
Microsoft Power BI Python SQL Data Science Google Cloud Platform PySpark
Bientôt disponible
CV Développeur senior Angular
Mehdi

Développeur senior Angular

  • BORDEAUX
AngularJS
Disponible
CV Data Engineer SQL
Abdoul

Data Engineer SQL

  • BUSSY-SAINT-GEORGES
SQL Python Microsoft Power BI Data Big Data SQL Server Excel Google Cloud Platform
Disponible
CV Data Scientist/Data Engineer
Soukaina

Data Scientist/Data Engineer

  • LILLE
SQL Server Data Science Python Microsoft Power BI Google Cloud Platform LLM SQL Talend Docker Apache Spark
Disponible
CV Solution & Cloud Architect
Stieve

Solution & Cloud Architect

  • MONTMAGNY
Amazon AWS Cloud AWS Windows Google Cloud Platform HashiCorp Terraform DevOps
Disponible
CV Développeur / techlead
Damien

Développeur / techlead

  • NOISY-LE-SEC
Java PHP Python Kotlin SQL Oracle
Disponible
Je trouve mon freelance Google Cloud Platform

Les nouvelles missions Google Cloud Platform

Administrateur Exchange PowerShell

Exchange PowerShell Google Cloud Platform
15/12/2025
Télétravail
6 mois
Voir la mission

Pilote SRE Transverse

Google Cloud Platform Kubernetes
ASAP
59 - RONCHIN
3 mois
Voir la mission

Ingénieur de production

Windows Azure Control-M Google Cloud Platform ITIL
10/12/2025
45 - Orléans
3 mois
Voir la mission

Chef de Projet Data GCP

Google Cloud Platform BigQuery SQL
01/01/2026
75 - PARIS
12 mois
Voir la mission

Technicien Support GCP

Google Cloud Security Command Center Google Cloud Platform Github
ASAP
31 - Toulouse
3 mois
Voir la mission

Ingénieur de production GCP

Google Cloud Platform
ASAP
94200 - Charenton
12 mois
Voir la mission

Ingénieur Google Workspace H/F

Google Cloud Platform
ASAP
79 - NIORT
12 mois
Voir la mission

Administrateur Google Workspace H/F/X

SMTP GOOGLE APPS SCRIPT Google Cloud Platform
ASAP
79 - NIORT
12 mois
Voir la mission

Administrateur Google Workspace

G SUITE
ASAP
79 - Niort
3 mois
Voir la mission

Développeur Logiciel – Tech Lead JAVA Senior

Java REST Vue.js Google Cloud Platform Cypress
ASAP
26 - VALENCE
12 mois
Voir la mission
Je trouve ma mission Google Cloud Platform

Les freelances maîtrisant Google Cloud Platform ont postulé à :

Data Engineer

SQL Data Python Git PySpark
15/12/2025
92 - COURBEVOIE
12 mois
Voir la mission

Développeur Python/SQL/JAVA

Python SQL Java
05/01/2026
69 - Lyon
12 mois
Voir la mission

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Profil Data et BI

Data
ASAP
Genève
12 mois
Voir la mission

Consultant Data

Data
ASAP
75 - PARIS
6 mois
Voir la mission

Cloud Operation Engineer (Confirmé)

SQL Server VMware Azure Ansible Cloud AWS
ASAP
92 - BOULOGNE-BILLANCOURT
24 mois
Voir la mission

Data Analyst PowerBI

Google Cloud Platform Power BI
ASAP
59 - LILLE
3 mois
Voir la mission

Développeur Data / BI (H/F)

SQL Data Azure Azure Data Factory Power BI
ASAP
31 - TOULOUSE
6 mois
Voir la mission

Data Engineer GCP

GitLab Google Cloud Platform Looker
ASAP
91 - MASSY
3 mois
Voir la mission

Data Engineer

Python Microsoft Power BI Azure Data Factory Azure Synapse
ASAP
San Sebastian
24 mois
Voir la mission
Je trouve ma mission Google Cloud Platform