CV Google Cloud Platform : Sélectionnez facilement les meilleurs profils

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Google Cloud Platform connectés

CV Technical Account Manager | Data Analyst | Data Engineer | Data Architecte
Thomas

Technical Account Manager | Data Analyst | Data Engineer | Data Architecte

  • PARIS
Jira ITIL Confluence Python Data SQL Agile Azure Cloud AWS Kubernetes
CV Chef de projet digital Microsoft Power BI
Cleeve

Chef de projet digital Microsoft Power BI

  • SAINT-OUEN
Microsoft Power BI Jira Agile SAFe Google Cloud Platform Python SQL PRINCE2
Bientôt disponible
CV Release Manager / Consultant BI
Abdelilah

Release Manager / Consultant BI

  • NANTES
SQL Microsoft Power BI SAP BO Informatica Tableau Software Teradata Google Cloud Platform Azure Amazon AWS
Bientôt disponible
CV Développeur RUBY
Fahadi

Développeur RUBY

  • VANVES
Ruby on Rails Postman GOOGLE APP ENGINE Next.js
Disponible
CV Développeur spécialisé e-commerce
Fx

Développeur spécialisé e-commerce

  • NIVILLAC
Magento Shopify PHP Ruby Ruby on Rails Amazon AWS Google Cloud Platform Node.js Azure
Bientôt disponible
CV Consultant technique C++
Lionel

Consultant technique C++

  • SAINTE-ANNE
RS485 C++ C Systèmes embarqués IoT Google Cloud Platform BLUETOOTH TCP / IP Python Banc de test
CV CTO
Loïc

CTO

  • roncq
JavaScript REST Node.js TypeScript Google Cloud Platform GitLab MongoDB Vue.js Scrum
Bientôt disponible
CV Data Scientist SQL
Charlotte

Data Scientist SQL

  • CERGY
Dataiku SQL Python GitLab Google Cloud Platform Microsoft Power BI Cloud AWS Docker Kubernetes Azure
Disponible
CV Technical Lead, Architecte
Mohamed

Technical Lead, Architecte

  • LES MUREAUX
PHP Symfony Google Cloud Platform Node.js React.js Angular MySQL Docker Kubernetes Flutter
CV Architecte AZURE
Karim

Architecte AZURE

  • Courbevoie
Azure
Je trouve un CV Google Cloud Platform
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu d'expériences de Mohamed,
freelance GOOGLE CLOUD PLATFORM habitant les Hauts-de-Seine (92)

  • - Lead Tech / Data Architect

    Carrefour
    Jan 2022 - Jan 2023

    // Contexte :
    L’équipe Finance de Carrefour souhaite créer un datalake afin de centraliser et harmoniser les données issues de
    plusieurs pays et systèmes sources.
    // Rôle :
    • Gérer le backlog et les priorités techniques de l’équipe.
    • Coordination avec 8 pays pour le sourcing des données locales.
    • Cadrer et former une équipe de 3 développeurs et 2 data analysts.
    • Définir l’architecture cible sur GCP.
    • Participation aux sujets techniques transverses de l’équipe Links.
    • Implémentation et développement des différentes briques techniques.
    // Réalisations :
    • Développement des services d’extraction, chargement, transformation et exposition des données.
    • Développer l’architecture réseaux pour se connecter aux différents systèmes locaux.
    • Conception et développement de la chaîne de CICD.
    • Mettre en place deux solutions de monitoring et d’alerting.
    • Déploiement de la solution en PROD.

    // Environnement technique : //Google Cloud Platform, Bigquery, EventArc, Cloud Run, FastAPI, NodeJS, OpenAI, Pubsub, Cloud Datafusion, Cloud Workflows, SAP SLT, SAP DI, DBT //Gitlab, CloudBuild, Terragrunt, Terraform, Terratest // Interconnect, Cloud VPN, Shared VPC, VPC peering
  • Lead Data Engineer

    Servier -
    Jan 2020 - aujourd'hui

    // Contexte :
    Servier souhaite développer une data platforme sur GCP pour centraliser les différents flux de données et alimenter des
    cas d’usage de dashboarding et ML.
    // Rôle :
    • Cadrer et former une équipe de 6 développeurs et 5 data analysts.
    • Design et conception de l’architecture de la dataplateforme sur GCP.
    • Coordinations avec les équipes de sécurité et de qualité pour s’assurer que la solution est compliant avec les normes
    internes de l’entreprise.
    • Coordination avec les solutions owners de chaque source de données pour définir les contraintes sur les données.
    • Implémentation et développement des services de la data plateforme.
    // Réalisations :
    • Développement des services de la data plateforme: config management, data collection, data quality, data
    transformation, data exposition.
    • Conception et développement de la chaîne de CICD
    • Connecter les sources de données aux dashboards POWERBI.
    • Déploiement de la solution en PROD.

    // Environnement technique : //Google Cloud Platform, Argo, Docker, Kubernetes ,Cloud Run, python, CloudBuild, Terraform //Bigquery, Cloud SQL, PubSub
  • ML Engineer

    L’Oréal -
    Jan 2020 - Jan 2020

    // Contexte :
    L’Oréal souhaite développer un dashboard pour suivre les tendances des marques sur les réseaux sociaux.
    // Rôle :
    • Design et conception du backend data du dashboard.
    • Conception des modèles de données.
    // Réalisations :
    • Automatisation des pipelines de collecte , de transformation et d’ingestion des données non structurées.
    • Développement d’un modèle ML permettant d’analyser les sentiments sur les posts des réseaux sociaux .

    // Environnement technique : Google Cloud Platform, Airflow, Docker, FastAPI 2, Fastext, AI Platform, SQL Alchemy, , Linux, python,Azure Devops, Terraform
  • Data Engineer Senior

    L’Oréal -
    Jan 2020 - Jan 2020

    // Contexte :
    L’Oréal souhaite une solution cloud pour centraliser les différents flux de données présents et les mettre à disposition aux
    cas d’usage IA.
    // Rôle :
    • Design et conception de l’architecture cible de la data plateforme.
    • Coordinations avec les owners de chaque data source pour définir le mode d’ingestion et d’exposition des données.
    • Coordinations avec l’équipe de sécurité pour définir les contraintes de sécurité et valider les solutions proposées.
    • Coordination avec les managers des uses cases ML pour cadrer leurs besoins en data.
    • Implémentation et développement des services de la data plateforme.
    // Réalisations :
    • Développement des services de la data plateforme; config management, data collection, data quality, data
    transformation, data exposition, automatisation de l’infrastructure, data cataloging, data gouvernance as code.
    • Conception et implémentation des APIs pour exposer les données.
    • Mise en place de la CICD.

    // Environnement technique : Google Cloud Platform, Airflow, Docker, Kubernetes, Cloud Run, APIGEE, Linux, Python, Azure Devops, Terraform
  • Carrefour - ML Engineer

    Jan 2019 - Jan 2020

    // Contexte :
    Carrefour souhaite améliorer son système de détection de ruptures des produits dans les magasins en utilisant l’IA.
    // Rôle :
    • Workshop d’analyse des besoins des données et cadrage du kick-off technique de la solution.
    • Design et conception de l’architecture cible de la solution.
    • Contribution à la définition du modèle ML et la partie de features engineering.
    • Mise en place et suivi des normes et des best-practices du code au sein de l’équipe.
    // Réalisations :
    • Développement d’une couche de collecte des données on-premises (Oracle, SFTP) et Cloud.
    • Développement et automatisation des pipelines d’ingestion, de transformation et d’exposition des données.
    • Mise en place des bonne pratiques de MLops (Mlflow).
    • Définition et implémentation des différents mode d’accès aux données ( Bigquery, Datastudio, APIs).
    • Mise en place de la CICD ( gestion des environnements, test unitaires/d'intégration, automatisation du déploiement).
    • Industrialisation du modèle ML sous forme d’une API.
    • Formation des équipes aux outils Devops (Docker, Kubernetes).

    // Environnement technique : Google Cloud Platform, Linux, Python, pyspark, SQL, Keras, Jenkins, Docker ,Kubernetes, Helm, Terratest, Terraform
  • ML Engineer

    SLPV analytics -
    Jan 2016 - Jan 2019

    // Contexte :
    SLPV analytics est une startup parisienne travaillant dans la modélisation ML des problématiques liées au Marketing
    et l’étude de marché. J’ai rejoint SLPV en septembre 2016 et j’étais en full time jusqu’à décembre 2018, Ensuite j’ai
    travaillé en freelance avec la startup et j’ai repris en parallèle l’étude pour effectuer un master spécialisé en Big Data à
    Télécom Paristech.
    // Rôle :
    • Analyse des besoins clients .
    • Modélisation statistique et machine learning.
    • Industrialisation et packaging des solutions ML.
    • Développement des services informatiques de l’entreprise ( site web, interface d’échange de données, application de
    feuille de temps/congés) .
    // Réalisations :
    • Modélisation Mix-Marketing dans le secteur hôtelier : Modèle bayésien hiérarchique pour déterminer l’impact des
    actions marketing au CA.
    • Analyse tradeoff dans le domaine de télécommunication : Modèles de régressions pour simuler les meilleurs offres
    mobiles.
    • Prédiction de churn dans le secteur hôtelier.
    • Conception d’un baromètre de suivi de la perception des personnages politiques à partir des réseaux sociaux.
    • Prédiction et visualisation des résultats des élections présidentielles.
    • Prédiction de parcours de clients en ligne sur un site e-commerce en utilisant les chaînes de markov cachées
    • Industrialisation des modèles ML sous forme d’API/ Dashboard.
    • Automatisation de la génération des rapports Powerpoints/Excels.

    // Environnement technique : Cloud AWS, Linux, Python, Java, R, SAS, ReactJS, Tensorflow
Voir le profil complet de ce freelance