CV Google Cloud Platform : Sélectionnez gratuitement les meilleurs profils

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Google Cloud Platform connectés

CV Data Scientist/Analyst - Google Cloud Platform
Abdelwahed

Data Scientist/Analyst - Google Cloud Platform

  • ANDRÉSY
DATA Google Cloud Platform SQL PYTHON R DATAVIZ TIBCO SPOTFIRE SCRUM JIRA CONFLUENCE
Disponible
CV DevOps
Saaid

DevOps

  • ANTONY
DEVOPS LINUX DYNATRACE SQL CI/CD Kubernetes ANSIBLE AZURE Cloud AWS Google Cloud Platform
Disponible
CV Hands-on CTO / Tech Lead / Engineering Manager
Sylvain

Hands-on CTO / Tech Lead / Engineering Manager

  • SIX FOURS LES PLAGES
PHP SYMFONY DEVOPS Google Cloud Platform
Disponible
CV Ingénieur Big Data - DévOps - Développer Java/Python
Muruganathan

Ingénieur Big Data - DévOps - Développer Java/Python

  • BOBIGNY
DEVOPS SQL ORACLE JENKINS ELK MYSQL PYTHON JAVA Google Cloud Platform APACHE KAFKA
Disponible
CV Senior Data Analyst
Aboubakar

Senior Data Analyst

  • CRÉTEIL
Dataiku SAS SQL DATA TABLEAU SOFTWARE BIGQUERY PYTHON Microsoft Power BI Google Cloud Platform
Disponible
CV Chef de projet Cybersécurité
Ayoub

Chef de projet Cybersécurité

  • TRAPPES
Cybersécurité EBIOS PMO SECURITE Google Cloud Platform
Disponible
CV Senior Data Engineer | Analytics Engineer
Victor

Senior Data Engineer | Analytics Engineer

  • PARIS
DATA SQL Google Cloud Platform BI Snowflake
CV developpeur
Dahbia

developpeur

  • FONTENAY-SOUS-BOIS
SQL SERVER Google Cloud Platform
CV Product Owner / Scrum Master
Van

Product Owner / Scrum Master

  • ALBON
Slack GITLAB DOCKER SYMFONY JIRA POSTMAN SQL Vue.js UNITY 3D Google Cloud Platform
Disponible
CV Architecte solution data
Naoufal

Architecte solution data

  • Meudon
Cloud AWS AZURE Google Cloud Platform MDM BI Cloudera TOGAF BIG DATA SAFE ARCHIMATE
Disponible
Je trouve un CV Google Cloud Platform
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois de Mohamed,
freelance GOOGLE CLOUD PLATFORM habitant les Hauts-de-Seine (92)

  • - Lead Tech / Data Architect

    Carrefour
    Jan 2022 - Jan 2023

    // Contexte :
    L’équipe Finance de Carrefour souhaite créer un datalake afin de centraliser et harmoniser les données issues de
    plusieurs pays et systèmes sources.
    // Rôle :
    • Gérer le backlog et les priorités techniques de l’équipe.
    • Coordination avec 8 pays pour le sourcing des données locales.
    • Cadrer et former une équipe de 3 développeurs et 2 data analysts.
    • Définir l’architecture cible sur GCP.
    • Participation aux sujets techniques transverses de l’équipe Links.
    • Implémentation et développement des différentes briques techniques.
    // Réalisations :
    • Développement des services d’extraction, chargement, transformation et exposition des données.
    • Développer l’architecture réseaux pour se connecter aux différents systèmes locaux.
    • Conception et développement de la chaîne de CICD.
    • Mettre en place deux solutions de monitoring et d’alerting.
    • Déploiement de la solution en PROD.

    // Environnement technique : //Google Cloud Platform, Bigquery, EventArc, Cloud Run, FastAPI, NodeJS, OpenAI, Pubsub, Cloud Datafusion, Cloud Workflows, SAP SLT, SAP DI, DBT //Gitlab, CloudBuild, Terragrunt, Terraform, Terratest // Interconnect, Cloud VPN, Shared VPC, VPC peering
  • Lead Data Engineer

    Servier -
    Jan 2020 - aujourd'hui

    // Contexte :
    Servier souhaite développer une data platforme sur GCP pour centraliser les différents flux de données et alimenter des
    cas d’usage de dashboarding et ML.
    // Rôle :
    • Cadrer et former une équipe de 6 développeurs et 5 data analysts.
    • Design et conception de l’architecture de la dataplateforme sur GCP.
    • Coordinations avec les équipes de sécurité et de qualité pour s’assurer que la solution est compliant avec les normes
    internes de l’entreprise.
    • Coordination avec les solutions owners de chaque source de données pour définir les contraintes sur les données.
    • Implémentation et développement des services de la data plateforme.
    // Réalisations :
    • Développement des services de la data plateforme: config management, data collection, data quality, data
    transformation, data exposition.
    • Conception et développement de la chaîne de CICD
    • Connecter les sources de données aux dashboards POWERBI.
    • Déploiement de la solution en PROD.

    // Environnement technique : //Google Cloud Platform, Argo, Docker, Kubernetes ,Cloud Run, python, CloudBuild, Terraform //Bigquery, Cloud SQL, PubSub
  • ML Engineer

    L’Oréal -
    Jan 2020 - Jan 2020

    // Contexte :
    L’Oréal souhaite développer un dashboard pour suivre les tendances des marques sur les réseaux sociaux.
    // Rôle :
    • Design et conception du backend data du dashboard.
    • Conception des modèles de données.
    // Réalisations :
    • Automatisation des pipelines de collecte , de transformation et d’ingestion des données non structurées.
    • Développement d’un modèle ML permettant d’analyser les sentiments sur les posts des réseaux sociaux .

    // Environnement technique : Google Cloud Platform, Airflow, Docker, FastAPI 2, Fastext, AI Platform, SQL Alchemy, , Linux, python,Azure Devops, Terraform
  • Data Engineer Senior

    L’Oréal -
    Jan 2020 - Jan 2020

    // Contexte :
    L’Oréal souhaite une solution cloud pour centraliser les différents flux de données présents et les mettre à disposition aux
    cas d’usage IA.
    // Rôle :
    • Design et conception de l’architecture cible de la data plateforme.
    • Coordinations avec les owners de chaque data source pour définir le mode d’ingestion et d’exposition des données.
    • Coordinations avec l’équipe de sécurité pour définir les contraintes de sécurité et valider les solutions proposées.
    • Coordination avec les managers des uses cases ML pour cadrer leurs besoins en data.
    • Implémentation et développement des services de la data plateforme.
    // Réalisations :
    • Développement des services de la data plateforme; config management, data collection, data quality, data
    transformation, data exposition, automatisation de l’infrastructure, data cataloging, data gouvernance as code.
    • Conception et implémentation des APIs pour exposer les données.
    • Mise en place de la CICD.

    // Environnement technique : Google Cloud Platform, Airflow, Docker, Kubernetes, Cloud Run, APIGEE, Linux, Python, Azure Devops, Terraform
  • Carrefour - ML Engineer

    Jan 2019 - Jan 2020

    // Contexte :
    Carrefour souhaite améliorer son système de détection de ruptures des produits dans les magasins en utilisant l’IA.
    // Rôle :
    • Workshop d’analyse des besoins des données et cadrage du kick-off technique de la solution.
    • Design et conception de l’architecture cible de la solution.
    • Contribution à la définition du modèle ML et la partie de features engineering.
    • Mise en place et suivi des normes et des best-practices du code au sein de l’équipe.
    // Réalisations :
    • Développement d’une couche de collecte des données on-premises (Oracle, SFTP) et Cloud.
    • Développement et automatisation des pipelines d’ingestion, de transformation et d’exposition des données.
    • Mise en place des bonne pratiques de MLops (Mlflow).
    • Définition et implémentation des différents mode d’accès aux données ( Bigquery, Datastudio, APIs).
    • Mise en place de la CICD ( gestion des environnements, test unitaires/d'intégration, automatisation du déploiement).
    • Industrialisation du modèle ML sous forme d’une API.
    • Formation des équipes aux outils Devops (Docker, Kubernetes).

    // Environnement technique : Google Cloud Platform, Linux, Python, pyspark, SQL, Keras, Jenkins, Docker ,Kubernetes, Helm, Terratest, Terraform
  • ML Engineer

    SLPV analytics -
    Jan 2016 - Jan 2019

    // Contexte :
    SLPV analytics est une startup parisienne travaillant dans la modélisation ML des problématiques liées au Marketing
    et l’étude de marché. J’ai rejoint SLPV en septembre 2016 et j’étais en full time jusqu’à décembre 2018, Ensuite j’ai
    travaillé en freelance avec la startup et j’ai repris en parallèle l’étude pour effectuer un master spécialisé en Big Data à
    Télécom Paristech.
    // Rôle :
    • Analyse des besoins clients .
    • Modélisation statistique et machine learning.
    • Industrialisation et packaging des solutions ML.
    • Développement des services informatiques de l’entreprise ( site web, interface d’échange de données, application de
    feuille de temps/congés) .
    // Réalisations :
    • Modélisation Mix-Marketing dans le secteur hôtelier : Modèle bayésien hiérarchique pour déterminer l’impact des
    actions marketing au CA.
    • Analyse tradeoff dans le domaine de télécommunication : Modèles de régressions pour simuler les meilleurs offres
    mobiles.
    • Prédiction de churn dans le secteur hôtelier.
    • Conception d’un baromètre de suivi de la perception des personnages politiques à partir des réseaux sociaux.
    • Prédiction et visualisation des résultats des élections présidentielles.
    • Prédiction de parcours de clients en ligne sur un site e-commerce en utilisant les chaînes de markov cachées
    • Industrialisation des modèles ML sous forme d’API/ Dashboard.
    • Automatisation de la génération des rapports Powerpoints/Excels.

    // Environnement technique : Cloud AWS, Linux, Python, Java, R, SAS, ReactJS, Tensorflow
Voir le profil complet de ce freelance