CV/Mission de Formateur hadoop freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Slim,
Formateur hadoop habitant le Val-d'Oise (95)

  • GCP Landing Zone
    Jan 2022 - Jan 2022

    GCP Security auditor | BPCE/Natixis (France/Suresnes)
    Revu de sécurité de la Landing Zone GCP et propositions d’améliorations.

  • Copyright, Slim ********,
    2022 - aujourd'hui

    Vous ne pouvez pas modifier le contenu de ce document ni le re-utiliser (même en partie) sans une autorisation expresse et écrite de la part de 'Slim ********'. Vous ne pouvez également pas distribuer
    ce CV à d'autres parties sans une autorisation expresse et écrite de la part de 'Slim ********.

  • Architecte Cloud/Data- Laboratoires Servier (France/Suresnes)

    Servier Data Platform
    Jan 2020 - Jan 2022

    Mise en place de la plateforme Data et son infrastructure basée sur GCP:
    • Definition de l’architecture de la plateforme
    • Mise en place des composantes transverses (Réseaux, Hiérarchie, IAM, CICD, GKE, Gouvernance,…)
    • Mise a disposition des environnements des Business Units
    • Sécurisation de la plateforme pour être habilité a contenir des données de santé.
    • Assistance et aide a la montée en compétences des Features Teams des Business Units.

    • Environnement technique : Google Cloud Platform, Kubernetes (GKE), Terraform, Kustomize, Python
  • Architecte Data/ML/Cloud

    Usage-Based-Maintenance - renault (France/Paris)
    Jan 2018 - Jan 2020

    Le projet Usage Based Maintenance a pour objectif de tirer profit des données d’usage (ou de conduite) issues
    du système embarqué des véhicules pour mieux gérer leurs maintenance.
    Je suis intervenu dans la phase POC qui a précédé le projet pour valider l’approche ainsi que la pertinence des
    données.
    Ensuite et pour l’industrialisation des processus j’ai défini l’architecture, mis en place l’infrastructure de
    collecte et traitement des données et participé a l’implémentation des pipelines de machine learning.

    • Environnement technique : Google Cloud Platform, Kubernetes, TensorFlow eXtended, Docker, Spark,
  • Architecte Data - ******** (France/Paris 18e)

    Terraform, Python, Scala, Golang, Kubeflow, APIs. sl-datahub
    Jan 2017 - Jan 2018

    Le projet consistait essentiellement à la création d'une plateforme Data:
    - initialisation de l'infrastructure adéquate.
    - sensibilisation a l'état d'esprit Data et aux bonnes pratiques associées en général (DevOps, CI,...)
    - Implémentation des premieres Data Pipeline qui exploitent la donnée du site en y appliquant les algorithmes
    de Data Science et les mettre a disposition (exposition)
    - Création d'un premier noyau de l'équipe Data.
    Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install,
    gestion, evolution ) avec ansible via l’API d’ambari.
    Ensuite, j’ai travaillé sur l’industrialisation des algorithmes développés par les Data Scientists aussi bien sur
    leur implémentation que sur la Data Pipeline dans la quelle ils s’intègrent: ingestion de données, nettoyage/
    preparation des données, training, pré-calcul et enfin exposition des API.
    La deuxième phase de ma mission fut de migrer le projet d’une infrastructure on premise vers le cloud Amazon
    Web Services.

    • Environnement technique : Hortonworks Data Platform, spark, scala, airflow, grafana, influxdb, nginx, Ansible, Amazon Web Services, akka, rocksdb, python, terraform.
  • • Rôle : Architecte Data

    sl-datahub******** (France/Paris 18e)
    Jan 2017 - aujourd'hui

    Le projet consiste essentiellement à la mise en place d’un datalake.
    Je suis intervenu en tant architecte de l’équipe Data.
    Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install, gestion, evolution ) avec ansible via l’API d’ambari.
    Ensuite, j’ai travaillé sur l’industrialisation de l’algorithme de recommandation défini par l’équipe de datascientists: ingestion de données, nettoyage/preparation des données, training, pré-calcul et enfin exposition des API.
    Actuellement je travaille sur la migration du cluster “on-premises” sur le cloud Amazon.

    • Environnement technique : Hortonworks Data Platform, play, airflow, grafana, influxdb, nginx, Ansible, Amazon Web Services, scala, python, terraform.
  • • Rôle : Expert Kafka

    Vision360 Generali (France/Saint-Denis)
    Jan 2017 - Jan 2017

    Mise place d’une plateforme offrant une vision 360 du client.
    J’interviens en tant que expert Kafka et stream processing.

    Environnement technique : Confluent Platform ( Kafka, Kafka-Streams, Kafka-Connect, Schema-Registry), Avro.
  • • Rôle : Lead Data Architect

    Phenix Carrefour (France/Massy - Evry)
    Jan 2015 - Jan 2017

    Phenix est une plate-forme distribuée d’ingestion, de préparation, d’analyse et d’exposition de données opérationnelles (ventes, stocks, logistique,..) en temps réel (ou commercial);
    Je suis intervenu dés la phase de définition de la plateforme et défini en grande partie les choix architecturaux et technologiques aussi bien en terme de frameworks et backends, que de méthodes et outils de développement ou encore sur les aspects ‘ops’ (provisionning, deploiement, monitoring,…).
    L’architecture que j’ai définie consistait en une plateforme avec deux composantes principale:
    - une composante “on-line” qui était responsable premièrement de la collecte de données depuis les magasins et les backoffices de stock ainsi que les données de référentiels des bases centrales; ensuite une infrastructure de traitement de données en temps réel basée sur kafka,mesos et spark-streaming pour effectuer la normalisation, les agrégations et l’enregistrement des résultats soit dans Cassandra, soit dans Elasticsearch ou parfois les deux. En fin une couche d’API en micro-services expose ces résultat aux applications clientes.
    - une composante off-line, qui se rapproche d’un datalake classique contenant toutes les données ingérée dans les topic kafka, les référentiels et quelques datasets d’enrichissement et qui servait a faire des traitement en batch pour sortir des métriques et des agrégations avec une profondeur, une précision et richesse plus importante que celles fournie par la composante online.
    Outre les réalisations et les choix technique j’ai insisté et travaillé sur les bonnes pratique de développement (agilité, TDD, CI,…) et l’industrialisation de la solution (ansible, docker, rundeck) ainsi que les process de recrutement (exercices de code, entretien face a toute l’équipe,…) pour constitué une équipe de haut niveau.

    • Environnement technique : Kafka, Spark (Streaming), Mesos, Docker, Cassandra, Hadoop, Elasticsearch, Micro-Services, NRT, ansible, …
  • • Rôle : Big Data Senior Developer

    Eureka Canal+ (France/Issy les Moulineaux)
    Jan 2014 - Jan 2015

    Eureka est un moteur de recommendation pour les videos “live” et “à la demande”.
    Je suis intervenu pour proposer et implementer une solution qui permet d’exploiter des algorithmes de recommandations développés par des équipes tierces (marketing et data-scientist).
    La solution se base sur un cluster hadoop pour la préparation des données et le training des algorithmes; un cluster Elasticsearch et une base Redis comme backends et quelques micro-services (REST) qui exposent les résultats.

    • Environnement technique : Akka, Spray.io, Elasticsearch, Scala, Java, Redis, Hadoop
  • • Rôle : Domain Expert, Architecte.

    Data Innovation Lab AXA Technology Services (France/La Defense)
    Jan 2014 - Jan 2014

    Le Data Innovation Lab est une initiative qui vise à promouvoir l'exploitation de la donnée et sa valorisation au sein des entités de AXA.
    J'interviens en tant que “Expert Hadoop” pour la mise en place d'un cluster Hadoop “As A Service” pour les entités.
    J’ai essentiellement conseillé sur les bonnes pratiques et les pièges à éviter pour la mise en place d’un tel projet. J’ai aussi accompagné l’équipe d’exploitation du cluster, et participer aux ateliers d’architecture pour les différents use-cases en développement.

    • Environnement technique : Hadoop, Multi-tenancy, YARN, Kerberos, Sentry, Data governance, Data privacy.
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Formateur hadoop, Missions Formateur hadoop, Formateur hadoop freelance

Les nouvelles missions de Formateur hadoop

Animer formation hadoop - écosystème & ses architectures

DATA
ASAP
Télétravail
1 mois
Voir la mission

Formateur HADOOP

ASAP
06 - Nice
3 jours ouvrés
Voir la mission
Je trouve ma mission

Les profils de Formateur hadoop ont postulé à :

Formateur BIG DATA

BIG DATA Data science
ASAP
Télétravail
3 mois
Voir la mission

CHIEF DATA OFFICER

DATA BIG DATA
ASAP
Télétravail
6 mois
Voir la mission

Formateur Big Data

BIG DATA
A définir
75011
30 jours ouvrés
Voir la mission

Formateurs BIG DATA

BIG DATA
ASAP
75 - Paris
3 jours ouvrés
Voir la mission

Consultant formateur BIG DATA

BIG DATA
ASAP
75 - paris
5 jours ouvrés
Voir la mission
Je trouve ma mission

Les derniers CV de Formateur hadoop disponibles

CV Architecte ORACLE
Jean-Luc

Architecte ORACLE

  • ROISSY-EN-BRIE
ORACLE APACHE SPARK APACHE KAFKA UNIX SYSTEMES EMBARQUES APACHE HADOOP APACHE HIVE
CV Consultant API
Mouhamadou

Consultant API

  • Asnières-Sur-Seine
HTML LINUX ORACLE J2EE LDAP TOMCAT ECLIPSE VMWARE SCRUM SOA
CV Architecte Applicatif / Tech Lead / DevOps
Evariste

Architecte Applicatif / Tech Lead / DevOps

  • PARIS
API RESTful Microservices DEVOPS GIT GITLAB DOCKER OAUTH JAVA Spring Boot Cloud AWS
CV Consultant Expert Talend (DI/ESB/MDM/BIGDATA)
Maher

Consultant Expert Talend (DI/ESB/MDM/BIGDATA)

  • Paris
PL SQL TALEND APACHE HADOOP TALEND MDM JDBC JAVA BIG DATA APACHE SPARK
Bientôt disponible
CV Coach Agile, agilité à l'échelle
Carole

Coach Agile, agilité à l'échelle

  • COLOMBES
AGILE SAFE SCRUM KANBAN MS OFFICE Design Thinking JIRA CONFLUENCE
Bientôt disponible
CV tech lead data science
Khalil

tech lead data science

  • Montrouge
Data science BIG DATA PYTHON MICROSOFT BI APACHE HADOOP APACHE SPARK DOCKER APACHE HIVE SCRUM AZURE
Bientôt disponible
CV Assistant à maîtrise d'ouvrage DOCUBASE
Abdellatif

Assistant à maîtrise d'ouvrage DOCUBASE

  • Amiens
DOCUBASE JIRA HP ALM ITIL ITSM KERBEROS KIBANA HORTONWORKS Cloud AWS
Bientôt disponible
CV data engineer SCALA/PYTHON BIG DATA
Usman

data engineer SCALA/PYTHON BIG DATA

  • GOUSSAINVILLE
GIT JENKINS MYSQL APACHE SPARK SCALA PYTHON AZURE BIG DATA POSTGRES UNIX
Bientôt disponible
CV DBA MYSQL
Lahcen

DBA MYSQL

  • LES MUREAUX
MYSQL POSTGRESQL MARIADB GALERA CLUSTER LINUX PL SQL KSH ORACLE 9 PYTHON APACHE HADOOP CASSANDRA
Bientôt disponible
CV Architecte APACHE SPARK
Mohamed

Architecte APACHE SPARK

  • RUEIL-MALMAISON
APACHE SPARK APACHE HADOOP APACHE KAFKA BIG DATA DEVOPS JAVA SCALA PYTHON Google Cloud Platform AMAZON AWS
Disponible
Je trouve mon freelance