CV/Mission YARN freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois de Massipssa,
freelance YARN habitant la Seine-Saint-Denis (93)

  • TechLeadDataEngineer

    Société Générale -
    Jan 2021 - aujourd'hui

    CONTEXTE: Mise en place des contrôles pour la surveillance des marchés financiers (Market Abuse
    Surveillance)
     Mise en place et validation de solutionstechniques
     Développement de pipelines de collecter, ingestion et transformation des données de l’ensemble des
    bourses mondiales des traders de la Société Générale
     Implémentation de contrôles financiers(Front Running, Insider, …) en PySpark
     Migration de contrôles depuis Hadoop on-premise vers cloud Azure (HDinsight, Azure Storage, …)
     Migration d’Airflow 1.1.9 vers Airflow 2.1.3
     Développement d’un outil de monitoring de l’ensemble des applications Spark via l’API Yarn, la Stack
    EKL (Elasticsearch, Kibana, …) et Alerta
     Automatisation de la création et la destruction des clusters HDInsight via Airflow
     Amélioration et développement de pipelines de CI/CD avec Jenkins et Ansible
     Code review et validation des Pull Request de toute l’équipe de développement
     Veiller au bon fonctionnement de l’ensemble des parties techniques de la Platform
     Accompagner et faire monter en compétences des Data Engineer Junior
     Passation des entretiens techniques et validation des profils
     Security Champion de l’équipe, un rôle permettant d’attribuer les droits selon les profils, gérer les
    accès dans Azure avec Azure AD et Azure Keyvault, …

    ENVIRONNEMENT Azure, Docker, Kubernetes, Ansible, Hadoop (Yarn, HDFS, Hive, Oozie), Spark 2. 4 / 3.1, Apache Airflow, Apache Livy, PostgreSql, ELK (Elasticsearch, Kibana, Logstash), Linux, Java 8/11, Python 3, WinSCP, Putty, IntelliJ, PyCharm
  • - DataEngineer

    BNPParibas
    Jan 2020 - Jan 2021

    CONTEXTE: Conception et implémentation de l'ensemble des parties d'un Datahub
    Architecture
     Conception de la zone DataLake dans HDFS
     Conception d'une architecture d'intégration de flux de données en tempsréel
    Développement
     Développement d'un pipeline pour l'intégration de différents dans Hadoop (HDFS, Hive, ...)
     Mise en place de module du monitoring des Workspaces dans Datahub
     Collecte, indexation et stockage deslogs de l'ensemble des modules du Datahub dans Elasticsearch
     Evolution d'un ETL Spark pour la récupération et transformation des flux métier contenu dans des
    fichiers CSV
     Développement d'un module Python pourl'alimentation du Tableau Server
    Tests et livraisons(CI/CD)
     Mise en place d'un pipeline CI avec Azure Devops, Jenkins et SonarQube
     Automatisation du déploiement des livrables avec Ansible
     Documentation des projets et du code source dans Github

    ENVIRONNEMENT Azure, Ansible, Hadoop (Yarn, HDFS, HBase, Hive...), Hortonwork 2.6, Spark, PostgreSql, ELK (Elasticsearch, Kibana, Logstash), Linux, Java 8/11, Python 3, WinSCP, Putty
  • DataEngineer

    PSA -
    Jan 2019 - Jan 2020

    CONTEXTE Conception et mise en place d'un Datalake
    Architecture
     Définir les architectures techniques des projets Data et leurs Templates
     Conception d'architectures microservice pour la mise en place de PoC (Proof of Concept)
     Définition des modèles de développement et de livraison avec Docker
    Data Security et gouvernance
     Sécurisation d’accès aux ressources du DataLake (HDFS, Kafka, Hive,Hbase) via Apache Ranger
     Synchronisation des ressources du cluster entre Apache Ranger et Atlas avec une API Java
    Streaming & Batch Processing
     Développement d'un outil ClickStream pour la collecte des erreurs de l'application ServiceBox PSA
     Développement d'un outil permettant aux clients de PSA de s'opposer à la sauvegarde des données
    personnelles (droit à l'opposition) protégées par la loi RGPD
     Inspiration de différentes sources de données, traitement et stockage (Spark, Scala, parquet, ...)
     Implémentation de pipeline d'ingestion de tables Exatadata vers Elasticsearch
    Tests et livraisons(CI/CD)
     Développement de tests TDD / BDD
     Analyse et inspection de la qualité du code avec SonarQube
     Automatisation du processus de déploiement depuis Git jusqu'aux serveurs de production avec
    TeamCity
     Documentation des projets et du code source dans Github

    ENVIRONNEMENT AWS, Hortonwork 2.6, Hadoop 2 (Yarn, HDFS, Hive, Hbase, Sqoop,...), Spark 2.3, Kafka, IntelliJ, Exadata Oracle 12g, ELK (Elasticsearch, Kibana, Logstash), Linux, Java, Scala, Python, Agile (Scrum), Github, TeamCity, SonarQube, WinSCP, Putty, Docker, Kubernetes
  • Rôle : Ingénieur étude et développement C++ et C#

    Banque de France
    Jan 2016 - Jan 2016

    Tâches :
     Analyse des spécifications fonctionnelles détaillées et spécifications techniques détaillées
     Développement couche métier en C++ et C#
     Développement des IHM en ASP .NET MVC 4 et Winform
     Développement et optimisation des requêtes SQL en SqlServer 2012
     Mapping des objets en ODB et ADO .NET
     Réalisation des tests unitaires en CCPunit et en Nunit
     Suivi de vesrsions avec tortoise SVN
     Validation et intégration dans le Framework TARGET2-Securities
    Environnement technique: C++, C#, STL, Visual Studio 2013, SVN tortoise, DesignPattern, CPPCheck, Jenkins, Sql Server 2012, Asp .Net MVC 4, SVN Tortoise, Ilog Cplex

    Laboratoire Informatique de Paris Nord, Mars 2015 – Septembre 2015
    Rôle : Ingénieur étude et développement C++
    Tâches :
     Rédaction des spécifications techniques détaillées
     Développement de la couche métier en C++
     Développement des requêtes SQL avec Mysql
     Réalisations des tests unitaires en CCPunit
     Suivi et gestion de versions avec Git
     Mapping des objects avec OBD

    Environnement technique : C++, Boost, Visual Studio 2013, CPPCheck, Mysql Workbench, Git, CCPunit, CCPCheck, PowerAMC
  • Data Engineer

    SFR -
    Jan 2015 - aujourd'hui

    CONTEXTE: Migration d'un système de gestion électronique de documents (GED) vers Datalake
    Développement
     Analyse des besoins en termes de migration
     Développement de pipelines data pour l’alimentation du HDFS et de base de données Cassandra
     Automatisation des déploiements
     Développement de script pour la capture de nouvelles données avec Apache Kafka
     Stockage et indexation des données dans Elasticsearch
     Déploiement deslivrables en production
     Collecte, nettoyage, contrôle de cohérence, date quality
     Développement des jobs Spark pour la récupération et l’analyse des données depuis Oracle avec Spark
    SQL et Scala
     Développement des connecteurs génériques pour l’acquisition et l’insertion des données depuis
    plusieurs sources (Cassandra, HDFS, Elasticsearch),
    CI/CD
     Développement et exécutions destests
     Mise en place de pipelines d'intégration continue
     Documentation du code source dans Gitlab

    ENVIRONNEMENT Hadoop (Yarn, HDFS, Oozie), AWS, GED (Alfresco), Spark, Kafka, Cassandra, SBT, IntelliJ, SQL (Oracle 11g), Mysql 5.7, ELK (Elasticsearch, Kibana, Logstash) , Linux, Python, Agile ( Scrum), Scalatest, WinSCP, Putty
Voir le profil complet de ce freelance

Expertises équivalentes à YARN occasionnellement sollicitées

CV YARN, Missions YARN

Les derniers freelances YARN

CV Développeur Front-End React / Next.js – Senior
Houssem

Développeur Front-End React / Next.js – Senior

  • SARTROUVILLE
React.js Next.js JavaScript TypeScript
Bientôt disponible
CV Développeur Full Stack JavaScript – React / Next.js / Vue.js / Node.js
Wajdi

Développeur Full Stack JavaScript – React / Next.js / Vue.js / Node.js

  • ACHÈRES
React.js Next.js Vue.js
Bientôt disponible
CV Développeur web Angular
Anthony

Développeur web Angular

  • SURESNES
Angular Node.js Java
Disponible
CV Chef de projet / Po Data
Achraf

Chef de projet / Po Data

  • LONGJUMEAU
Agile Jira Cloudera SQL HDFS Apache Hadoop Apache Hive Microsoft Power BI
Disponible
CV DataOps– Administrateur/Intégrateur Big Data
Yas

DataOps– Administrateur/Intégrateur Big Data

  • PARIS
Big Data
Disponible
CV Data Engineer Cloud IA
Mayssa

Data Engineer Cloud IA

  • MALAKOFF
SQL Apache Spark Data Java CI/CD Python Cloud AWS Kubernetes Databricks
Disponible
CV Business Analyst Agile
Rony

Business Analyst Agile

  • PARIS
Odoo SQL OpenERP Cegid Agile
Disponible
CV Technical Leader
Foad

Technical Leader

  • PARIS
React.js Kubernetes Node.js TypeScript Next.js NestJS GitLab Docker Angular Apollo
CV Staff Platform Engineer | AWS - DevSecOps - GenAI - Terraform
Baakey

Staff Platform Engineer | AWS - DevSecOps - GenAI - Terraform

  • PARIS
DevOps Kubernetes Docker Python Cloud AWS TypeScript HashiCorp Terraform Software Craftsmanship DDD IA Générative
CV Data Scientist Python
Dorsaf

Data Scientist Python

  • LE PRÉ-SAINT-GERVAIS
Python SQL Data Apache Spark Google Cloud Platform Deep Learning Microsoft Azure Machine Learning Azure HashiCorp Terraform
Je trouve mon freelance YARN

Les nouvelles missions YARN

Développeur Big Data

Apache Spark Scala
ASAP
75013
6 mois
Voir la mission

Expert HPE Ezmeral Datafabric (MapR)

HP
ASAP
75 - Paris
3 mois
Voir la mission

Architecte Technique Hadoop

Python Apache Hadoop Apache Hive Apache Spark Cloudera
ASAP
75 - PARIS
12 mois
Voir la mission

Expert Hadoop

Apache Hadoop Python Cloudera Apache Spark Shell Unix
ASAP
33170 - GRADIGNAN
6 jours ouvrés
Voir la mission

Expert Hadoop

Apache Hadoop Cloudera Python Apache Spark
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Backend

C JavaScript Git
ASAP
75 - PARIS
3 mois
Voir la mission

Développeur JAVA / SPARK / HADOOP

Apache Hadoop Apache Spark Java
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Backend

C C++ JavaScript Blockchain
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur Frontend

HTML CSS Git React.js TypeScript
ASAP
75 - PARIS
6 mois
Voir la mission

DevOps / Service Engineer

GitLab Red Hat AWS CloudFormation Ansible
ASAP
93 - Pantin
3 mois
Voir la mission
Je trouve ma mission YARN

Les freelances maîtrisant YARN ont postulé à :

Data Engineer

SQL Data Python Git PySpark
ASAP
92 - COURBEVOIE
12 mois
Voir la mission

Data engineer

Data
ASAP
75 - PARIS
5 mois
Voir la mission

Tech lead Java/Angular Assurance (H/F) Levallois-Perret (92)

Java Angular
ASAP
92 - LEVALLOIS-PERRET
12 mois
Voir la mission

Data Engineer

SQL Python Scala
ASAP
92 - ISSY-LES-MOULINEAUX
3 mois
Voir la mission

Tech Lead Data Engineering

SQL Data DevOps
ASAP
92 - ISSY-LES-MOULINEAUX
6 mois
Voir la mission

Data Engineer AWS

Python Amazon AWS Big Data
ASAP
75 - PARIS
3 mois
Voir la mission

Data engineer

SQL Python Amazon AWS Apache Spark
ASAP
91 - MASSY
3 mois
Voir la mission

Data Engineering

SQL Python PowerShell MongoDB PostgreSQL
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur JAVA ANGULAR

Java Angular
ASAP
75 - PARIS
3 mois
Voir la mission

Développeur Full-Stack Java/Angular F/H

Java MongoDB Docker Angular JUnit
ASAP
95 - ROISSY-EN-FRANCE
3 mois
Voir la mission
Je trouve ma mission YARN