Développeur ETL : Principaux experts dispos et nouvelles missions publiées

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions d'Ibrahima,
Développeur ETL habitant la Sarthe (72)

Expériences professionnelles

Autorité régionale de transport métropolitain (ARTM) Juin 2024 à ce jour
Client: ARTM
Tech Lead Big Data Cloud Novembre 2024 à ce jour (1 mois)
Responsabilités
 Responsable de la qualité de code de l’équipe
 Concevoir, développer et maintenir des flux de données complexes, variés et avancés
 Développer des solutions transverses
 Automatisation des tests unitaires et tests de données
 Mise en place des scripts Azure CLI de déploiement des applications containerisés
 Tests d’intégration, qualité de données
Environnement : Python, PySpark, Git, Databricks, Azure CLI, Docker, VS Code, Microsoft Azure

Développeur Big Data Cloud Juin 2024 à novembre 2024 (5 mois)
Responsabilités
 Construire le patrimoine data applicatif de ARTM
 Concevoir, développer et maintenir des flux de données complexes et variées
 Développer des algorithmes de transport pour le parcours Km
 Développer les systèmes de surveillance des flux de données
 Dockerisation des livrables avec les Azure container
Environnement : Python, PySpark, Git, Databricks, Docker, VS Code, Microsoft Azure

Lévio Conseils Inc. Juin 2022 à juin 2024
Client: Morgan Stanley
Consultant ETL Talend Mars 2023 à juin 2024 (16 mois)
Responsabilités :
 Concevoir l’architecture technique, développer et maintenir les jobs ETLs pour répondre aux exigences métier
 Tuning SQL des jobs ETLs et calibrage
 Dockerisation des ETLs et orchestration
 Développement des flux métiers sur Python
 Déploiement, ordonnancement et gestion des jobs ETLs sous Autosys
 Suivre et maintenir des jobs de qualité de données
Environnement : Talend, Git, Jenkins CICD, Java, Maven, Docker, Python, Data Quality, DB2

Consultant développeur BI Novembre 2022 à février 2023 (4 mois)
Client : Institut de la statistique du Québec
Projet : Comptoir de données ISQ
Responsabilités
 Développement des rapport paginés dans Power BI Builder et Power BI Report.
 Intégration de sources de données Oracle dans Power BI afin de calculer les métriques de rapports.
 Modélisation, enrichissement des données avec DAX (Data Analysis Expression) dans Power BI Report
Environnement : Power BI Builder, Power BI Report, Base de données Oracle

MMA (Mutuelle du Mans Assurances) Octobre 2019 à mai 2022
Consultant développeur ETL Talend Big Data/Spark Octobre 2019 à mai 2022 (31 mois)
Projet : Purge RGPD Personne
Responsabilités :
 Conception architecturale et technique des flux de purge.
 Implémentation et chargement des flux de notification de purge dans le CRM Salesforce
 Tests de qualité, validation des niveaux de purge avec le métier
Environnement : ETL TALEND, SPARK SQL, MÉTHODOLOGIE DATA LAKE

MMA (Mutuelle du Mans Assurances) Octobre 2019 à mai 2022
Consultant développeur ETL Talend Big Data/Spark Octobre 2019 à mai 2022 (31 mois)
Projet : Sinistre Batch Layer
Volumétrie des données manipulées : 10 millions en init et un incrémental de 400 milles par jour
Responsabilités :
 Développement Batch Layer sur Talend Spark.
 Intégration de +3 CAL de base de données (à peu près 30 sources de tables par CAL) en 3 mois afin d’optimiser
le calcul des montants de sinistre atteignant un score d’intégrité de 98 %.
 Implémentation des Batch Layer pour faire du chargement en masse dans le CRM Salesforce.
 Tests de qualité, contrôle et validation des données
 Tests de montée en charge
 Optimisation des jobs ETL avec Spark SQL.
 Homologation des traitements en préproduction
 Support de tickets en production
 Capacité de planification en fonction des ressources du cluster
Environnement : ETL TALEND, SPARK SQL, MÉTHODOLOGIE DATA LAKE

Projet : Recherche Floue SolR
Volumétrie des données manipulées : 20 millions en init et un incrémental de 400 milles par jour
Contexte du projet : ce projet consistait à remonter les données de personne morale (entreprise ou association) dans la
plateforme de recherche SolR afin de faire de la recherche floue.
Responsabilités :
 Développement Batch Layer sur Talend Spark.
 Intégration de +3 sources de tables en 1 mois afin de faciliter la recherche et garantir l’accès à ces données dans
un moteur de recherche.
 Implémentation des échanges ETL pour le chargement dans SolR.
 Tests de performances sur les jobs Talend
Environnement : ETL TALEND, SPARK SQL, MÉTHODOLOGIE DATA LAKE

Développeur des microservices Java Spring Boot avril 2021 à mai 2022 (13 mois)
Projet: Personne Speed Layer
Volumétrie des données manipulées : 3 millions par jour
Contexte du projet : ce projet consiste à charger le référentiel personne dans le CRM Salesforce en temps réel afin de gérer
le dossier client des personnes en temps réel.
Responsabilités :
 Développement des micro-services sur Java Spring Boot
 Collecte et chargement de données dans l’outil de gestion client CRM afin d’avoir une vision complète du dossier
client en temps réel.
 Mise en place des tables de rétention et de réconciliation des données chaudes afin de générer une version
cohérente du dossier client en vision temps réel.
 Monitoring des traitements
 Construction des Dashboard Kibana pour le compte-rendu de chargement des données.
 Remontée des indicateurs de fonctionnement dans AppDynamics
 Tests d’endurance pour les montées en charge
 Homologation des traitements en préproduction
 Sécurisations des mises en production
 Déploiement et mise en place des microservices sur la plateforme OpenShift.
Environnement: APACHE KAFKA, JAVA SPRING BOOT, JMETER, POSTMAN

Projet: Sinistre Speed Layer
Volumétrie des données manipulées: 400 milles par jour
Contexte du projet : ce projet consiste à charger les déclarations de sinistre dans le CRM Salesforce en temps réel afin de
réduire les fraudes.
Responsabilités :
 Développement des micro-services sur Java Spring Boot
 Collecte et chargement de données dans l’outil de gestion client CRM afin d’avoir une vision complète du sinistre
en temps réel.
 Mise en place des tables de rétention et de réconciliation des données chaudes afin de générer une version
cohérente du sinistre en vision temps réel.
 Déploiement et mise en place des microservices sur la plateforme OpenShift.
 Monitoring des traitements
 Construction des Dashboard Kibana pour le compte-rendu de chargement des données.
Environnement : APACHE KAFKA, JAVA SPRING BOOT, JMETER, POSTMAN

Capgemini Technologies Services Avril 2016 à Octobre 2019
Développeur ETL Talend Big Data/Spark Janvier 2018 à septembre 2019 (21 mois)
Client: MMA
Projet : ECLA personne
Volumétrie des données manipulées : 30 millions de fiches personne
Contexte du projet : ce projet consistait à charger le référentiel personnes dans le CRM Salesforce en mode init et
incrémental afin d’avoir une vision complète du dossier client.
Responsabilités :
 Développement Batch Layer sur Talend Spark.
 Intégration de +5 CAL de base de données (à peu près 30 sources de tables par CAL) en 4 mois afin d’optimiser
des procédés internes pour une augmentation en efficacité opérationnelle de +20 %.
 Implémentation des jobs Batch Layer de traitement afin d’exporter les données vers le gestionnaire client CRM
Salesforce.
 Construction des dashboard Kibana afin d’analyser et corriger les rejets de chargement dans le CRM Salesforce.
 Développement Speed Layer sur Talend Spark Streaming.
 Mise en place des tables de rétention et de réconciliation des données chaudes afin de générer une version
cohérente de la personne en vision temps réel.
 Performance et homologation des échanges pour minimiser l’utilisation abusive des ressources.
Environnement : ETL TALEND, SPARK SQL, MÉTHODOLOGIE DATA LAKE, SPARK STREAMING

Projet: Projet SETUP
Volumétrie des données manipulées : 60 millions de fiches personne
Contexte du projet : ce projet consistait à mettre en place un modèle standard uniforme pour les données provenant de
sources multiples aux différents formats afin de mieux gérer les échanges d’informations personnes.
Responsabilités :
 Dérivation d’un modèle fonctionnel personne en modèle applicatif afin de couvrir 100 % des données sources en 4
mois.
 Mapping des 3 sources de données (MMA, MAAF et GMF) de formats différents vers un modèle applicatif prédéfini.
 Implémentation des jobs Batch Layer Talend Spark d’un modèle fonctionnel applicatif.
Environnement : ETL TALEND, SPARK SQL, MÉTHODOLOGIE DATA LAKE.

Développeur ETL Talend Avril 2016 à décembre 2018 (19 mois)
Client : SNCF (Société nationale des chemins de fer français)
Projet: Emeraude
Volumétrie de données manipulées : 3 millions par jour.

Contexte du projet : ce projet consistait à l’intégration des données des voyageurs SNCF dans le gestionnaire client CRM
Salesforce pour mieux gérer les clients pour les campagnes marketing.
Responsabilités :
 Conception des SFG ou SFD (spécifications fonctionnelles détaillées ou générales) des échanges Talend.
 Implémentation et déploiement des échanges de pipeline de données
 Chargement de données en masse avec le gestionnaire client CRM Salesforce.
 Tests de performances
 Homologation des traitements en préproduction
Environnement : TALEND DI, ESB TALEND, SOAP UI, POSTMAN, JAVA STANDARD

Voir le profil complet de ce freelance

Les nouvelles missions de Développeur ETL

Développeur INFORMATICA

SQL Informatica
ASAP
92 - NANTERRE
3 mois
Voir la mission

Développeur ETL Informatica / Analyste BI H/F

Java SQL Informatica
ASAP
28 - CHARTRES
12 mois
Voir la mission

Dev ETL Python Java

Python Java Cloud AWS AWS Lambda SQL
ASAP
91310 - Longpont-sur-Orge
12 mois
Voir la mission

Développeur ETL Python

Python Java AWS Lambda Cloud AWS AWS CloudFormation
ASAP
91310 - Longpont-sur-Orge
6 mois
Voir la mission

Développeur ETL

ETL Talend Informatica Magento PHP MAGENTO
ASAP
91310 - Longpont-sur-Orge
6 mois
Voir la mission

Développeur ETL

SQL ETL Java Sunopsis Jira
ASAP
33 - Bordeaux
3 mois
Voir la mission

Développeur DATASTAGE

DataStage Datastage PX ETL
ASAP
paris
4 mois
Voir la mission

Concepteur Développeur ETL

Oracle Data Integrator Talend SQL
ASAP
69 - Lyon
3 mois
Voir la mission

Développeur ETL INFORMATICA

Informatica ORACLE 12G
ASAP
75 - Paris
2 mois
Voir la mission

Développeur ETL Genio

Genio OTIC ETL
ASAP
92 - Courbevoie
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Développeur ETL disponibles

CV Développeur web DotNET
Siwar

Développeur web DotNET

  • VILLIERS-SUR-MARNE
C# DotNET API RESTful SQL Server React.js Azure Github HTML CSS JavaScript
Disponible
CV Data Scientist SQL
Brahim

Data Scientist SQL

  • HOUILLES
SQL Microsoft Power BI Data BI Datastage PX Python Azure Big Data Apache Spark BigQuery
Disponible
CV Développeur TALEND
Anas

Développeur TALEND

  • GENTILLY
Talend DI SQL
Disponible
CV Expert TALEND DI
Aliou

Expert TALEND DI

  • Versailles France
Talend DI Business Objects Amazon Web Services TALEND MDM Azure Microsoft Power BI QlikView
CV Data engineer TALEND DI
Charaf

Data engineer TALEND DI

  • PARIS
Talend DI Business Objects PL SQL BI MuleSoft Anypoint Platform Microsoft Power BI Git
CV Expert Adobe campaign
Roger

Expert Adobe campaign

  • Paris
Adobe Campaign
CV Data Analyst - Consultante BI
Oumaima

Data Analyst - Consultante BI

  • CERGY
Excel SQL Agile Microsoft Power BI Data Jira
CV BI Analyst | Data Steward | Data Steward
Amédé

BI Analyst | Data Steward | Data Steward

  • Thionville
Sybase Oracle PowerCenter MicroStrategy Datastage PX Tableau Software Microsoft Power BI Dataiku Jira
CV Développeur JAVA
Oualid

Développeur JAVA

  • VERSAILLES
Java SQL Spring Boot PostgreSQL Kafka Elasticsearch TypeScript Angular Scala JavaScript
CV Data Architect / Data Manager
Takieddine

Data Architect / Data Manager

  • Cormeilles-en-Parisis
Cognos BI BI Cognos TM1 Oracle 11g Business Objects Oracle Business Intelligence Enterprise Edition
Je trouve mon freelance