Fonction : Expert Talend
AXA
4/2022 - 11/2024
Tâches :
Core Team ETL Talend
Missions :
 Migration Talend 7.3 vers Talend 8 pour tous les projets et toutes les équipes du groups
 Lead technique de plusieurs équipes de 55 développeurs (60 % en France, 40 % à l'international)
 Fournir des bonnes pratiques et des directives du développement au déploiement
 Mettre en place un processus de livraison automatisé avec CI/CD
 Conception et développement de connecteurs/composants personnalisés
 Auditeur des jobs Talend (revue de code)
 Conception et développement de jobs Talend
 Talend : Migration de flux ETL Talend vers Azure Databricks
 SQL : Requetage Sql sur des bases Oracle, PostgreSql et SqlServer
 Fonctionnel : Communication quotidienne avec le métier -Actuariat
Environnement technique :
&bull Talend v7.3.1 · Talend v8 · CI/CD · Azure Databricks · AWS · Microsoft Power BI · Oracle · PostgreeSql
Fonction : Ingénieur Big Data Talend confirmé
FNAC DARTY
3/2020 - 3/2022
Tâches :
Plusieurs projets transverses
Missions :
 Upgrade de la plate-forme Talend Big Data de la version 5 vers la version 7.3
 TALEND BIG DATA : Création de jobs génériques lient différents SGBDR (Oracle, SQLServeur ...) à Hadoop via Sqoop
 TALEND BIG DATA : Développement sur Talend
 Extraction de données depuis Hadoop vers Teradata
 SQL : Développement en SQL avec Teradata
 SPARK : Développement avec Spark depuis Talend
 SPARK STREAMING : Création d'un traitement Spark Streaming recevant des fichiers MQ pour gérer les abonnements
 HBASE : Stockage et utilisation des données RGPD
 HIVE : Optimisation de traitements Big Data pour améliorer les performance
 Grosses opérations de maintenance sur la production
 Travail de Data Analyst à realisier en plus de celui d'Ingénieur Big Data
 Utilisation de Teradata pour le travail de Data Analyst
 Migration d'un Datalake Hadoop vers le Cloud (GCP)
 GCP (Google Cloud Platform) : Utilisation de Big Queries
Environnement technique :
&bull Talend, Spark, Jenkins, Oozie, Sqoop, Oracle database, PostgreSql, Teradata, GCPSpark, Scala, Hive, Hbase, Sqoop, HDFS, Intellij IDEA
Fonction : Ingénieur Big Data Talend
SOCIÉTÉ GÉNÉRALE
10/2016 - 3/2020
Tâches :
Plusieurs projets transverses
Missions :
 TALEND BIG DATA : Intégration de gros volumes de données dans le Datalake
 TALEND BIG DATA : Utilisation de Jobs Spark pour accélérer les traitements dans le Big Data
 TALEND BIG DATA : Développement sur Talend
 Développement Spark Scala avec IntelliJ IDEA
 Automatisation de l'ajout de flux de données dans le Datalake, plusieurs fois par jour
 Chargement de gros flux de données
 HIVE : Requêtes exécutées avec Hive sur de gros volumes de données
 JENKINS : Déploiement d'applications sensibles sur des environnements sécurisés
 OOZIE : Ordonnancement des tâches avec Oozie
 Travail à distance avec des équipes situées à Bangalore (Inde), Varsovie (Pologne) et Bucarest (Roumanie)
 SQOOP : Utilisation de Sqoop pour migrer des données d'une base Oracle vers le Datalake
 Maintenance des applications mises en production
 Installation et configuration du framework Hadoop sur des Machines Virtuelles
 CI/CD : Orchestration d'applications sensibles avec le CI/
 RECHERCHE : Rédaction de POC sur ElasticSearch et Kibana
 PYTHON : Introduction à Python pour la Data Science
 SECURITE : Travail sur l'architecture d'applications Big Data Sensibles
Environnement technique :
&bull Spark, Scala, Talend, Hive, Presto, Jenkins, Oozie, Sqoop,
Oracle database, HDFS, Intellij IDEA
Fonction : Appui Architecte Big Data
ENGIE IT
9/2014 - 9/2016
Tâches :
Equipe d'archi, projet de programme de gestion des erreurs
Missions :
 Analyse de l'architecture des environnements Big Data du groupe Engie
 Projet de calcul de KPI pour des clients étrangers en utilisant l'ETL Talend for Big Data
 Développement d'un programme de gestion des erreurs lors de l'alimentation des tables
 Installation et configuration du framework Hadoop sur des Machines Virtuelles
 Introduction à Python pour la Data Science
 Rédaction de POC sur ElasticSearch et Kibana
Environnement technique :
&bull Talend for Big Data, ElasticSearch, Kibana, Hadoop, Python
Fonction : Développeur SAP
DANONE
8/2013 -
Tâches :
Chargé de développement d'un outil de gestion de congés d'interne et externe
Missions :
 Application de gestion des congés pour l'entreprise
 Interface réalisée avec SAPUI5 et projet mené entièrement de sa conception à sa réalisation
 Accessible sur le cloud, communique avec les bases de données de l'entreprise grâce à ABAP
Environnement technique :
&bull SAP UI5, ABAP