Youssef - Consultant Expert Talend (DI/ESB/MDM/BIGDATA)
Ref : 200622S005-
75001 PARIS
-
Consultant, Développeur, Ingénieur de développement (37 ans)
-
Totalement mobile
-
En portage salarial
Expériences professionnelles
DE FÉVRIER 2022 A MARS 2023 LVMH
Dans le cadre d'une mission en tant que Senior Data Engineer GCP le but est de préparer les données qui viennent
de plusieurs sources (externe et interne) et assurer la sécurité en limitant l’accès des utilisateurs.
▪ Collecte et préparation des données (filtrage, transformation, aggregation, etc) avec BigQuery
▪ Optimisation des performances des scripts et minimisation des coût (Partitioning, clustering, etc)
▪ Organisation des workshops avec l’équipe de Data visualisation pour décider le meilleur modèle de
données à concevoir afin d’obtenir un temps de réponse optimale des tableaux de bords (temps de
refresh des graphs en utilisant les filtres)
▪ Création du modèle de données (Fact tables, dimensions, authorized views, etc)
▪ Développer et maintenir les règles de sécurité : Limiter l’accès des utilisateurs à leur périmètre de
données
▪ Automatiser la mise à jour des données avec les services managés
▪ Détecter les anomalies dans les données
▪ Déploiement des services avec Terraform.
Environnement technique :
BigQuery, Airflow, Cloud Scheduler, Terraform, GitHub, Python, SQL, Cloud GCP
DE JUIN 2020 A FÉVRIER 2022 OPCO EP
Au sein d’une équipe pluridisciplinaire de la Digital Factory, je participe à la mise en place des solutions
ETL, via des extractions TALEND depuis plusieurs sources (Objets : Salesforce, documents : API, Fichiers plats :
Volume SFTP), pour les transformer et les intégrer dans des cibles différentes en batch
Poste : Consultant senior big data / TALEND BIG DATA
▪ Interfaçage entre applications via Webservices (Talend ESB, REST)
▪ Développement de job Talend qui font appel à des APIs avec des requêtes Http (appels Rest, GET et Put
pour les éventuelles envois)
▪ Développement des routines java pour les traitements spécifiques
▪ Conception et développement des interfaces Talend d’intégration des flux (CSV, positionnel, XML) et des
interfaces de synchronisation inter-bases et reprise de données
▪ Alimentation du Data Warehouse pour archivage et historisation
▪ Participation à l’élaboration du dossier d’architecture de la solution à mettre en place
▪ Gestion de logs évènementielle (envoie de Mail et alertes en cas d'erreur ou anomalie)
▪ Conception/Développement des Jobs Talend Big Data
▪ Optimisation des traitements existants.
▪ Maintenance évolutive et suivi de production.
▪ Développement des routines en Java
▪ Exposition des données via API rest
▪ Développement de traitements d'ingestion, de normalisation et de consommation de données structurées
et non structurées
Page 2/5
▪ Normalisation des développements Talend Big Data
▪ Contrôle des flux de chargements journaliers
▪ Mise en place de bonnes pratiques de développements
▪ Réalisation des tests unitaires, de non-régression, d’intégration et de performance
▪ Déploiement continue des applications (CI/CD)
▪ Chiffrage de la charge, établissement et envoie des devis
Environnement technique :
Talend, Talend Big Data, JAVA, MongoDB, KAFKA, Docker, Kubernetes, Gitlab, Ranch
Salesforce, Elasticsearch, GRAFANA
Septembre 2019 – juin 2020
MACIF
Poste : Consultant senior Talend / Talend big data
Contexte : Dans le cadre d’un projet de mise en place d’un Data Lake et la restitution du site ********.
▪ Analyse des spécifications fonctionnelles détaillées SFD
▪ Participation à l’élaboration du dossier d’architecture de la solution à mettre en place
▪ Optimisation des développements existants (Mise en place des bonnes pratiques de développement
Talend)
▪ Création des Jobs de migration de données (phase d’initialisation) et des jobs de synchronisation de
données
▪ Développement de routines Java pour implémentation des règles métiers spécifiques (invocation de Web
Service, formatage de données, sécurisation des mots de passe…)
▪ Formation des nouveaux consultants
▪ Rédaction des supports de formation Talend
▪ Développement de nouvelles interfaces
▪ Analyse d’anomalie & corrections
▪ Mise en place de tableaux de bord Google Data Studio, Tableau et Adobe Analytic
▪ Rédiger des documents de normes et bonnes pratiques
▪ Participer à la démarche exploratoire des fonctionnalités GCP, réaliser des POC
▪ Chiffrage de la charge, établissement et envoie des devis
Environnement technique :
TALEND BIG DATA, BigQuery, Google Cloud Platform, Google Data Studio, Cloud Storage MongoDB, Python,
PySpark, Grafana, ElasticSearch, Kubernates, Java
Novembre 2018 – septembre 2019 Essonne Conseil Départemental
Poste : Consultant expert Data engineer
Contexte : Dans le cadre de mise en place de nouveaux projets et intervention sur l’existant en tant que Tech Lead
Talend.
▪ Référent Talend sur plusieurs projets Talend
Page 3/5
▪ Conception /développement des jobs Talend
▪ Modélisation de l'entrepôt de donnée “Data Warehouse"
▪ Conception, Développement et Alimentation d’un entrepôt de donnée avec TALEND
▪ Préparation et suivi de mise en Production
▪ Etude, conception et développement d’univers/rappoorts Business Objects
▪ Maintenance et surveillance des interfaces TALEND
▪ Expertises sur les composants TALEND
▪ Pilotage et management de l’activité de plusieurs ETP
▪ Suivi du plan de capacité de l’équipe et affectation des tâches
▪ Rédaction des conceptions explicatives détaillées des contrats d’interface
▪ Chargement, intégration, documentation et préparation des livraisons
▪ Chiffrage de la charge, établissement et envoie des devis
Environnement technique :
Talend, PostgreSQL, SQL, Shell Unix, Redmine, Java, Jenkins, Control M, GIT/Gitlab, Sql Developer, SAP Business
Objects XI
Décembre 2017 à octobre 2018 Caisse Dépôt
Poste : Consultant senior Talend big data
Contexte : Dans le cadre d'un POC (Proof Of Concept) Big data dans le domaine de data finance, en tant que
consultant expert Big Data.
▪ Conception et rédaction d’un document d’architecture cible
▪ Développement des Job Talend Big Data
▪ Développement des flux d’alimentation avec Data Integration et Big Data intégration de TALEND
▪ Mise en place de data quality (nettoyage des données)
▪ Développement des jobs Spark Batch d’ingestion dans HDFS, Hive, Hbase
▪ Analyse et transformation des données selon les besoins
▪ Ingestion et transformation de donnée avec Talend Big Data
Environnement technique :
Talend Big Data, Nifi, PySpark, Hive, Java, Hadoop, HDFS, Sqoop, Python, Ambari, Shell Unix, SQL
Janvier 2017 – novembre 2017 CNAM
Poste : Consultant expert Talend Big Data
Contexte : Dans le cadre d’un projet Big Data portant sur l’ingestion des factures quotidiennement reçus par
l’Assurance Maladie et la recherche des doubles paiements potentiellement frauduleux
Mission :
▪ Analyse des spécifications fonctionnels détaillées SFD
▪ Rédaction des spécifications techniques détaillées STD (dont dictionnaire de données, règle de
transformation.)
▪ Extraction des données à partir de plusieurs bases hétérogènes via Talend
Page 4/5
▪ Audit de la qualité des données, mise ne place de la règle de contrôle, de perspectives, et de reporting
interactifs permettant l’affichage des incohérences (doublons, valeurs erronées, etc.) viaTalend
Data-Quality
▪ Développement des job Talend pour l'intégration des données
▪ Développement de routines Java pour implémentation des règles métiers spécifiques (invocation de Web
Service, formatage de données, sécurisation des mots de passe,)
▪ Ordonnancement des jobs via Talend Administration Center TAC
▪ Mise en plac d’un DataWarehouse pour la création de nouvelles offres répondant mieux aux besoins des
client
▪ Test d’intégration et support pour la recette
▪ Rédaction des documents d’installation
Environnement technique :
Java, Talend Big Data, Spark, Hadoop, Kafka, Kafka Connect, Hbase, Zookeeper, Putty, Talend Big Data, Maven,
Docker Compose, ElasticSearch, Gitlab, Kibana, Ranger
Janvier 2016 – Décembre 2016
Mutavie
Poste : Consultant senior Talend
Contexte : Dans le cadre d’un projet pour but de mettre en place un DWH, en tant que consultant au sein de
l'équipe data : Conception et développement des flux Talend.
▪ Modélisation de l'entrepôt de données “Data Warehouse"
▪ Conception, Développement et Alimentation d’un entrepôt de données avec Talend
▪ Amélioration et optimisation des interfaces TALEND existantes
▪ Développement des flux TALEND (ETL)
▪ Intégration des données avec TALEND (ESB)
▪ Documentation des Job Talend : Dossier d’exploitation
▪ Coordination des différentes équipes impliquées dans le projet
▪ Suivi de production
Environnement technique :
TALEND, JAVA, Shell Unix, Putty, Control-M, Oracle, PostgreSQL
Compétences Techniques
Talend Talend DI, Talend ESB, Talend Big Data, Data Quality
Big Data GCP, HADOOP, SPARK, KAFKA, HIVE, TALEND BIG DATA, Elastic Search, NIFI,
SGBD MySQL, Oracle, PostgreSQL, Sybase, Snowflake, MongoDB
Langages JAVA, PYTHON, SQL, XML, JSON, PL/SQL
Méthodologies Merise, UML, Kanban, Scrum
Data Viz TABLEAU, GOOGLE DATA STUDIO, KIBANA, GRAFANA, QLIK SENSE
Web Service SOAP, REST
Formations
2023 CERTIFICATION GCP
2022 CERTIFICATION TALEND DATA INTEGRATION, EDITEUR TALEND
2021 CERTIFICATION TALEND ESB, EDITEUR TALEND
2021 CERTIFICATION TALEND BIG DATA, EDITEUR TALEND
2021 CERTIFICATION KAFKA, UDEMY
2021 CERTIFICATION AGILE SCRUM
2019 CERTIFICATION ARCHITECTE GCP
2014 CERTIFICATION JAVA, FUTURSKILL
2015 Master 2 Analyse Appliqué et Modélisation, Université Picardie Jules Vernes d’Amiens