Lead Data Engineer
LEASECOM
octobre 2024 - aujourd'hui
Leasecom est une société spécialisée dans la location financière d’équipements professionnels et dispose de 267 employés répartis dans diverses agences à travers la France.
Dans le cadre de cette mission, j'ai rejoint le pôle Data & Analytics qui est composé d'une dizaine de personnes qui travaillent autour des solutions Talend, Jaspersoft, BIRT, Power BI et Qlik view.
Nous étions organisés en squad de 5 personnes. Ma squad était composée de :
- 1 MOA
- 1 product Owner
- 1 Expert en éditique (Jaspersoft, BIRT)
- 1 Développeur ETL (Talend)
- 1 Testeur
Mes responsabilités :
- Réalisation d'une étude comparative de BIRT, Jasper Report et Power BI.
- Collaboration avec les équipes métiers pour recueillir, analyser et documenter les besoins en reporting, et traduire ces exigences en spécifications techniques.
- Optimisation des requêtes SQL pour garantir la performance des rapports, en particulier sur de grands volumes de données.
- Développement de rapports complexes et dynamiques en utilisant Jaspersoft Studio.
- Tests unitaires et validations pour garantir l'exactitude et la pertinence des données dans les rapports.
- Déploiement en production.
- RUN : Correction des éventuels bugs et évolutions métiers.
- Tech lead Talend Cloud : accompagnement pour l’installation de Talend v8, Aide pour envoie de donnée via API REST.
J𠆚i contribué aux évolutions suivantes :
• Mise en place de plusieurs éditiques de relance automatique des impayés pour le service de recouvrement. Ces éditiques ont permis de relancer à temps les impayés et par ces relances l'équipe de recouvrement pourra récupérer une dizaine de millions d'euros en impayés.
• Formation sur la mise en œuvre de bonnes pratiques Talend.
Environnement technique : Jasper Report Studio, BIRT, Talend Cloud v8, Redmine, Oracle, MS SQL, MARIA DB, CASSIOPAE, VIGIE, Scrum, méthodes agiles.
Jasper Report Studio, BIRT, Talend Cloud v8, Redmine, Oracle, MS SQL, MARIA DB, CASSIOPAE, VIGIE, Scrum, méthodes agiles.
Lead Data Engineer
LagardèreTravelRetail
juillet 2024 - septembre 2024
Lagardère Travel Retail est un acteur mondial majeur du « Travel Retail », c𠆞st-à-dire du commerce de détail dans les zones de transport (aéroports, gares, métros, etc.).
Le groupe exploite plus de 4 900 points de vente répartis dans 45 pays sur cinq continents (boutiques, magasins duty-free, enseignes de mode, services de restauration et commerces).
Nous étions organisés en squad de 4 personnes. Ma squad était composée de :
- 1 product Owner
- 3 Développeurs Talend
Mes responsabilités :
- Analyse des processus existants implémentés dans Talend pour identifier les inefficacités, les goulots d'étranglement et les points de défaillance.
- Identification des zones de processus où des améliorations peuvent être apportées en termes d'efficacité, de fiabilité et de maintenabilité.
- Implémenter un mode rejet et définition des stratégies de gestion des erreurs pour les jobs Talend afin de garantir une exécution robuste même en cas d'incidents.
- Intégrer des mécanismes de gestion des exceptions pour capturer et traiter les erreurs rencontrées pendant l'exécution des jobs.
- Mettre en œuvre des routines de rejet pour traiter les données incorrectes ou non-valides de manière appropriée, en les journalisant.
- Test Unitaire et déploiement sur Talend TAC.
J𠆚i contribué aux évolutions suivantes :
- Mise en place de bonnes pratiques pour la gestion des erreurs et la supervision des logs.
Environnement technique : Talend version 8, API REST, SFTP, Oracle, MS SQL, Redmine.
Talend version 8, API REST, SFTP, Oracle, MS SQL, Redmine.
Lead Data Engineer
Unibail-Rodamco-Westfield
avril 2024 - juillet 2024
Unibail-Rodamco-Westfield est un leader européen de l’immobilier commercial et tertiaire. Le groupe possède et exploite de nombreux centres commerciaux souvent sous la marque emblématique Westfield.
Dans le cadre de cette mission, j'ai rejoint le pôle Data qui est composé d'une dizaine de personnes qui travaillent autour des solutions Talend, Snowflake, TIBCO ESB.
Nous étions organisés en squad de 4 personnes. Ma squad était composée de :
- 1 Archiecte
- 1 product Owner
- 1 Expert TIBCO ESB
- 1 Développeur Talend
Mes responsabilités :
- Rétro-ingénierie sur les flux TIBCO ESB en vue d'une migration des projets TIBCO ESB vers Talend DI.
- Création de flux Talend : pour décommissionner certains flux ESB et migration de données depuis SAP vers snowflake avec des fonctions BAPI.
- Création et alimentation de tables dans snowflake.
- Test Unitaire et déploiement sur Talend TMC.
J𠆚i contribué aux évolutions suivantes :
• Décommissionnement de projets TIBCO ESB afin de réduire les coûts de licence, certains flux ne nécessitant pas une exécution en temps réel.
• Inition du projet CREM pour le chargement des données de plusieurs Bulding.
Environnement technique : Talend Cloud Big data Fabric version 8, API REST, SFTP, Snowflake, TIBCO ESB et SAP.
Talend Cloud Big data Fabric version 8, API REST, SFTP, Snowflake, TIBCO ESB et SAP.
Lead Data Engineer
Accor
août 2019 - mars 2024
Accor est un grand groupe hôtelier. L𠆞ntreprise possède plusieurs marques comme Sofitel, Pullman, Mercure ou encore Adagio. Le groupe compte aujourd’hui environ 5 682 hôtels à travers le monde et plus de 360 000 employés.
Dans le cadre de cette mission, j'ai rejoint l'équipe Salesforce.
Les solutions développées et maintenues par l’équipe sont largement interfacées avec le reste du système d’information Accor et les partenaires externes via des flux ETL. Cet applicatif est utilisé par plus de 800 vendeurs et 4 500 utilisateurs hôtel.
Nous étions organisés en squad de 4 personnes. Ma squad était composée de :
- 1 Expert Salesforce
- 1 Expert Talend
- 1 product Owner
- 1 Testeur
Mes responsabilités :
• Production des analyses d'impacts et spécifications techniques.
• Participation aux ateliers avec les autres équipes Accor.
• Définition de solutions, recommandations et chiffrage des évolutions.
• Réalisation des développements avec Talend, optimisation et refactorisation.
• Déploiement en recette via la TMC.
• Mise à jour de la documentation sur Confluence.
• Création des demandes de mise en prod et rédaction des dossiers d'architecture technique.
• Ouvertures de flux et ouvertures de proxy.
• Mise en place des clefs SSH et d'encryptage.
• Mise à jour des fichiers de configuration.
• Analyse des dysfonctionnements en production.
• Mise en place du plan correctif.
• Reprise de données.
RUN :
• Monitoring des jobs via la TMC et Splunk.
• Relance en production si besoin.
• Traitement des tickets de run dans Service Now.
J𠆚i contribué aux évolutions suivantes :
• Migration des flux Talend V6 vers V7, puis de V7 vers V8 Cloud.
• Participation à la réduction de la dette technique.
Environnement technique : Talend Cloud Big data Platform v8, GitLab, Linux (Debian), Splunk, JSON (Pivot), XML, Salesforce, API REST, SFTP, Amazon S3 (Bucket), MDM ORCHESTRA, ESB TIBCO, Kafka, Dynamics CRM, CVENT, JIRA, Kanbam, Scrum, méthodes agiles.
Talend Cloud Big data Platform v8, GitLab, Linux (Debian), Splunk, JSON (Pivot), XML, Salesforce, API REST, SFTP, Amazon S3 (Bucket), MDM ORCHESTRA, ESB TIBCO, Kafka, Dynamics CRM, CVENT, JIRA, Kanbam, Scrum, méthodes agiles.
Data Engineer
Smile Open Source Solutions
février 2013 - juillet 2019
Smile est un acteur européen majeur du numérique, spécialisé dans l’intégration de solutions open source et la transformation digitale.
En tant que Consultant décisionnel confirmé, j𠆚i réalisé de nombreuses missions pour des clients variés, sur des périodes allant d’un jour à 15 mois. Mon rôle a couvert l’intégralité de la chaîne décisionnelle : ETL, modélisation, datawarehouse, reporting, gouvernance, migration, support, formation et expertise technique.
Mes responsabilités :
- Conception et développement de flux ETL (Talend, Pentaho PDI).
- Mise en place et administration de plateformes BI (Talend, Jaspersoft, Pentaho).
- Modélisation et alimentation d𠆞ntrepôts de données (ODS, DSA, DWH).
- Développement de rapports avancés (Jaspersoft, BIRT, Pentaho Report Designer).
- Prototypage et POC pour des cas d’usage métiers.
- Migration de plateformes BI (versions Talend, Pentaho, Jaspersoft).
- Formation et accompagnement utilisateurs (sessions internes et clients).
- Contribution R&D (rédaction d’un Crédit d’Impôt Recherche).
J𠆚i accompagné de grands comptes et organisations publiques sur leurs problématiques data et BI :
Banque & Assurance : Agirc-Arrco, Profideo, Mutuelle Les Ménages Prévoyants.
Énergie et Industrie : EDF, Faiveley Transport.
Médias, Télécoms & Services : INA, SFR Business, Leboncoin.
Distribution & Retail : Carrefour, GALEC, BIO C𠆛on.
Secteur public : CADA, Mairies, INSEE.
Environnement technique :
ETL & Big Data : Talend DI/Big Data, Pentaho PDI, Informatica.
Reporting : Jaspersoft, BIRT, Pentaho.
OLAP & Mondrian : Pentaho Business, Analytics, Jaspersoft, Saiku Analytics, Jedox.
Bases de données : Oracle, MySQL, PostgreSQL, MSSQL, Hive, AS400.
ETL & Big Data : Talend DI/Big Data, Pentaho PDI, Informatica.
Reporting : Jaspersoft, BIRT, Pentaho.
OLAP & Mondrian : Pentaho Business, Analytics, Jaspersoft, Saiku Analytics, Jedox.
Bases de données : Oracle, MySQL, PostgreSQL, MSSQL, Hive, AS400.