• Mise en place de l'outil GitEye pour utiliser GIT sur l'outil Talend (Open
Studio - version gratuite)
• Rédaction des bonnes pratiques Talend
• Proposition et acceptation d'un consultant Talend d'Inetum
• Mise en place d'une pipeline CI/CD pour le déploiement des Jobs Talend
• Mise en place des bonnes pratiques sur l'utilisation des branches GIT
• Rédaction des bonnes pratiques Talend
• Sécurisation des mots de passe au sein des Jobs Talend avec Vault
• Animation des ateliers techniques
• Amélioration sur les performances des traitements ETL Talend
(amélioration des temps de traitement suite à la volumétrie des données)
• Responsable des livraisons en relation avec les exploitants
• Lancement d'une opportunité avec l'éditeur Talend pour la mise en place
de l'outil Talend Cloud.
Migration de la base de données Netezza vers Snowflake (Projet de 5 personnes)
• Mise en place de l'agilité Scrum
• Stratégie de migration pour les bases de données BI
(ODS/DataWarehouse/DataMart)
• Développement d'un job Talend générique pour l'alimentation des tables
ODS
Au sein de la BU d'expertise Data, je suis responsable de l'offre Talend et en
charge du "Partenariat Platinium" avec l'éditeur Talend.
De plus, je suis Manager Technique de 5 développeurs Talend.
• Responsable et Animation des ateliers techniques sur Talend
(fréquence mensuel)
• Responsable formateur sur les outils Talend
• Recrutement des développeurs Talend (Inetum France),
• Participation aux appels d'offres Talend
• Management : Réalisation des Feedback, suivi des développeurs sur
leurs missions
- Développement d’évolutions et correction d’anomalies
o Synchronisation des données entre un CRM Salesforce et une base de données (PostgreSQL)
o Importation des données (fichiers XML, CSV, XLS) vers la base de données
o Création des Joblets pour utiliser des API GraphQL (Web Service)
- Mise en place des bonnes pratiques
o Modélisation et documentation sous l’ETL Talend.
o Revue de code de mes collègues
o Organisation et optimisation des processus de développement.
o Transmission des connaissances et les savoir-faire.
o Proposition et mise en place des solutions techniques.
o Contribution à la veille technologique et à l'évaluation de nouvelles solutions.
o Création d’un DataWarehouse (entrepôt de données) et DataMart (restitution et analyse des données)
- Recueil des besoins des clients et assurer la cohérence technique des différents sprints
- Migration de l’ETL Data Integration (version 6.2) vers l’ETL Cloud Data Integration (version 7.0.1)
- Participation à la formation SCRUM/AGILE
- Développement d’évolutions et correction d’anomalies
o Migration des données d’une ancienne base de données vers une nouvelle base de données
o Migration des données d’une base de données MySQL vers MongoDB
o Intégration des données issues d’un fichier XML vers une base de données
o Qualification de données, mise en place de flux d'alimentation à forte volumétrie
o Optimisation des performances
- Mise en place des bonnes pratiques (convention de nommage, optimisation des jobs, gestion des logs, etc)
- Rédaction de spécifications techniques détaillées
Référent ETL Talend Data Integration : 90% sur mon temps de travail
Développeur JavaEE/AngularJS 2 : 10% sur mon temps de travail
- Développement d’évolutions et correction d’anomalies
- Étude technique sur les nouveaux chantiers (chiffrages)
- Rédaction et mise à jour de manuels (installation et exploitation)
- Réalisation d’un script SQL pour récupérer des données anonymisées de la production (méthode cryptage SHA256)
- Référent technique sur l'outil ETL Talend concernant la reprise de données à la suite d'une modernisation d'une nouvelle base de données (contenant 50 tables avec plus 50 millions de données).
o Analyse fonctionnelle
o Elaboration des solutions techniques
o Implémentation des modèles de données et les flux d’intégration de données en respectant les spécifications, les bonnes pratiques, les exigences de performance et la qualité des données
- Développement d’évolutions et correction d’anomalies
- Développement de différents batch Talend pour :
o Reprise de données à la suite d’une mise de production d’une application
o Remontée d’alertes fonctionnelles
o Importation des données d’un fichier plat vers une base de données
o Exportation des données d’une base de données (WebService REST) vers un fichier plat
- Test de charge et performance de différentes applications web avec Apache JMeter
- Rédaction des dossiers de conception en fonction des évolutions apportées pour chaque application
- Réalisation des modèles relationnels (MCD, Modèle Conceptuel des Données et MPD, Modèle Physique des Données) avec l’outil de conception PowerAMC
- Mise en place d’un serveur ESXi pour héberger nos différents VMs (machines virtuelles)
- Développement d'une application sur la gestion des certificats des produits concernant le commerce extérieur dans un environnement Client/Serveur.
- Réalisation d’un spectre sur l'analyse technique détaillée.
- Test Unitaire avant la mise en recette et production.