Gestion du Leasing &ndash Location longue durée Aujourd&rsquohui Consultant Informatica
Volkswagen Banque VWFS
7/2023 -
ï‚· Intégration des données à l'aide de l'ETL informatica.
ï‚· Script shell unix pour le schedulling des traitements d'alimentation et de traçabilité, avec une
définition de l&rsquoordonnancement pour une prise en compte via l&rsquooutil UC4 (Automic Workload
Automation) par l&rsquoéquipe HQ en Allemagne.
ï‚· Optimisation et amélioration des performances des mappings informatica
ï‚· Gestion des demandes, changements, évolutions et incidents
ï‚· Suivi de production applicatif
ï‚· Prise en compte des anomalies et résolution d&rsquoincidents
ï‚· Support technique pour les recettes fonctionnelles
ï‚· Production/enrichissement de la documentation.
ï‚· Travailler en collaboration avec des équipes en Allemagne et au Portugal
ï‚· Réalisation des recettes techniques, amélioration des plans de tests
ï‚· Livraisons applicatives
ï‚· Assurer les astreintes de clôture mensuelle
Environnement Technique : Informatica, SAP BW, BO XI, BI4, Oracle 19, SQL, PL SQL
Consultant Informatica Cloud
Danone
1/2022 - 6/2023
ï‚· Assurer le développement ETL en utilisant Informatica Power Center et Informatica Cloud.
ï‚· Créer un entrepôt de données, une zone de staging et un Datamart sur la base de données
Snowflake.
ï‚· Intégrer des données dans la base de données Snowflake en utilisant Informatica Cloud.
ï‚· Chargement dans Snowflake des fichiers issus de différents Pays, mis à disposition dans ADLS
(Azure Datalake Storage) via le mass ingestion
ï‚· Utiliser Informatica Cloud dans les nouveaux projets et interagir avec différents environnements
tels que DB2, Postgres, AWS S3, Azure ADLS GEN2, Snowflake, API.
ï‚· Mise en place des vues Snowflake pour les besoins de reporting en PowerBI
ï‚· Utiliser les services Microsoft Azure pour intégrer les données comme ADLS Gen 2.
Travailler avec des équipes de différents pays : Pologne, Espagne, Pays Bas, Mexique via des
échanges Teams et des points réguliers
Environnement Technique : Informatica Cloud IICS, Informatica PowerCenter, Snowflake, AWS,
Azure, ADLS GEN2
ENEDIS
6/2018 - 12/2021
Projet « Banque de données &ndash Acquisition des flux producteurs &ndash Injection de
l&rsquoélectricité sur le réseau»
ï‚· Conception de nouveau flux d&rsquoacquisition (Autoconsommation collective, Gestion PAS 15 dans
Linky)
ï‚· Développement des Mapping, Tasks et Workflow Informatica CDI. Orchestration des traitements.
ï‚· Création des Process & API Informatica CAI, pour récupérer les données météo
ï‚· Analyse des incidents et proposition de solution de résolution
ï‚· Maintien en Conditions Opérationnelles des applicatifs au travers des outils de ticketing et
d&rsquoattitudes proactives
ï‚· Gestion de la qualité de données, analyse et correction
ï‚· Mise en place des indicateurs de suivi des alertes et rejets par la mise en place de la traçabilité au
niveau des mappings tasks
ï‚· Suivi de production (Monitoring des flux en terme d&rsquoexécution et de performances, rattrapages,
etc)
ï‚· Support technique et fonctionnels
ï‚· Maitrise des technologies Bases de données Teradata (bi-temporalité, optimisation des
performances, plan d'exécution, skew, etc.)
Environnement Technique : TERADATA 16.20, Informatica Cloud IICS (CDI, CAI), API
REST et SOAP, SQL, PL/SQL, SHELL, UNIX, Jira.
Environnement Fonctionnel : Energie
ENEDIS
11/2017 - 6/2018
Projet « Optimatisation Bilan Global de Consommation
« Profilage Dynamique »
ï‚· Réalisation d&rsquoun Proof Of Concept de la macro de calage sur marge
ï‚· Réalisation d&rsquoétudes avec le métier
ï‚· Implémentation du modèle de données Teradata
ï‚· Modélisation de la couche sémantique : définition des vues Teradata simple et complexes
ï‚· S&rsquoapproprier lecalage sur marge, dont la préparation des données en amont
ï‚· Tester les différentes solutions techniques afin de faire un choix cohérent et pérenne
ï‚· Implémentation du calage sur marge pour tous les profils
ï‚· Initialisation des banquesde donnéesde l&rsquoespace projet : courbes decharge et données auxiliaires
ï‚· Calcul des coefficients dynamiques à partir des puissances pondérés et comparaison avec
les résultats du métier
ï‚· Lancement et test de la chaîne de « bout en bout »
ï‚· Support technico-fonctionnel aux utilisateurs
ï‚· Administration et suivi via Teradata Viewpoint
Environnement Technique : Informatica Powercenter 9.6, TERADATA 16.20, BTEQ,
TPT, FASTLOAD, FASTEXPORT, SQL, PL/SQL, UNIX, Script SHELL, Jira.
Environnement Fonctionnel : Energie
ERDF MCO
3/2016 - 10/2017
Projet : STM (Système de Traitement de Mesure) est une solution BigData qui intègre la dé-commissionnement de plusieurs applications existantes reprises dans STM. Cette solution permet
d'absorber la volumétrie de données de mesure liées aux compteurs communicants Linky.
ï‚· Analyse et gestion des anomalies
ï‚· Résolution des incidents de production
ï‚· Analyse détaillée et développement des mappings et workflow d&rsquoalimentation sous Informatica
ï‚· Développement de scripts BTEQ, TPT, SHELL permettant la correction des anomalies
ï‚· Rédaction des fiches d&rsquoanalyse et des modes opératoires d'installation
ï‚· Prise en compte des demandes d'expertises au fil de l'eau : incidents, optimisation, deadlock,
conseils
ï‚· Réalisation des livrables et packaging
ï‚· Accompagnement des nouveaux arrivants
ï‚· Suivi du cahier de recette préalablement établis pour le passage des patchs correctifs en préproduction et leur déploiement en production
ï‚· Réalisation des Tâches en RUN (Fonctionnement Courant) et tâches en BUILD (Mode Projet).
Environnement Technique : Informatica 9.6, TERADATA 14.2, BTEQ, TPT, FASTLOAD,
FASTEXPORT, SQL, PL/SQL, UNIX, Script SHELL, Quality Center.
Environnement Fonctionnel : Energie
Consultant Teradata &ndash ETL Informatica
ERDF
10/2015 - 2/2016
Nombre de personnes au sein de l&rsquoéquipe: 20
Projet : Système de Traitement de Masse / Datalab
SIKAPA
Le projet STM « Système deTraitement en Masse » vise à doterERDF d&rsquounSI dédié au stockage dans la durée
et
au traitement des données de mesures de suivi de la consommation des POM (Point de mesure) /
clients. Ces traitements se placent entre l&rsquoacquisition des mesures brutes reçues des applications de
relève (SAR et GEC) et la publication/restitution vers les destinataires des mesures validées.
ï‚· Conception et développement des procédures/macros Teradata utilisées dans les
fonctionnalités de l&rsquoIHM (recherche,restitution).
ï‚· Réalisation des livrables et packaging
ï‚· Developpement des mappings d'alimentation sous informatica
ï‚· Analyse et correction des anomalies des traitements existants
ï‚· Développement des vues métiers pour les besoins de restitutions
ï‚· Export des données dans des fichiers csv (TPT Export) pour les applications avals.
ï‚· Chargement espace de staging à partir des fichiers (TPT Load)
ï‚· Alimentation de l&rsquoespace de travail depuis l&rsquoespace de staging (BTEQ,Shell, TPT Load)
ï‚· Alimentation de socle depuis l&rsquoespace de travail (BTEQ, Shell, TPT Load)
ï‚· Mise en place de Datamarts implémentés en Datalab à savoir mise à disposition des données
rapide et directe aux métiers avec une capacité à faire évoluer les besoins de manière
récurrente dans le cadre de projets itératifs/agiles
Environnement Technique : TERADATA 14.2, TPT, BTEQ, FASTLOAD,
FASTEXPORT, Informatica 9, SQL, PL/SQL, UNIX, Script SHELL, Quality Center.
Environnement Fonctionnel : Energie
Consultant
Société Générale &ndash La défense
1/2014 - 9/2015
Informatica Nombre de personnes au sein
de l&rsquoéquipe : 30
Projet : Interface Mutualisée Risque et cohérence comptable&ndash Programme Bâle II/III
IMR collecte et met à disposition des données liés aux risques de crédits et est source de
données des calculateurs de risque et de restitutions sur les applications avales
ï‚· Rédaction de spécifications techniques détaillées
ï‚· Développements des mappings et workflow d&rsquoalimentation sous Informatica
ï‚· Développement des procédures PL/SQL sous Teradata pour marquer les données à rendre
éligible pour le calculateur du risque de crédit sous FERMAT. Les procédures PL/SQL se base
sur les données collectés (BCE,MRP,&hellip)commesource,appliquedesrèglesdegestion(formatage,
transcodification,nettoyage, agrégation, &hellip) avant de les marquer.
ï‚· Développement de procédure PL/SQL pour la désactivation des anciennes tranches de crédits.
Le rôle de la procédure est de permettre de rendre invisible des tranches de crédit en
respectant des règles de gestion complexes (utilisation des tables volatiles, cursor, gestion des
exceptions,..).
ï‚· Développement de procédure PL/SQL pour l&rsquointégration des nouvelles tranches générées
par le calculateur de risque FERMAT.
ï‚· Gestion des erreurs et exceptions en PL/SQL sous Teradata
ï‚· Développement des fonctions et macro sous Teradata. Ces macro et procédures sont soit
exécutées via des batch unix ou appelées via informatica.
ï‚· Mise en place des vuesTeradata pourla restitution des données via l&rsquoIHM Java d&rsquoajustement
ï‚· Maintenance corrective et évolutive des développements
ï‚· Prise en charge progressive de nouveaux projets
ï‚· Optimisation des traitements Informatica et des requêtes sql (mode Bulk, TPT LOAD)
ï‚· Suivi des traitements de production avec communication aux différents intervenants.
Environnement Technique : ETL Informatica 9.1, TERADATA 14.2, Oracle
11g, XML, SQL, PL/SQL, UNIX, Script SHELL, Quality Center, Versioning sous
Clearcase
Environnement Fonctionnel : Risque de crédit
Consultant Informatica Senior
Crédit Mutuel &ndash ACMN Vie
4/2013 - 12/2013
Nombre de personnes au sein de l&rsquoéquipe : 10
Pro...