Expérience professionnelle
Groupama G2S MTI IFRS17 – 02.2021 – 09 2021
Ingénieur d’Etudes - Développeur Informatica
Description :
Dans le cadre de la preparation des données d’assurance pour l’entrée en vigueur de la norme IFR17 à mise en place un module : le MTI en charge du control des fichier de données des fichier émis par les entités dont les sources sont de 3 types :
Données issues des sytèmes comptables (1 onglet : BT pour Business Transaction)
Données issues des sytèmes actuarials (5 onglets : TV pour Target Values – BE pour Best Exchange Cash Flow – EP pour Exposure Periode Split – DE pour Product Deferralt – VR pour Vectors and RATES)
Donées de parametrage (4 onglets : ACCPD pour accounting portofolio - ACTPD pour actuarial portofolio – PC pour portofolio Classificiation – PA pour portofolio ASSIGNMENT
Le fichier pivot final a envoyé à SAP FPSL est constitué des 10 onglets, il valide si tous les 10 onglets ci-dessus sont valides
Les entités émettent de type de fichiers qui impement 3 models (PAA, BBA et VFA) sur deux perimetres : VIE , NON VIE :
Fichier déjà au format pivot (fichier à controler par le MTI)
Fichier comunautaires (provenant de SI communauaires ASSURETAT, BART)
Role du MTI : en utilisant un plan de control defini et un dictionnaire de données
Controler les fichier au format pivot
Transformer, enrichir les fichiers communautaires pour produire des fichier pivots
Envoyer/diffuser le fichier pivot vers SAP FPSL et SAP BOFC
Taches :
Développement du module de control des fichiers en entrées du MTI (Module de Traitement des Interface : socle constitué d’un ETL (Informatica 10.4) et d’un IHM developpé en java) :
Le moteur de regles qui implementes les regles du plan de control à été été développés en shell
Ce motreur de regles éffectue les actions suivantes :
control de surface et control de structure
Control de la nomenclature des fichiers (naming convention defini dans le plan de control)
Classe les fichiers en fonction du status affecté par le moteur de regles des control
Effectue des reject de fichier ou classe dans le repertoire approprié les fichiers qui on reussi le tests avec le moteur de control
Execute les workflows control de structure et données pour les fichier OK suivant le resultat du moteur
Developpement des transformations
La partie des transformations part des sources communautaires pour produire des fichiers au format pivots
Les sources sont differentes d’une edb à l’autre et d’un model à l’autre
Fichiers actuarials du fichier pivot : TVE – DE – BECF – VR – EPS
Fichiers parametrage du fichier pivot : ACCPD – ACTPD – PA – PC
Fichiers accountig du fichier pivot : BT Business Transaction
Developements des mapping, mapplets, generation dynamiques fichiers de parametres utlisés par l’intégration services informatica et pour les controls et pour les transformations via scripts shell d’automatisation
Environnement TECHNIQUE :
L’environement de developpement est accessible via l’enviromment cloud de developpement du client
Système d’exploitation : UNIX AIX IBM
BDD : Oracle 19C
SCHEMA STAGING : pour le staging des données
SCHEMA REPORT : pour le reporting
SCHAMA REFERENCE : pour les tables de références
ETL : Informatica 10.4
Livraison : outils client Domino pour la constitution des packets de et bon de livraison des developpement ETL BDD et Scripts – Audi pour le deployement des builds relatifs au livrables
Bureautique : Teams - Powell Hub – Offiche 365
Environnements : DEVELOPEMENT – INTEGRATION – RECETTE – PRE-PRODUTION - PRODUTION
Sanofi Attrium REST API 10.2018 – 12.2019
Ingénieur d’Etudes - Développeur Informatica
Taches:
Développement des interfaces entrantes/inbound et sortantes/outbound d’echange de payload en 4 web services pour envoyer (nbound)/recevoir (outbound) des donnees MDM entre Samofi et Atrium.
Les donnes sont échanges entre Atrium et les web service via le protocole REST api sous format JSON
Souces Systèmes : Fichiers MDM fournit par Sanofi
Analyse Fonctionelle et Création des Technical Design
Developpent des mapping de generation des payload MDM a partir des source CSV
Plateforme de développement : Informatica Cloud
Technologie : Transformation REST API
Client : Poste client sur lequel est installé le secure agent
Postman : Rest client for testing CRUD operation POST GET PUT DELETE
Server : IICS web application
Swissre Atlas DL (Distribution Layer) 11-2017-06-2018
Ingénieur d’Etudes - Développeur Informatica
Taches :
Extraire des donnees MDM SAP HANA via une mapplet qui utilise un listener développé en java qui se connecte a EBX
pour extraire des données sous format xsd afin d’alimenter des cibles Oracle.
En entrée 14 fichiers xsd fournis par EBX via un listener java.
Redaction des Technical Design (SFTD) a partir du SwissRe - Atlas - Detailed Business Glossary - v0.10
Redaction/execution des scripts DDL de création des tables cibles oracle
Développent des flux (factorisation, un seul mapping pour l’alimentation des cibles oracle)
Préparation des BL et livrables (script sql, technical design, export infa…)
Environnement technique :
ETL: Informatica 10.1.1
ERP : SAP HANA
EBX (MDM) JAVA listener (SOAP Export xsd)
La Banque Postale Migration Informatica 4-2017-07-2017
Analyste Développeur Informatica
Taches :
Déploiement du processus de montée de version de la plateforme Informatica Data Quality Gouvernance Edition
De version 9.6.1 a la version 10.1.1
Déploiement du guide de migration sur les environnements de développement et de recette.
Industrialisation des Workflows :
Rédaction des scripts Shell d’automatisation
Migration de l’enivrement de développement puis de recette dans cet ordre.
Rédaction du guide de configuration et de déploiement des scripts
Assistance migration en environnement de production
Environnement technique :
RDBMS: Teradata-Oracle
ETL: Informatica Data Quality Gouvernance Edition
Client: Informatica Developer - Teradata studio
DSI Loreal EMEA (Projet BOOST) 06.2016 – 12.2016
Analyste Développeur Informatica PowerCenter 961
Taches : Implémentation du Core Model pour les pays de la zone EMEA
implémentation de la Localization du core model
BOOST - Master Data Localization Procedure
BOOST - Fact Localization Procedure
Extraction de modules SAP (SD-MM-FI-COPA-COCCA) and loading data Strategy
Rédaction et maintenance des documents techniques relatifs aux développements
Environnement technique :
ERP :SAP EEC\BCI SAP Logon
RDMS: Microsoft SQL Server (Staging STG, DataWarehouse DWH, Data Mart DMT) , SSAS, SSDT
ETL: Informatica PowerCenter 961
Informatica MDM Hub 10 (config the data model, the landing ,the staging and base objects tables)
Ordonnanceur: $ Univers
AB INBEV Avril 2014 – Decembre 2015
Analyste développeur Informatica PowerCenter
Mission : Analyse, conception développement des Interfaces liées aux flux financiers
Prise en charge des demandes d’évolution
Développements de nouveaux mappings
Création des sessions associées aux mappings
Correction d’anomalies
Création workflows
Mise à jour des fichiers de configuration des workflows
Points réunions – état avancements - affectations des tasks par équipe
Modélisation des scenarii d’extraction (SQL mapping )
Environnement technique :
ETL Informatica PowerCenter 9.5.1
ERP: SAP R3
RDMS: Oracle - SQL Server
Reporting: Cognos
DIW: Kalido.
GDFSUEZ Juin 2012 – Aout 2013
Référent technique Informatica PowerCenter
Mission : Expertise Informatica transitoire sur le plateforme INES des échanges (flux informatica & Webmethod correspondant à l’enchainement de plusieurs activités métiers) mise en place par l’ancienne CDE.
Audit des développements existants
Développement de nouveaux flux
Traitement des évolutions
Correction d’anomalies
Environnement technique :
OS : Solaris SPARC AIX
RDBMS : Oracle 10g
EAI: Webmethods 7.1.5
ETL: Informatica PowerCenter 8.6
SFR Octobre 2011 – Avril 2012
Analyst développeur Informatica PowerCenter
Mission 1 : Réalisation d’applications décisionnelles liées au DWH Enterprises
Etudes faisabilité - Chiffrage pour le projet BAF (Migration des fichiers FT à structures complexes vers des tables cibles Oracle)
Développements (denormalisation : shell – chargement : shell+ Informatica+shell pour validation, vérification du nombre de lignes lues et chargées…)
analyse problématique d’alimentation du DWH en journée
Réalisation de documents Techniques
Préparation des livrables & BL associés
Reporting pour le Service Facturation Business Objects Webi - Deski
Demande extraction Reporting BO SCE (SQL à la Carte) pour APHP (Assistante Public Hôpitaux de Paris)
Mission 2 : Suivi quotidien des applications de déploiement des clients Entreprises :
Qualité & Service
Fraîcheur des données
Indentification & résolution des incidents liés aux traitements Informatica du DataWareHouse
Mission 3 : Analyse d’impact, cartographie des différents environnements pour la migration (8.1.1 – 9.0.1) pour les environnements de développements, intégration, validation fonctionnelle et production.
Environnement technique :
ETL : Informatica PowerCenter 8.1.1
RDMS: Oracle, Teradata
Reporting: BO XI
CRM : CLARIFY
OS: Solaris
Ocotbre 2009– Septembre 2011: Agence Des Services De Paiement
Analyste développeur Informatica PowerCenter
Contexte : Valorisation de données sur les différents Juillet 2010 projets décisionnels constituant le projet AXE2.
Mission 1 : Intégrateur en backup sur les environnements de développement, intégration, validation et production
Réception des demandes de déploiement des patches livrables : 3 types de patch
Patch Dataware : contient les scripts SQL de création, mise à jour, suppression, d’attribution de droits en schéma et le bon de livraison associé
Patch ETL : contient les livrables rélatifs aux développements ETL (nouveaux développements, évolutions, correctifs d’anomalies) + le bon de livraison associé
Patch BO : contient tous les développements réalisés avec Business Objets (nouveaux développement (univers (liés), dimensions, indicateurs), évolutions, correctifs d’anomalies)
Déploiement puis validation des patches sur l’environnement d’intégration
Aviser par mail les MOA projets concernés et attente feu vert pour suite opérations.
Prise en compte des demandes sur les environnements de recette ensuite de production
Mission 2 : Analyste /Développeur ETL rattaché au projet VALOSIRIS, Intervenant sur les autres projets annexes à AXE2Développement de nouveaux mapping, maquettes financiéres, prêts bonifiés…
Mise à jour des fichiers de configuration des sessions, workflows
Evolution de l’existant (Aide à la certification + maquettes financières ACMF)
Correction d’anomalies
Documentation (Dev ETL, Test)
Environnent technique :
ETL : Informatica Power Center 8.6
Reporting : , BO XI
Ticketing : Mantis
Os Server : Sun Solaris
OS client : Windows
Faurecia Avril 2007 – Septembre 2009
Role : Analyste développeur Informatica PowerCenter
Mission : Migration des données opérationnelles des SI de Faurecia vers l’ERP SAP à l’aide de l’ETL Informatica PowerCenter. Projet générique à d’autres sites de Faurecia en Europe et en Asie (Corée).
Développement de mappings d’extraction/chargement pour la génération de Batch et d’Idocs destinés aux systèmes cible SAP
Développement de plan IDQ, test et génération, publication de rapports à l’aide du module Workbench.IDQ
Environnent technique :
ETL :Informatica Power Center 8.5
ERP: SAP R3
RDBMS: Sql Server
Société Générale Octobre 2006 – Mars 2007
Role : Consultant technique Informatica PowerCenter
Mission : Réglementation Bâle 2. Développement de traitements d’alimentation des données provenant d’autres applications du système d’information RISQ et développement de traitement d’extraction qui seront diffusées vers d’autres applications cible du système d’information RISQ.
Analyse, paramétrage et codage des composants logiciels (mapping – sessions - worflows
Mise en place des évolutions sur les composants existants
Correction d’anomalies de traitement
Implémentation en PL/SQL d’un algorithme de gestion et de calcul d’indicateurs sur différents domaines des référentiels.
Scripting shell d’automatisation d’archivage et de transfert de fichiers vers d’autres applications du système d’information DSIC/RISQ
Environnent technique :
ETL : Informatica PowerCenter V7
RDMS : Oracle
Versioning: Clearcase
Ticketing: Mantis
Test: TesTDirector
Diplômes
2005 : Ingénieur diplôme de l’EISTI – option Décisionnel des Systèmes d’Informations
2002 : DEUG MIAS – Université Paris 8
Domaine d’intervention
Tout Domaine où il y a de la donnée à transformer en information :
Banque, assurance, Industrie, grande distribution, secteur public….
Points forts:
Analyse
Modélisation (Merise(CDM,PDM)-Star Schema,Fact Tables, Dimension Tables)
Développement de composants logiciels avec Informatica
Informatica Data Quality (Data cleansing, Standardization, Enrichment,Transformation and Integration)
Informatica Master Data Management Hub (Landing to Staging (clean and enrich),Staging to Base Objects (checking data integrity) – match n merge processes – publish to the hub for the consumer services which subribed the hub)
Rédaction des spécifications techniques, documents relatifs aux développements
Développement de scripts Shell pour besoin d’automatisation
Test unitaire, Assistance Recette
Change Request
Correction d’anomalies
Maintenance et support applicatif
Force de proposition
Techniques
MOE ETL Informatica
SQL, PL/SQL, XML, JSON
Java REST API architecture
Shell scripting (bash,ksh)
Systèmes d’exploitation : Solaris, AIX, Unix, Windows, Linux
Base de données: Oracle, SQL Server, Teradata, DB2
DevOps : Docker, Ansible