• Prise en charge de la réécriture et du réajustement du modèle de données Oracle de l'application OST (outil de
surveillance) utilisé à partir de différentes sources, Coral (Asset Managers), CSV (Asset Manager), Governance
(Données de due diligence), Avaloq (Informations financières et de risque) pour calculer les indicateurs, couche la
plus basse du modèle de risque.
• A partir du RCF (Risk Control Framework) qui génère des cas batch à partir d'un contrôle, nous recalculons chaque
jour un ensemble de données sous forme de vues matérialisées générées par des procédures stockées (PL/SQL)
autour de 350 000 000 lignes comme cibles de business intelligence (Tableau)
• Mise à disposition de données pour plusieurs applications internes (Axioma Batch, Graal etc...), utilisation de
procédures stockées et de fonctions PL/SQL permettant la compression et décompression et conversion de BLOB
en CLOB afin de les manipuler dans Informatica (DB Link non disponible).
• Maintenance et évolution de la partie BI des 𠇋ill of lading” ( bons de chargement) et Voyage Calculation.
Développement IDQ et Transact-SQL.
• Implémentation de l'architecture de retraitement des données à tous les niveaux FACT, DWH et DMT.
• Améliorer la robustesse du développement et la qualité des données.
• Solution d𠆚rchitecture CDC.
• Mise en place d’une partie du modèle de donnée sous Cloud Microsoft Azure permettant la génération du modèle
B.I. d𠆞nviron 2 To de données mises a jour en 4h environ.
• Maintien et évolution du programme de gestion de liquidité BASILIQ, gestion du risque sur l𠆞nsemble des flux
financier de la banque. Intégration de procédure PL/SQL spécifiques.
• Analyse, développement, optimisation.
• Pour le projet UNIFY, adaptation de l'application HUB (Warehouse) devenue l𠆚pplication MINI Hub et exécutée en
mode incrémental, permettant de vérifier les données manquantes de plusieurs applications cibles et les incluant.
• Analyse et conception d'une des applications cibles QEP (Quality Enhancement Plan) qui utilise le MINI HUB comme
source.
• Prise en charge de l’étude conceptuelle du dédoublonnage avec IDQ des personnes, adresses et entités.
Informatica consultant
• Prise en charge de la mise en œuvre d'IDQ et Powercenter 9.5.1 Hotfix1, bonnes pratiques, gestion de la
configuration, code revue, configuration du serveur entre Informatica et LDAP (AD), avec implémentation des
Connecteurs SAP (IDOC), Siebel, WebService, TIBCO.
• Conception des règles de qualité données sous forme de mapplet d'IDQ vers Powercenter.
• Gestion des développements sous traités
• Support dans la reprise d’un package applicatifs d'EDF.
• Développement des nouvelles versions sur Powercenter.
• Accompagnement de solutions sur un projet DWH "sensible" concernant l'assurance de prêt, travail sur l'existant
pour optimiser le modèle de chargement de Teradata FS-LDM avec des fichiers EBCDIC.
• Redéfinition du flux de données du nouveau modèle de gestion des ECS en SCD (Slowly Changing Dimension) type
2 et assurer une meilleure maintenance et une meilleure évolution.
• Pour le DWH BI RISK, analyse et développement pour mettre en œuvre la réglementation européenne RGPD
(Règlement Général sur la Protection des Données).
Informatica consultant
• Maintien et évolution et conception d𠆚limentation de donnée pour la BI.