▪ Etude et développement d’un moteur de scoring « Efficiency » dédié aux programmes d’amélioration de l’efficacité
opérationnelle des institutions financières, permettant à ces dernières d’évaluer les risques de livraison des projets
inscrits dans leur programme (évaluation par « Expected Shortfall »)
▪ Etude et développement d’un moteur de scoring « Trajectoire Digitale » dédié aux projets de transformation digitale,
permettant aux institutions de mesurer leur niveau de maturité et de définir leur road map relative à la mise en place
des nouvelles solutions digitales
▪ Dans le cadre de la mise en place d’un Data Lake « risques de marché » élaboration du plan de migration et suivi des
travaux visant à alimenter le LEGACY en fonction du périmètre technico-fonctionnel des différentes livraisons
logicielles
▪ Suivi des travaux relatifs à la prise en compte de 1100 codes VBA (UDA) dans le nouveau dispositif (P&L, VaR, SVAR,
Chocs, Ajustements, réserves, limites etc.)
Etude pour la mise en place d’une gouvernance métier dédiée aux données du Data Hub BDDF
▪ Identification et documentation des principes directeurs de gouvernance des données d’un Data Hub (normatifs,
organisationnels et opérationnels)
▪ Proposition d’un modèle opérationnel cible de gouvernance métier du Data Hub
▪ Identification et documentation des mesures conservatoires à instancier durant la phase d’alimentation du Data Hub
▪ Proposition circonstanciée d’organisation du Data Hub en 3 sous-systèmes fonctionnels : applicatif, décisionnel et
Data Lab
Dans le cadre de la réponse aux exigences de la Loi Volcker et de la Loi Bancaire Française, étude, formalisation et mise en
place d’un Target Operating Model visant la certification et le monitoring des métriques réglementaires et des données les
composant
Dans le cadre d’une étude préalable à la mise en place d’une zone de partage « finances-risques », assistance auprès de la
Direction des Risques Groupe pour la définition des principes directeurs de la future gouvernance des données
▪ Réalisation d’un Operating Model Type pour le Data Lake « Finances-Risque »
▪ Présentation des attendus BCBS239 et formalisation d’un Data Office type
▪ Travaux sur l’évolution des référentiels statiques de la Direction des Risques Groupe
Société Générale (SGCIB) – Data Management - Programme Trade & Position Data Quality, 2014-2015
▪ Etude, formalisation et validation d’un Target Operating Model pour les bases Trades et positions SGCIB autour des
piliers Data Quality Dictionnaire, Certification, Contrôles et Remédiation
▪ Initialisation d’un dictionnaire métier SGCIB en relation avec le dictionnaire Groupe
▪ Initialisation d’un dictionnaire métier transversal couvrant les données exposées dans les reporting règlementaires
Dans le cadre du remplacement d’un outil de réconciliation et de gestion des suspens
▪ Etude du plan de migration existant
▪ Benchmark entre les pratiques de Place et celles du client
▪ Revue du workflow et simplification des couches techniques
▪ Comparatif entre plusieurs solutions éditeurs
▪ Identification et mise en forme de scénarios alternatifs pour la Communication Financière groupe
▪ Design et mise en place de documents de communication à destination des sponsors
▪ Design et constitution d’une base de données sur les applications migrantes
▪ Mise en place d’un reporting avec indicateurs spécifiques aux domaines Finance, RH, Risques et Référentiels
▪ Mise en place de chronogrammes de pilotage
Pour le compte de la MOA Front Fixed Income dans le cadre du passage d’une évaluation forfaitaire à l’utilisation effective d’un
modèle interne pour le calcul de l’EAD et la détermination des fonds propres. Coordination avec le projet Dodd Frank GTR
(architecture, données et process)
▪ Alimentation Overnight
Dans le cadre de l’étude, développement et qualification d’un flux Overnight en FPML alimentant la base risque EAD, suivi,
planification, validation du périmètre et de commissionnement
▪ Alimentions temps réel
Dans le cadre de l’étude, développement et qualification d’un flux temps réel en FPML alimentant la base risque EAD pour
la détermination de la CVA lors du booking, suivi, planification et spécifications fonctionnelles et techniques
▪ SLA et qualité des données
Mise en place d’un SLA sécurisant les nouveaux processus et fiabilisant les flux existants pour répondre aux contraintes
réglementaires. Suivi, Chiffrage et spécification
▪ Etude d’industrialisation de base de reporting des opérations vers un système décisionnel
▪ Spécification de nouveaux flux Inventaires et évènements en remplacement des flux existants
▪ Définition des niveaux de contrôle sur les données statistiques & dynamiques en entrée du Datawarehouse
▪ Etude de la mise en place d’une VLDB et de son pilote
▪ Chiffrage, CATIS, Test Strategy, et Development Approach Plan du projet
Gestion du portefeuille de projets courants sur le périmètre des marchés de capitaux et maintenance sur 9 back offices
(Summit, Murex, Calypso, 4Sight…)
▪ Déploiement et évolution des progiciels Back Office, Etude d’impact et chiffrage, spécifications et recette sur les
thèmes suivants :
→ Migration du money market, refonte du risque émetteurs des crédits dérivés, compensation des
crédits dérivés, finance islamique, bad bank
▪ Pilotage du dispositif : suivi du planning et des budgets, suivi des développements sur un périmètre de 9 back offices.
Reporting aux clients et aux sponsors, Animation des points projets, encadrement des consultants Investance,
gestion des sponsors