Boris - Chef de projets | Data engineer
Ref : 210121M003-
75001 PARIS
-
Chef de projet, Data Scientist, Data Analyst (37 ans)
-
Totalement mobile
-
Bientôt freelance
-
Chef de Projets | Azure Cloud Engineer | Fullstack Flask Developper
EVENEMENTIEL DIRECTIONJan 2021 - Jan 2021Contexte :
Environnement Fonctionnel : Evènementiel, mise en relation de conférenciers et célébrités avec des clients
WeChamp est une agence spécialisée dans l’intervention en entreprise de personnalités issues du monde sportif, militaire, artistique, culinaire, entrepreneurial, politique, etc. WeChamp accompagne ses clients dans la recherche du profil le plus pertinent pour une conférence ou un atelier.
En forte expansion depuis plusieurs mois, WeChamp a besoin de digitaliser ses processus opérationnels afin de pouvoir répondre aux sollicitations croissantes de ses clients et gagner des parts de marchés dans un environnement très concurrentiel.
Dans ce contexte, le projet vise à reprendre l’ensemble des données centrales aujourd’hui utilisées en production afin de créer une base de données sécurisées, créer un CRUD CRM permettant une évolution simple et efficace de la base de données ainsi qu’un générateur standardisé et automatique de propositions commerciales.
Réalisations :
Phase 1 : création d’un MVP
Reprise des données centrale et création de la base de données cible,
Développement d’un CRUD CRM sous Flask,
Déploiement sur Heroku,
Organisation des jeux de tests, réunions de travail, validation du modèle.
Phase 2 : mise en production sur Azure
Présentation des coûts et architectures possible sous Azure,
Validation du modèle d’architecture en fonction du budget,
Migration de la base de données sous Azure SLQ DB (SQL Server),
Mise en production de l’application sur Azure Web App [Flask],
Création Azure VM (Windows),
Intégration Power Bi server,
Design de dashboards de pilotage intégrés au CRM (Power Bi),
Organisation des phases de tests finaux avant mise en production officielle,
Documentations techniques et fonctionnelles,
Support technique en fonction des bugs éventuels ou demandes d’évolutions,
Niveau d’intervention :
Pilotage du projet, présentation des différentes architectures et technologies existante,
Analyse des impacts (IT, fonctionnels, organisationnels),
Documents d’architecture,
Cartographies,
Cahier des charges,
Estimation du budget annuel.
Formations utilisateurs. -
Chef de Projets
ASSET MANAGEMENTJan 2021 - Jan 2021Contexte :
Environnement Fonctionnel : Asset management, ESG, projet, audit Environnement Technique : Python, Power Bi, SQL, Bloomberg.
Les différentes équipes de gestion (actions, taux, convertibles, multigestions, thématiques, ESG) ont développé un ensemble d’outils d’analyses, d’aide à la prise de décision et de reportings pour leurs besoins spécifiques. Ces solutions n’étant aujourd’hui pas standardisées, le projet a pour objectif d’auditer et de cartographier l’existant ainsi que de proposer des architectures incluant de nouvelles technologies pour industrialiser les différents processus de production.
Réalisations :
Pilotage de l’audit des « mires » de gestion (outils d’analyses et d’aide à la prise de décision),
Coordination et animation des ateliers d’audit et comités projets,
Cartographies techniques et fonctionnelles de l’ensemble des outils existants,
Chiffrage de l’existant (toutes équipes confondues),
Elaboration du cahier des charges,
Présentation des résultats aux COO et associé, Head of Projects, Head of Portfolio Managers,
Proposition d’une nouvelle architecture 100% locale (Python, Power Bi, BQUANT),
Proposition d’une nouvelle architecture 100% Cloud (Azure, DL GEn2, Databricks, Power Bi, etc.),
Chiffrage de la solution et PERT graphe,
POC Power BI.
Niveau d’intervention :
Pilotage, planning, costing, animation comités de crise (C-Level])
Analyse des impacts (IT, fonctionnels, organisationnels)
Documents d’architecture
Cartographies,
Cahier des charges -
Mission 2 : Application contrôles reportings BCE
Jan 2020 - Jan 2021Contexte :
Environnement Fonctionnel : Réglementaire (BCE, EBA), Covid-19, Comptabilité bancaire, PGE, Moratoria Environnement Technique : Python, Power Bi, SQL
Depuis la crise du Covid-19, la Banque Centrale Européenne (BCE) demande aux banques de fournir un certain nombre de reportings consolidés (dits « de crise ») permettant d’analyser l’exposition des banques aux PGE (Prêts Garantis par l’Etat) ainsi qu’aux moratoires (reports d’échéance).
L’équipe Architecture & Reporting doit concevoir, calculer, contrôler et transmettre des rapports hebdomadaires, mensuels et trimestriels pour répondre aux exigences de la BCE. La fréquence de production des reportings de crise permet à la BCE d’effectuer une série de contrôles inter-reporting afin de garantir que les données exposées sont cohérentes selon les différentes visions (reportings de crise, Finrep, Corep, etc.)
Dans ce cadre, l’équipe Architecture & Reporting intervient dans la conception des règles de gestion permettant de mettre en relation les différents reportings ainsi que dans le développement d’un outil spécifique permettant l’élaboration des calcul.
Réalisations :
Pilotage du projet,
Audit et cadrage technico-fonctionnel,
Recueil des besoins,
Conception et développement de l’outil cible [Python],
Application entièrement paramétrable par les métiers et utilisateurs,
Mise en place des règles de gestion inter et intra reportings (> 1200),
Conception de Dashboards pour contrôler la production [PowerBi],
Conception de dashboards pour le CDO et COO [PowerBi],
Conduite du changement,
Formations utilisateurs.
Niveau d’intervention :
Pilotage, planning, costing, animation comités de crise (C-Level [COO-CDO])
Analyse des impacts (IT, fonctionnels, organisationnels)
Développement
Documents d’architecture -
Data Engineer – Data Scientist
GESTION D’ACTIF Equipe ISR Projet KPI ESG-ISR (full remote, pro bono)Jan 2019 - Jan 2020Contexte :
Environnement Fonctionnel : ISR, ESG, ML, NLP Environnement Technique : Python, Spark, ElasticSearch, Power Bi, SQL, NoSql, Scikit Learn, Eel, Linux, Git
Les équipes ISR (Investissement Socialement Responsable) des sociétés de gestion ont pour mission d’investir dans des sociétés respectant un certain nombre de critères extra-financiers afin de garantir un investissement ayant un impact positif sur la société. Ces indicateurs sont très diverses, allant de l’émission carbone à la répartition des salaires au sein de l’entreprise en passant par une égalité des chances selon le sexe ou l’origine des collaborateurs.
Le rôle des analystes ISR est de créer une note ISR (e.g. allant de 1 à 10) agrégeant l’ensemble de ces KPI afin de pouvoir évaluer les sociétés équitablement tout en permettant de définir un seuil critique empêchant l’investissement (e.g. si la note est <4, la société est dite non-éligible à l’investissement car elle ne respecte pas les contraintes équitables ISR). Pour ce faire, les analystes ISR sont en charge de la collecte de toutes les données permettant l’élaboration de cette note à travers les rapports annuels ou RSE des entreprises (~400 pages).
Dans ce cadre d’un projet en partenariat avec Télécom Paris, j’ai une solution intégrant des modèles « d’intelligence artificielle » permettant de lire et d’extraire ces données automatiquement.
Réalisations :
Pilotage et développement de la solution,
Exploration des différents modèles utilisables,
Tests de différentes technologies et architectures,
Création d’une base NoSQL centralisée via ElastichSearch,
Création de bases d’apprentissage dédiées selon les KPI,
Entraîtement des modèles via Scikit Learn (+500 000),
Extraction automatique via les méthodes standards de NLP et Spacy,
Méthodes de validation statistiques,
Algorithmes de détection d’anomalies,
GUI web via Eel,
Dashboards de contrôles et d’exposition via PowerBi.
Niveau d’intervention :
Pilotage, planning, recherche
Développement
Documents d’architecture (disponible sur demande) -
Chef de Projets – Data Engineer
BANQUE Architecture et reportingJan 2019 - Jan 2021Mission 1 : Pilotage projet Crédit Risk Covid-19 (03/2020-01/2021)
Environnement Fonctionnel : Risque crédit, Réglementaire (BCE, EBA), Covid-19, PGE, Moratoria Environnement Technique : Python, SAS, Alteryx, Power Bi, SQL
Contexte :
Depuis la crise du Covid-19, la Banque Centrale Européenne (BCE) demande aux banques de fournir un certain nombre de reportings consolidés (dits « de crise ») permettant d’analyser l’exposition des banques aux PGE (Prêts garantis par l’état) ainsi qu’aux moratoires (reports d’échéances).
Dans ce cadre, l’équipe Architecture & Reporting doit concevoir, calculer, contrôler et transmettre des rapports hebdomadaires, mensuels et trimestriels pour répondre aux exigences de la BCE et intervient dans le pilotage et la conception des processus et outils permettant de remplir cette mission.
Réalisations :
Pilotage et développement du projet JST Reporting de Crise (reportings BCE),
Animation des comités de crises, pilotage des entités, préparation des EDB et recettes technicofonctionnelles de livrables,
Définition des jalons, cadrage et pilotage des ETP de mise en production ainsi que des demandes adhoc,
Encadrement des équipes de production (3 personnes) et coordination des équipes contributrices (jusqu’à 10 équipes selon les sujets),
Référent technicofonctionnel du projet d’industrialisation,
Développement d’un Datamart et d’un moteur de calcul [Python 3.7, SAS, Alteryx],
Conception de dashboards pour le CDO et COO [PowerBi],
Pilotage de la production et des livraison auprès de la BCE,
Pilotage de la mise en production de l’applicatif,
Pilotage de l’intégration au DataLake,
Conduite du changement.
Niveau d’intervention :
Pilotage, planning, costing, animation comités de crise (C-Level [COO-CDO])
Analyse des impacts (IT, fonctionnels, organisationnels)
Développement
Documents d’architecture
Formation utilisateurs -
Mission 3 : Pilotage du projet Usine de qualité
Jan 2019 - Jan 2020Contexte :
Environnement Fonctionnel : BCBS 239, Reporting réglementaires bancaires (RWA, LCR, AnaCrédit,etc.) Environnement Technique : Python, Spark, SAS, Power Bi, Alteryx, SQL
BCBS 239 est un nouveau standard de réglementation bancaire mis en place par le Comité de Bâle. Ce standard vise à augmenter les capacités des banques en matière d’agrégation de données de risques financiers et à produire des reportings, et à améliorer la qualité de ces données risques.
Dans ce cadre, l’équipe Architecture & Reporting est en charge de mesurer la qualité de l’ensemble des données consolidées du groupe afin de garantir le respect des normes en vigueurs et intervient dans la conception d’un moteur de calcul (dit « Usine de Qualité ») permettant de remplir cette mission.
Réalisations :
Pilotage et conception de la migration d’un moteur de calcul permettant d’évaluer la qualité des données du groupe,
Revue méthodologique,
Audit et cadrage technico-fonctionnel,
Recueil des besoins,
Conception, développement et migration du moteur de calcul de SAS à Python 3.7,
Amélioration du temps de calcul de 3 j/h à 20 minutes,
Développement de Dashboards de pilotage et prise de décision pour le CDO, COO, métiers [PowerBi],
Recettes technico-fonctionnelles,
Présentation au comité Data du projet de passage à l’échelle sous Spark,
Conduite du changement,
Formation utilisateur,
Formations au data management avec Python.
Niveau d’intervention :
Pilotage, planning, costing, animation comités de crise (C-Level [COO-CDO])
Analyse des impacts (IT, fonctionnels, organisationnels)
Développement
Documents d’architecture
Formation utilisateurs -
PMO | Data Engineer
BPCE SA, ParisJan 2019 - aujourd'huiDepuis la crise Covid‑19:
Environnement Technique : Phase 1 : Linux, Python 3.8, Flask, Sqlite3, Heroku, GitHub, Html5, CSS, Javascript, Bootstrap, Ajax, Phase 2 : Linux, Python 3.8, Flask, Azure Sql db, Azure Web app (Flask), Azure VM, Azure Blob Storage, Power Bi, Kudu, Azure Cli, GitHub, Html5, CSS, Javascript, Bootstrap, Ajax.
Pilotage et développement du projet JST Reporting de Crise (reportings BCE),
Animation des comités de crises, pilotage des entités, préparation des
EDB et recettes technico‑fonctionnelles de livrables,
Définition des jalons, cadrage et pilotage des ETP de mise en production ainsi que des demandes ad‑hoc,
Encadrement des équipes de production (3 personnes) et coordination des équipes contributrices (jusqu'à 10 équipes selon les sujets)
Référent technico‑fonctionnel du projet d'industrialisation,
Développement d'un Datamart et d'un moteur de calcul [Python 3.7, SAS,
Alteryx], Développement de dashboards pour le CDO et COO (PowerBi)
Avant la crise Covid‑19:
Pilotage de la migration d'un moteur de calcul de SAS à Python
3.7+PowerBi,
Réduction du temps de production de 5j/h à 30 min,
Audit et cadrage stratégique,
Développement de dashboard de pilotage et prise de décision pour le
CDO, COO, métiers (PowerBi),
Présentation au comité data du projet de passage à l'échelle sous Spark
Formations au data management avec python (pandas). -
Chef de Projets – Data Engineer
BANQUE Direction des Ratios Prudentiels Projet AnaCrédit2018 - Jan 2019Contexte :
Environnement Fonctionnel : AnaCrédit Environnement Technique : Python, Tableau, Tableau Prep, Power Bi, SQL
AnaCrédit (analytical credit datasets) est une série de données détaillées sur les prêts bancaires dans la zone euro. C’est un projet qui fut lancé en 2011 par la BCE (Banque Centrale Européenne), en collaboration avec les banques centrales nationales (BCN) de la zone euro et plusieurs BCN hors zone euro. Il s’agit de constituer, à partir des registres nationaux de crédit et d’autres sources, une base de données harmonisée de référence pour plusieurs missions de banque centrale, telles que la prise de décisions dans le cadre de la politique monétaire et de la surveillance macro-prudentielle.
Dans ce cadre, la Direction des Ratios Prudientiels (DRP) est en charge de piloter la mise en place du projet afin que Natixis puisse répondre aux exigences de la Banque Centrale Européenne (BCE) et de la Banque de France (BdF).
Réalisations :
Pilotage et cadrage du projets,
Traduction technique de l’architecture BCE et des règles de gestions,
Conception d’un dictionnaire de données répertoriant l’ensemble des données attendues ainsi que leurs transformations,
Industrialisation du traitement des règles de gestion via Tableau Prep,
Conception d’une application permettant l’automatisation du processus de production [Python 3.7],
Réduction du temps de traitement de 3 jours/h à 2 minutes,
Production d’analyses statistiques et de contrôles,
Conduite du changement,
Coordination des comités hebdomadaires,
Conception de Dashboards à destination du management lors des comités hebdomadaires [PowerBi],
Formations utilisateurs.
Niveau d’intervention :
Pilotage, planning, costing, animation comités de production
Analyse des impacts (IT, fonctionnels, organisationnels)
Développement
Documents d’architecture
Formation utilisateurs -
Chef de Projets – Data Engineer - Consultant Senior
BANQUE Salle des Marchés Projet Solvency 2Jan 2017 - Jan 2017Contexte :
Environnement Fonctionnel : Solvency 2 Environnement Technique : Python, Access, SQL
Solvabilité 2 est le nom donné au régime prudentiel qui s’impose aux entreprises d’assurance et de réassurance européennes.
Les entreprises d’assurance doivent en effet respecter des règles dites « prudentielles » qui les contraignent notamment à mettre en adéquation leur niveau de fonds propres avec les risques auxquels elles sont confrontées. Ainsi, aujourd’hui, elles doivent justifier d’un capital minimum appelé marge de solvabilité. Ce capital minimum est destiné à garantir les engagements vis-à-vis des assurés et à leur permettre de faire face aux aléas inhérents à l’activité d’assurance.
Dans ce cadre, EY intervient en tant que conseil auprès de ses clients pour les aider à mettre en place les processus et les outils permettant d’effectuer les calculs et de respecter cette nouvelle norme.
Réalisations :
Pilotage, conduite de phase d’étude (analyse du besoin, modélisation de process, gap analysis, solutions),
Adaptation des normes Solvency aux contraintes internes (5 pilliers SCR Marché),
Définition des plans d’exécution et identification des contraintes, pilotage des risques,
Préparation et animation des comités hebdomadaires,
Analyse des besoins, recueil des besoins, cahier des charges,
Rédaction de spécifications fonctionnelles,
Développement d’un outil de test en parallèle au développement de l’outil cible (Python, Access VBA/SQL),
Constitution de jeux de tests, exécution des tests, recettes fonctionnelles,
Coordination des équipes IT et métiers,
Encadrement de junior.
Niveau d’intervention :
Front Office
Pilotage, planning, animation comités projets
Analyse des impacts (IT, fonctionnels, organisationnels)
Développement
Documents d’architecture
Formation utilisateurs
Encadrement -
Chef de Projets | Data Engineer
ASSURANCE CREDIT GROUP CREDIT INTELLIGENCEaujourd'huiContexte :
Environnement Technique : Phase 1 : Python, SQL, Toad Db2, Powershell Phase 2 : Python, SQL, AWS, AWS s3, AWS Glue, AWS Athena, awswrangler, Linux, R
L’équipe back-testing a développé une application web permettant d’avoir accès aux analyses des bact-tests crédits à l’ensemble du groupe (au niveau mondial). Cette application est utilisée par différents intervenants (analystes crédit, business manager, risques, direction, etc.) et est en production sur une fréquence d’analyse annuelle.
Une nouvelle version est attendue en fin d’année 2021 apportant des évolutions, à savoir une fréquence trimestrielle ainsi que de nouvelles « features » de back-testing afin d’apporter une granularité plus importante grande aux analyses effectuées.
Dans ce contexte, le projet vise à refondre l’ensemble des « data pipelines » afin de garantir la livraison de cette nouvelle version en deux étapes (effectuées en parallèle) (i) Phase 1 : reprise de l’existant au sein de l’équipe backtesting et (ii) Phase 2 : migration de l’existant + développements additionnels vers la plateforme cloud AWS (Groupe).
Réalisations :
Pilotage de l’audit des pipeline existants,
Coordination et animation des ateliers d’audit et comités projets,
Cartographies techniques et fonctionnelles des base de données et extractions existantes,
Etudes de faisabilité,
Création des requêtes et pipelines cibles en Phase 1,
Configuration de l’environnement Cloud pour l’équipe, rédaction de guide utilisateur, formation utilisateurs,
Création des pipelines cibles en Phase 2,
Intégration des pipelines dans l’outil cible.
Niveau d’intervention :
Pilotage du projet,
Analyse des impacts (IT, fonctionnels, organisationnels),
Documents d’architecture,
Cartographies,
Formations utilisateurs,
Data engineering
Environnement Fonctionnel :
Assurance-crédit, back-testing
-
Certified Associate Developer for Apache Spark 3.0 - Python Databricks, Paris
-
CES Data science : Analyse et gestion de grandes masses de données Télécom Paris, Paris
-
CFA Level 1 CFA Institute, Paris
-
M2 Gestion de Portefeuille
-
IAE Gustave Eiffel, Paris
Python, Spark, MongoDb,
ElasticSearch, JS, HTML5, CSS, D3.js, Altair, Scikit-Learn, SQL, Flask, Eel Power Bi, Tableau Desktop,
Tableau Prep, Alteryx
C++, Pytorch, Tensorflow, Hadoop, Hive
ENSEIGNEMENT
Certification AMF
AMF, Paris
MA Management
The University of Nottingham, Nottingham, UK
C O N T E X T E & R E A L I S A T I O N S
Le standard BCBS 239 vise à augmenter les capacités des banques en matière d’agrégation de données de risques financiers, à produire des reportings, et à améliorer la qualité de ces données risques.
Dans ce cadre, PySea est intervenu dans la conception d’un moteur de calcul (dit « Usine de Qualité ») permettant de remplir cette mission de contrôle de la qualité des données.
- Pilotage et cadrage du projet,
- Audit de l'existant,
- Revue méthodologique.
- Conception et développement de l'outil cible,
- Déploiement auprès des équipes métiers et des éntités du groupe.
- Création des dashboards de pilotage (pour le COO),
- Présentation de la stratégie de passage à l'échelle sous Spark.