Boris - Chef de projets | Data engineer

Ref : 210121M003
Email vérifié
Photo de Boris, Chef de projets | Data engineer
Compétences
Expériences professionnelles
  • Chef de Projets | Azure Cloud Engineer | Fullstack Flask Developper

    EVENEMENTIEL DIRECTION
    Jan 2021 - Jan 2021

    Contexte :
    WeChamp est une agence spécialisée dans l’intervention en entreprise de personnalités issues du monde sportif, militaire, artistique, culinaire, entrepreneurial, politique, etc. WeChamp accompagne ses clients dans la recherche du profil le plus pertinent pour une conférence ou un atelier.
    En forte expansion depuis plusieurs mois, WeChamp a besoin de digitaliser ses processus opérationnels afin de pouvoir répondre aux sollicitations croissantes de ses clients et gagner des parts de marchés dans un environnement très concurrentiel.
    Dans ce contexte, le projet vise à reprendre l’ensemble des données centrales aujourd’hui utilisées en production afin de créer une base de données sécurisées, créer un CRUD CRM permettant une évolution simple et efficace de la base de données ainsi qu’un générateur standardisé et automatique de propositions commerciales.

    Réalisations :
    Phase 1 : création d’un MVP
    Reprise des données centrale et création de la base de données cible,
    Développement d’un CRUD CRM sous Flask,
    Déploiement sur Heroku,
    Organisation des jeux de tests, réunions de travail, validation du modèle.

    Phase 2 : mise en production sur Azure
    Présentation des coûts et architectures possible sous Azure,
    Validation du modèle d’architecture en fonction du budget,
    Migration de la base de données sous Azure SLQ DB (SQL Server),
    Mise en production de l’application sur Azure Web App [Flask],
    Création Azure VM (Windows),
    Intégration Power Bi server,
    Design de dashboards de pilotage intégrés au CRM (Power Bi),
    Organisation des phases de tests finaux avant mise en production officielle,
    Documentations techniques et fonctionnelles,
    Support technique en fonction des bugs éventuels ou demandes d’évolutions,

    Niveau d’intervention :
    Pilotage du projet, présentation des différentes architectures et technologies existante,
    Analyse des impacts (IT, fonctionnels, organisationnels),
    Documents d’architecture,
    Cartographies,
    Cahier des charges,
    Estimation du budget annuel.
    Formations utilisateurs.

    Environnement Fonctionnel : Evènementiel, mise en relation de conférenciers et célébrités avec des clients
  • Chef de Projets

    ASSET MANAGEMENT
    Jan 2021 - Jan 2021

    Contexte :
    Les différentes équipes de gestion (actions, taux, convertibles, multigestions, thématiques, ESG) ont développé un ensemble d’outils d’analyses, d’aide à la prise de décision et de reportings pour leurs besoins spécifiques. Ces solutions n’étant aujourd’hui pas standardisées, le projet a pour objectif d’auditer et de cartographier l’existant ainsi que de proposer des architectures incluant de nouvelles technologies pour industrialiser les différents processus de production.

    Réalisations :
    Pilotage de l’audit des « mires » de gestion (outils d’analyses et d’aide à la prise de décision),
    Coordination et animation des ateliers d’audit et comités projets,
    Cartographies techniques et fonctionnelles de l’ensemble des outils existants,
    Chiffrage de l’existant (toutes équipes confondues),
    Elaboration du cahier des charges,
    Présentation des résultats aux COO et associé, Head of Projects, Head of Portfolio Managers,
    Proposition d’une nouvelle architecture 100% locale (Python, Power Bi, BQUANT),
    Proposition d’une nouvelle architecture 100% Cloud (Azure, DL GEn2, Databricks, Power Bi, etc.),
    Chiffrage de la solution et PERT graphe,
    POC Power BI.

    Niveau d’intervention :
    Pilotage, planning, costing, animation comités de crise (C-Level])
    Analyse des impacts (IT, fonctionnels, organisationnels)
    Documents d’architecture
    Cartographies,
    Cahier des charges

    Environnement Fonctionnel : Asset management, ESG, projet, audit Environnement Technique : Python, Power Bi, SQL, Bloomberg.
  • Mission 2 : Application contrôles reportings BCE

    Jan 2020 - Jan 2021

    Contexte :
    Depuis la crise du Covid-19, la Banque Centrale Européenne (BCE) demande aux banques de fournir un certain nombre de reportings consolidés (dits « de crise ») permettant d’analyser l’exposition des banques aux PGE (Prêts Garantis par l’Etat) ainsi qu’aux moratoires (reports d’échéance).
    L’équipe Architecture & Reporting doit concevoir, calculer, contrôler et transmettre des rapports hebdomadaires, mensuels et trimestriels pour répondre aux exigences de la BCE. La fréquence de production des reportings de crise permet à la BCE d’effectuer une série de contrôles inter-reporting afin de garantir que les données exposées sont cohérentes selon les différentes visions (reportings de crise, Finrep, Corep, etc.)
    Dans ce cadre, l’équipe Architecture & Reporting intervient dans la conception des règles de gestion permettant de mettre en relation les différents reportings ainsi que dans le développement d’un outil spécifique permettant l’élaboration des calcul.

    Réalisations :
    Pilotage du projet,
    Audit et cadrage technico-fonctionnel,
    Recueil des besoins,
    Conception et développement de l’outil cible [Python],
    Application entièrement paramétrable par les métiers et utilisateurs,
    Mise en place des règles de gestion inter et intra reportings (> 1200),
    Conception de Dashboards pour contrôler la production [PowerBi],
    Conception de dashboards pour le CDO et COO [PowerBi],
    Conduite du changement,
    Formations utilisateurs.

    Niveau d’intervention :

    Pilotage, planning, costing, animation comités de crise (C-Level [COO-CDO])
    Analyse des impacts (IT, fonctionnels, organisationnels)
    Développement
    Documents d’architecture

    Environnement Fonctionnel : Réglementaire (BCE, EBA), Covid-19, Comptabilité bancaire, PGE, Moratoria Environnement Technique : Python, Power Bi, SQL
  • Data Engineer – Data Scientist

    GESTION D’ACTIF Equipe ISR Projet KPI ESG-ISR (full remote, pro bono)
    Jan 2019 - Jan 2020

    Contexte :
    Les équipes ISR (Investissement Socialement Responsable) des sociétés de gestion ont pour mission d’investir dans des sociétés respectant un certain nombre de critères extra-financiers afin de garantir un investissement ayant un impact positif sur la société. Ces indicateurs sont très diverses, allant de l’émission carbone à la répartition des salaires au sein de l’entreprise en passant par une égalité des chances selon le sexe ou l’origine des collaborateurs.
    Le rôle des analystes ISR est de créer une note ISR (e.g. allant de 1 à 10) agrégeant l’ensemble de ces KPI afin de pouvoir évaluer les sociétés équitablement tout en permettant de définir un seuil critique empêchant l’investissement (e.g. si la note est <4, la société est dite non-éligible à l’investissement car elle ne respecte pas les contraintes équitables ISR). Pour ce faire, les analystes ISR sont en charge de la collecte de toutes les données permettant l’élaboration de cette note à travers les rapports annuels ou RSE des entreprises (~400 pages).
    Dans ce cadre d’un projet en partenariat avec Télécom Paris, j’ai une solution intégrant des modèles « d’intelligence artificielle » permettant de lire et d’extraire ces données automatiquement.

    Réalisations :
    Pilotage et développement de la solution,
    Exploration des différents modèles utilisables,
    Tests de différentes technologies et architectures,
    Création d’une base NoSQL centralisée via ElastichSearch,
    Création de bases d’apprentissage dédiées selon les KPI,
    Entraîtement des modèles via Scikit Learn (+500 000),
    Extraction automatique via les méthodes standards de NLP et Spacy,
    Méthodes de validation statistiques,
    Algorithmes de détection d’anomalies,
    GUI web via Eel,
    Dashboards de contrôles et d’exposition via PowerBi.

    Niveau d’intervention :

    Pilotage, planning, recherche
    Développement
    Documents d’architecture (disponible sur demande)

    Environnement Fonctionnel : ISR, ESG, ML, NLP Environnement Technique : Python, Spark, ElasticSearch, Power Bi, SQL, NoSql, Scikit Learn, Eel, Linux, Git
  • Chef de Projets – Data Engineer

    BANQUE Architecture et reporting
    Jan 2019 - Jan 2021

    Mission 1 : Pilotage projet Crédit Risk Covid-19 (03/2020-01/2021)

    Contexte :
    Depuis la crise du Covid-19, la Banque Centrale Européenne (BCE) demande aux banques de fournir un certain nombre de reportings consolidés (dits « de crise ») permettant d’analyser l’exposition des banques aux PGE (Prêts garantis par l’état) ainsi qu’aux moratoires (reports d’échéances).
    Dans ce cadre, l’équipe Architecture & Reporting doit concevoir, calculer, contrôler et transmettre des rapports hebdomadaires, mensuels et trimestriels pour répondre aux exigences de la BCE et intervient dans le pilotage et la conception des processus et outils permettant de remplir cette mission.

    Réalisations :
    Pilotage et développement du projet JST Reporting de Crise (reportings BCE),
    Animation des comités de crises, pilotage des entités, préparation des EDB et recettes technicofonctionnelles de livrables,
    Définition des jalons, cadrage et pilotage des ETP de mise en production ainsi que des demandes adhoc,
    Encadrement des équipes de production (3 personnes) et coordination des équipes contributrices (jusqu’à 10 équipes selon les sujets),
    Référent technicofonctionnel du projet d’industrialisation,
    Développement d’un Datamart et d’un moteur de calcul [Python 3.7, SAS, Alteryx],
    Conception de dashboards pour le CDO et COO [PowerBi],
    Pilotage de la production et des livraison auprès de la BCE,
    Pilotage de la mise en production de l’applicatif,
    Pilotage de l’intégration au DataLake,
    Conduite du changement.

    Niveau d’intervention :
    Pilotage, planning, costing, animation comités de crise (C-Level [COO-CDO])
    Analyse des impacts (IT, fonctionnels, organisationnels)
    Développement
    Documents d’architecture
    Formation utilisateurs

    Environnement Fonctionnel : Risque crédit, Réglementaire (BCE, EBA), Covid-19, PGE, Moratoria Environnement Technique : Python, SAS, Alteryx, Power Bi, SQL
  • Mission 3 : Pilotage du projet Usine de qualité

    Jan 2019 - Jan 2020

    Contexte :
    BCBS 239 est un nouveau standard de réglementation bancaire mis en place par le Comité de Bâle. Ce standard vise à augmenter les capacités des banques en matière d’agrégation de données de risques financiers et à produire des reportings, et à améliorer la qualité de ces données risques.
    Dans ce cadre, l’équipe Architecture & Reporting est en charge de mesurer la qualité de l’ensemble des données consolidées du groupe afin de garantir le respect des normes en vigueurs et intervient dans la conception d’un moteur de calcul (dit « Usine de Qualité ») permettant de remplir cette mission.

    Réalisations :
    Pilotage et conception de la migration d’un moteur de calcul permettant d’évaluer la qualité des données du groupe,
    Revue méthodologique,
    Audit et cadrage technico-fonctionnel,
    Recueil des besoins,
    Conception, développement et migration du moteur de calcul de SAS à Python 3.7,
    Amélioration du temps de calcul de 3 j/h à 20 minutes,
    Développement de Dashboards de pilotage et prise de décision pour le CDO, COO, métiers [PowerBi],
    Recettes technico-fonctionnelles,
    Présentation au comité Data du projet de passage à l’échelle sous Spark,
    Conduite du changement,
    Formation utilisateur,
    Formations au data management avec Python.

    Niveau d’intervention :

    Pilotage, planning, costing, animation comités de crise (C-Level [COO-CDO])
    Analyse des impacts (IT, fonctionnels, organisationnels)
    Développement
    Documents d’architecture
    Formation utilisateurs

    Environnement Fonctionnel : BCBS 239, Reporting réglementaires bancaires (RWA, LCR, AnaCrédit,etc.) Environnement Technique : Python, Spark, SAS, Power Bi, Alteryx, SQL
  • PMO | Data Engineer

    BPCE SA, Paris
    Jan 2019 - aujourd'hui

    Depuis la crise Covid‑19:
    Pilotage et développement du projet JST Reporting de Crise (reportings BCE),
    Animation des comités de crises, pilotage des entités, préparation des
    EDB et recettes technico‑fonctionnelles de livrables,
    Définition des jalons, cadrage et pilotage des ETP de mise en production ainsi que des demandes ad‑hoc,
    Encadrement des équipes de production (3 personnes) et coordination des équipes contributrices (jusqu'à 10 équipes selon les sujets)
    Référent technico‑fonctionnel du projet d'industrialisation,
    Développement d'un Datamart et d'un moteur de calcul [Python 3.7, SAS,
    Alteryx], Développement de dashboards pour le CDO et COO (PowerBi)

    Avant la crise Covid‑19:
    Pilotage de la migration d'un moteur de calcul de SAS à Python
    3.7+PowerBi,
    Réduction du temps de production de 5j/h à 30 min,
    Audit et cadrage stratégique,
    Développement de dashboard de pilotage et prise de décision pour le
    CDO, COO, métiers (PowerBi),
    Présentation au comité data du projet de passage à l'échelle sous Spark
    Formations au data management avec python (pandas).

    Environnement Technique : Phase 1 : Linux, Python 3.8, Flask, Sqlite3, Heroku, GitHub, Html5, CSS, Javascript, Bootstrap, Ajax, Phase 2 : Linux, Python 3.8, Flask, Azure Sql db, Azure Web app (Flask), Azure VM, Azure Blob Storage, Power Bi, Kudu, Azure Cli, GitHub, Html5, CSS, Javascript, Bootstrap, Ajax.
  • Chef de Projets – Data Engineer

    BANQUE Direction des Ratios Prudentiels Projet AnaCrédit
    2018 - Jan 2019

    Contexte :
    AnaCrédit (analytical credit datasets) est une série de données détaillées sur les prêts bancaires dans la zone euro. C’est un projet qui fut lancé en 2011 par la BCE (Banque Centrale Européenne), en collaboration avec les banques centrales nationales (BCN) de la zone euro et plusieurs BCN hors zone euro. Il s’agit de constituer, à partir des registres nationaux de crédit et d’autres sources, une base de données harmonisée de référence pour plusieurs missions de banque centrale, telles que la prise de décisions dans le cadre de la politique monétaire et de la surveillance macro-prudentielle.
    Dans ce cadre, la Direction des Ratios Prudientiels (DRP) est en charge de piloter la mise en place du projet afin que Natixis puisse répondre aux exigences de la Banque Centrale Européenne (BCE) et de la Banque de France (BdF).

    Réalisations :
    Pilotage et cadrage du projets,
    Traduction technique de l’architecture BCE et des règles de gestions,
    Conception d’un dictionnaire de données répertoriant l’ensemble des données attendues ainsi que leurs transformations,
    Industrialisation du traitement des règles de gestion via Tableau Prep,
    Conception d’une application permettant l’automatisation du processus de production [Python 3.7],
    Réduction du temps de traitement de 3 jours/h à 2 minutes,
    Production d’analyses statistiques et de contrôles,
    Conduite du changement,
    Coordination des comités hebdomadaires,
    Conception de Dashboards à destination du management lors des comités hebdomadaires [PowerBi],
    Formations utilisateurs.

    Niveau d’intervention :

    Pilotage, planning, costing, animation comités de production
    Analyse des impacts (IT, fonctionnels, organisationnels)
    Développement
    Documents d’architecture
    Formation utilisateurs

    Environnement Fonctionnel : AnaCrédit Environnement Technique : Python, Tableau, Tableau Prep, Power Bi, SQL
  • Chef de Projets – Data Engineer - Consultant Senior

    BANQUE Salle des Marchés Projet Solvency 2
    Jan 2017 - Jan 2017

    Contexte :
    Solvabilité 2 est le nom donné au régime prudentiel qui s’impose aux entreprises d’assurance et de réassurance européennes.
    Les entreprises d’assurance doivent en effet respecter des règles dites « prudentielles » qui les contraignent notamment à mettre en adéquation leur niveau de fonds propres avec les risques auxquels elles sont confrontées. Ainsi, aujourd’hui, elles doivent justifier d’un capital minimum appelé marge de solvabilité. Ce capital minimum est destiné à garantir les engagements vis-à-vis des assurés et à leur permettre de faire face aux aléas inhérents à l’activité d’assurance.
    Dans ce cadre, EY intervient en tant que conseil auprès de ses clients pour les aider à mettre en place les processus et les outils permettant d’effectuer les calculs et de respecter cette nouvelle norme.

    Réalisations :
    Pilotage, conduite de phase d’étude (analyse du besoin, modélisation de process, gap analysis, solutions),
    Adaptation des normes Solvency aux contraintes internes (5 pilliers SCR Marché),
    Définition des plans d’exécution et identification des contraintes, pilotage des risques,
    Préparation et animation des comités hebdomadaires,
    Analyse des besoins, recueil des besoins, cahier des charges,
    Rédaction de spécifications fonctionnelles,
    Développement d’un outil de test en parallèle au développement de l’outil cible (Python, Access VBA/SQL),
    Constitution de jeux de tests, exécution des tests, recettes fonctionnelles,
    Coordination des équipes IT et métiers,
    Encadrement de junior.

    Niveau d’intervention :

    Front Office
    Pilotage, planning, animation comités projets
    Analyse des impacts (IT, fonctionnels, organisationnels)
    Développement
    Documents d’architecture
    Formation utilisateurs
    Encadrement

    Environnement Fonctionnel : Solvency 2 Environnement Technique : Python, Access, SQL
  • Chef de Projets | Data Engineer

    ASSURANCE CREDIT GROUP CREDIT INTELLIGENCE
    aujourd'hui

    Contexte :

    L’équipe back-testing a développé une application web permettant d’avoir accès aux analyses des bact-tests crédits à l’ensemble du groupe (au niveau mondial). Cette application est utilisée par différents intervenants (analystes crédit, business manager, risques, direction, etc.) et est en production sur une fréquence d’analyse annuelle.
    Une nouvelle version est attendue en fin d’année 2021 apportant des évolutions, à savoir une fréquence trimestrielle ainsi que de nouvelles « features » de back-testing afin d’apporter une granularité plus importante grande aux analyses effectuées.
    Dans ce contexte, le projet vise à refondre l’ensemble des « data pipelines » afin de garantir la livraison de cette nouvelle version en deux étapes (effectuées en parallèle) (i) Phase 1 : reprise de l’existant au sein de l’équipe backtesting et (ii) Phase 2 : migration de l’existant + développements additionnels vers la plateforme cloud AWS (Groupe).

    Réalisations :
    Pilotage de l’audit des pipeline existants,
    Coordination et animation des ateliers d’audit et comités projets,
    Cartographies techniques et fonctionnelles des base de données et extractions existantes,
    Etudes de faisabilité,
    Création des requêtes et pipelines cibles en Phase 1,
    Configuration de l’environnement Cloud pour l’équipe, rédaction de guide utilisateur, formation utilisateurs,
    Création des pipelines cibles en Phase 2,
    Intégration des pipelines dans l’outil cible.

    Niveau d’intervention :
    Pilotage du projet,
    Analyse des impacts (IT, fonctionnels, organisationnels),
    Documents d’architecture,
    Cartographies,
    Formations utilisateurs,
    Data engineering

    Environnement Fonctionnel :
    Assurance-crédit, back-testing

    Environnement Technique : Phase 1 : Python, SQL, Toad Db2, Powershell Phase 2 : Python, SQL, AWS, AWS s3, AWS Glue, AWS Athena, awswrangler, Linux, R
Études et formations
  • Certified Associate Developer for Apache Spark 3.0 - Python Databricks, Paris

  • CES Data science : Analyse et gestion de grandes masses de données Télécom Paris, Paris

  • CFA Level 1 CFA Institute, Paris

  • M2 Gestion de Portefeuille

  • IAE Gustave Eiffel, Paris

Autres compétences
COMPÉTENCES INFORMATIQUES

Python, Spark, MongoDb,
ElasticSearch, JS, HTML5, CSS, D3.js, Altair, Scikit-Learn, SQL, Flask, Eel Power Bi, Tableau Desktop,
Tableau Prep, Alteryx
C++, Pytorch, Tensorflow, Hadoop, Hive

ENSEIGNEMENT
Certification AMF
AMF, Paris

MA Management
The University of Nottingham, Nottingham, UK

C O N T E X T E & R E A L I S A T I O N S

Le standard BCBS 239 vise à augmenter les capacités des banques en matière d’agrégation de données de risques financiers, à produire des reportings, et à améliorer la qualité de ces données risques.

Dans ce cadre, PySea est intervenu dans la conception d’un moteur de calcul (dit « Usine de Qualité ») permettant de remplir cette mission de contrôle de la qualité des données.

- Pilotage et cadrage du projet,
- Audit de l'existant,
- Revue méthodologique.

- Conception et développement de l'outil cible,
- Déploiement auprès des équipes métiers et des éntités du groupe.

- Création des dashboards de pilotage (pour le COO),
- Présentation de la stratégie de passage à l'échelle sous Spark.

D'autres freelances
Chef de projet PYTHON

Ces profils pourraient vous intéresser !
CV Expert Full Stack: Maîtrise totale d'application
Cedric

Expert Full Stack: Maîtrise totale d'application

  • TOULOUSE
PHP SQL SERVER JAVASCRIPT Angular SQL PYTHON JQUERY NODE.JS
Disponible
CV Chef de projet SI | Data
Nizar

Chef de projet SI | Data

  • TOULOUSE
PROJECT MANAGEMENT OFFICE JAVA AGILE J2EE SQL ITIL LINUX JIRA PYTHON MYSQL
Disponible
CV Data Analyst SQL
Ismail

Data Analyst SQL

  • VIGNEUX-SUR-SEINE
SQL Microsoft Power BI DATAVIZ TABLEAU SOFTWARE DATASTAGE PX PYTHON AGILE Oracle Database 12c JIRA
Disponible
CV Directeur ou Responsable des systèmes d'information
Laurent

Directeur ou Responsable des systèmes d'information

  • RENNES
BI MYREPORT SQL SERVER PACK OFFICE VEEAM HOROQUARTZ VMWARE PYTHON
Disponible
CV Développeur Backend | Développeur Mobile
Gabriel

Développeur Backend | Développeur Mobile

  • RENNES
SQL SWIFT NODE.JS POSTGRESQL JAVASCRIPT Rust PYTHON FLUTTER
Disponible
CV Data Analyst Microsoft Power BI
Elie

Data Analyst Microsoft Power BI

  • VILLEURBANNE
Microsoft Power BI PYTHON EXCEL JIRA SCRUM DATA SQL MICROSOFT POWER AUTOMATE
CV Data Analyst BI
Abderahmane

Data Analyst BI

  • NICE
BI SQL Microsoft Power BI DATA SQL SERVER JIRA PYTHON AZURE Google Cloud Platform TALEND
Disponible
CV Business Analyst JIRA
Babacar

Business Analyst JIRA

  • CLICHY
AGILE JIRA PROJECT MANAGEMENT OFFICE SQL SCRUM PYTHON BPM SAP UNIX ITIL
Disponible
CV Développeur REACT.JS
Tanguy

Développeur REACT.JS

  • NANTES
REACT.JS UNITY 3D C# PYTHON JAVASCRIPT NODE.JS
Disponible
CV Business Analyst, Business Intelligence, Chef de Projet
Ludovic

Business Analyst, Business Intelligence, Chef de Projet

  • BORDEAUX
MS PROJECT BI EXCEL Microsoft Power BI AGILE JIRA DATAVIZ PYTHON
Disponible