Contexte : Développement, automatisation et industrialisation de solutions internes de scoring, de data quality et de reporting réglementaire au sein de l’équipe Risque de Crédit BCEF.
Tâches réalisées :
o Développement d’un algorithme de scoring RWA interne en Python : conception du modèle, engineering des features, optimisation et intégration complète dans Dataiku pour exécution automatisée.
o Déploiement du scoring RWA sur l𠆚utomation Node de Dataiku, avec gestion des dépendances et planification des runs.
o Contribution aux travaux ESG : intégration d’indicateurs environnementaux, sociaux et de gouvernance dans les pipelines de risque, enrichissement des expositions via APIs et sources internes/externes.
o Automatisation avancée des workflows (Python, SQL, Dataiku) : création de plugins Python, développement de custom triggers pour orchestrer les scénarios et déclencher automatiquement les reportings mensuels et trimestriels.
o Mise en place de contrôles de data quality (cohérence, complétude, anomalies) et analyses approfondies des expositions (PD, LGD, EAD, RWA).
o Préparation et industrialisation des reporting en vue de leur mise en production
o Création de Dashboard des reportings réglementaires sous Tableau (Desktop & Server).
o Suivi et monitoring des datalab Teradata des équipes.
o Rédaction de documentation et formation des équipes métier aux outils Dataiku et Tableau.
Résultats obtenus
• Amélioration de la précision et de la cohérence des reportings RWA et ESG.
• Réduction significative des efforts manuels grâce à l'automatisation (gains de temps mensuels et trimestriels).
Technologies : Python, SQL, Git, Tableau Desktop, Serveur, Dataiku, Teradata, Jira, Concluence
Contexte : Industrialisation d’un système de prévision des volumes de stocks sur un horizon de 18 mois, destiné à optimiser la planification, la production et la logistique globale.
Tâches réalisées :
o Mise en production d’un algorithme prévisionnel (modèles de séries temporelles, régression, optimisation) développé en Python et adapté aux contraintes opérationnelles du Supply Chain Planning.
o Industrialisation et automatisation de la chaîne ML :
Containerisation des modules ML avec Docker,
Déploiement sur une architecture Kubernetes (GKE) pour une exécution scalable et robuste,
Mise en place de pipelines orchestrés (batch + monitoring).
o Gestion du cycle de vie des modèles : monitoring des performances, recalibrage périodique, gestion de la dérive (data drift / model drift).
Collaboration étroite avec les équipes Data, Supply et IT pour intégrer le modèle dans les systèmes internes et les workflows métier.
Création de dashboards Power BI mettant en valeur les prévisions, les écarts, les tendances et les indicateurs de performance logistique.
o Documentation technique complète : architecture, data pipeline, procédures de déploiement, guide utilisateur.
Résultats obtenus : Réduction des surstocks de ~15 % grâce à une meilleure anticipation des volumes et une stabilisation des prévisions
Technologies : Python, Git, Power BI, GCP (GKE, BigQuery), Kubernetes, Docker, outils de monitoring ML.
Contexte : Conception et déploiement d’un pipeline analytique complet pour la maintenance prédictive
Tâches réalisées :
o Création d’un pipeline analytique de bout en bout
o Sélection et préparation des features avec Python
o Automatisation du pipeline de données (tests unitaires, intégration, contrôles, métriques)
o Versioning des données et des modèles avec Git
o Création de Dashboard de surveillance (Bokeh)
o Mise en place de tests de contrôle et détection d𠆚nomalies
o Calibration des algorithmes de maintenance prévisionnelle
o Déploiement automatisé via Automation
o Documentation
Résultats obtenus : L𠆚utomatisation et l’optimisation des processus ont permis de réduire le temps de travail des équipes de 7 jours à seulement 2 jours
Technologies : Dataiku, Python (POO), SQL, Git, Bokeh, Splunk, GitLab CICD, Linux, Docker
&bull Contexte : Industrialisation et Optimisation des workflows sur une plateforme Big Data
&bull Tâches réalisées :
o Collecte de données massives (Hive)
o Monitoring, contrôle et alerting des pipelines de données (Pyspark)
o Développement de tests d'intégration, de non-régression (Python, Hive)
o Transformations des données dans Dataiku en utilisant DB2 comme source de données
o Développement de règles de gestion (Python)
o Création de pipelines de données dans Dataiku
o Automatisation du packaging des pipelines (Dataiku bundles)
o Monitoring, contrôle et alerting des pipelines
o Industrialisation, Automatisation de pipelines de données (tests unitaires, d&rsquointégration via des scénarios, checks)
o Recette et validation techniques des workflows Dataiku
o Documentation
o Formatrice des nouveaux arrivants, des équipes MOA et MOE
o Support aux équipes fonctionnelles et techniques
o Documentation
&bull Résultats obtenus : Livraison en production de packages de reporting réglementaire
&bull Contexte : Industrialiser les workflows de projet Data, participer à la définition et au déploiement de l'architecture Dataiku, et assurer l'amélioration continue des modèles grâce à une revue de code, un monitoring et une gestion des instances
&bull Tâches réalisées :
o Identification des use case de Machine Learning pour le marketing
o Industrialisation des workflows de projet Data
o Contribution à la définition et mise en place de l&rsquoarchitecture de déploiement des projets Dataiku
o Migration de projets d'une instance vers une autre
o Revue de code pour évaluer la performance des modèles
o Proposition de pistes d&rsquoamélioration pour optimiser les modèles
o Administration de Dataiku (gestion des connexions, des utilisateurs)
o Monitoring des instances Dataiku (via des APIs)
o Documentation
&bull Résultats obtenus : Livraison de Dashboard de suivi de KPI pour le métier, de documentations de bonnes pratiques d'utilisation de Dataiku
&bull Contexte : : Aider les contrôleurs de gestion à mieux anticiper la trajectoire des vols dans l'espace aérien français
&bull Tâches réalisées :
o Veille technologique pour suivi à l'amélioration continue des analyses
o Datamining sur de gros volumes de données
o Transformation et préparation des données à des fins de modélisation (parsing, extraction, normalisation et traduction en données statistiques)
o Modélisation des données par Réseaux de Neurones Récurrents LSTM
o Optimisation du modèle (Grid Search, autoâÂÂtuning, Random Search)
o Documentation
&bull Résultats obtenus : Livraison d'un modèle de réseaux de neurones (package Python), prévisionnel de la trajectoire de vols
&bull Contexte : Reconcevoir et améliorer les modèles de Machine Learning afin d'optimiser la prévision des stocks, en automatisant le traitement des données et en ajustant les algorithmes pour garantir une gestion plus efficace des quantités de produits disponibles
&bull Tâches réalisées :
o Utilisation des modèles de prévision : ARIMA, ESM, UCM, IDM, Décomposition de Loess, de Fourier pour des fins d&rsquoamélioration de la Forecast Accuracy (FA)
o Backtesting des modèles développés pour évaluer leur efficacité
o Reporting pour le client
o Documentation
&bull Résultats obtenus : Amélioration de la FA (Forecast Accuracy) du modèle de prévision de stocks
&bull Contexte : Développer un algorithme permettant de prédire la trajectoire d&rsquoautonomie des personnes âgées du Limousin
&bull Tâches réalisées :
o Participation à l&rsquoidentification du besoin métier et cadrage du projet de recherche
o Recueil, nettoyage et préparation des données de santé pour des fins dʼanalyses statistiques
o Conception d&rsquoun algorithme de Machine Learning prédisant la perte d&rsquoautonomie de la personne âgée
o Réalisation d&rsquoune analyse de survie des personnes âgées
o Valorisation scientifique des travaux par la publication dʼarticles, la présentation à des congrès internationaux
o Documentation
&bull Résultats obtenus : Livraison d'un mémoire de thèse doctorale, d'un algorithme de détection de facteurs prédictifs de la perte d'autonomie