Contexte : Conception et automatisation de solutions de collecte et d’analyse de données de risque de crédit
• Tâches réalisées :
o Automatisation des processus d’acquisition de données avec Python et Dataiku
o Data Quality : mise en place de contrôles des données
o Analyse des données de risque de crédit et des RWA (Risk-Weighted Assets)
o Développement et déploiement de reportings réglementaires avec Tableau
o Monitoring des workflows via API
o Documentation
• Résultats obtenus : Amélioration de la précision des reportings et automatisation réduisant les efforts manuels
Contexte : Prévision des volumes de stocks pour un horizon de 18 mois
• Tâches réalisées :
o Mise en production d’un algorithme prévisionnel avec Python
o Orchestration via Kubernetes et containerisation avec Docker
o Création de Dashboard pour la visualisation des données
o Documentation
• Résultats obtenus : Réduction des surstocks de 15 % et optimisation de la logistique
Contexte : Conception et déploiement d’un pipeline analytique complet pour la maintenance prédictive
• Tâches réalisées :
o Création d’un pipeline analytique de bout en bout
o Sélection et préparation des features avec Python
o Automatisation du pipeline de données (tests unitaires, intégration, contrôles, métriques)
o Versioning des données et des modèles avec Git
o Création de Dashboard de surveillance (Bokeh)
o Mise en place de tests de contrôle et détection d’anomalies
o Calibration des algorithmes de maintenance prévisionnelle
o Déploiement automatisé via Automation
o Documentation
• Résultats obtenus : L’automatisation et l’optimisation des processus ont permis de réduire le temps de travail des équipes de 7 jours à seulement 2 jours
Contexte : Industrialisation et Optimisation des workflows sur une plateforme Big Data
• Tâches réalisées :
o Collecte de données massives (Hive)
o Monitoring, contrôle et alerting des pipelines de données (Pyspark)
o Développement de tests d'intégration, de non-régression (Python, Hive)
o Transformations des données dans Dataiku en utilisant DB2 comme source de données
o Développement de règles de gestion (Python)
o Création de pipelines de données dans Dataiku
o Automatisation du packaging des pipelines (Dataiku bundles)
o Monitoring, contrôle et alerting des pipelines
o Industrialisation, Automatisation de pipelines de données (tests unitaires, d’intégration via des scénarios, checks)
o Recette et validation techniques des workflows Dataiku
o Documentation
o Formatrice des nouveaux arrivants, des équipes MOA et MOE
o Support aux équipes fonctionnelles et techniques
o Documentation
• Résultats obtenus : Livraison en production de packages de reporting réglementaire
Contexte : Industrialiser les workflows de projet Data, participer à la définition et au déploiement de l'architecture Dataiku, et assurer l'amélioration continue des modèles grâce à une revue de code, un monitoring et une gestion des instances
• Tâches réalisées :
o Identification des use case de Machine Learning pour le marketing
o Industrialisation des workflows de projet Data
o Contribution à la définition et mise en place de l’architecture de déploiement des projets Dataiku
o Migration de projets d'une instance vers une autre
o Revue de code pour évaluer la performance des modèles
o Proposition de pistes d’amélioration pour optimiser les modèles
o Administration de Dataiku (gestion des connexions, des utilisateurs)
o Monitoring des instances Dataiku (via des APIs)
o Documentation
• Résultats obtenus : Livraison de Dashboard de suivi de KPI pour le métier, de documentations de bonnes pratiques d'utilisation de Dataiku
• Contexte : : Aider les contrôleurs de gestion à mieux anticiper la trajectoire des vols dans l'espace aérien français
• Tâches réalisées :
o Veille technologique pour suivi à l'amélioration continue des analyses
o Datamining sur de gros volumes de données
o Transformation et préparation des données à des fins de modélisation (parsing, extraction, normalisation et traduction en données statistiques)
o Modélisation des données par Réseaux de Neurones Récurrents LSTM
o Optimisation du modèle (Grid Search, autoâ€ÂÂtuning, Random Search)
o Documentation
Contexte : Reconcevoir et améliorer les modèles de Machine Learning afin d'optimiser la prévision des stocks, en automatisant le traitement des données et en ajustant les algorithmes pour garantir une gestion plus efficace des quantités de produits disponibles
• Tâches réalisées :
o Utilisation des modèles de prévision : ARIMA, ESM, UCM, IDM, Décomposition de Loess, de Fourier pour des fins d’amélioration de la Forecast Accuracy (FA)
o Backtesting des modèles développés pour évaluer leur efficacité
o Reporting pour le client
o Documentation
• Résultats obtenus : Amélioration de la FA (Forecast Accuracy) du modèle de prévision de stocks
Contexte : Développer un algorithme permettant de prédire la trajectoire d’autonomie des personnes âgées du Limousin
• Tâches réalisées :
o Participation à l’identification du besoin métier et cadrage du projet de recherche
o Recueil, nettoyage et préparation des données de santé pour des fins dʼanalyses statistiques
o Conception d’un algorithme de Machine Learning prédisant la perte d’autonomie de la personne âgée
o Réalisation d’une analyse de survie des personnes âgées
o Valorisation scientifique des travaux par la publication dʼarticles, la présentation à des congrès internationaux
o Documentation
• Résultats obtenus : Livraison d'un mémoire de thèse doctorale, d'un algorithme de détection de facteurs prédictifs de la perte d'autonomie