Mission :
Conception et développement des modèles explicatifs, prescriptifs et prédictifs du taux de règlement
du marché financier de la Zone Euro
Elaboration d’une typologie des acteurs du marché à travers les comptes cash dans la zone Euro
Mission :
Maquettage et développement des modèles prédictifs de fraude à l’assurance maladie
Algorithmes et technologie : Machine Learning (Forêts aléatoires, SVM, logistique-Probit) sous
l’environnement R/RStudio
Data Mining et Econométrie.
Missions R & D réalisées :
- Développement des indicateurs de prévision des missions techniques SAV
- Développement des indicateurs d’évaluation des risques de pannes sur les équipements de la télésurveillance
- Développement des indicateurs de suivi de la performance des opérateurs téléphoniques
- Amélioration méthodologique des études d’impact par des techniques d’économétrie
- Amélioration du process de collecte de données pour garantir la qualité des études statistiques
- Développement du modèle de prévision en temps réel de charge de l’activité des téléconseillers (Appels sortants/entrants)
- Développement du modèle de prévision des sinistres chez les clients télé-surveillés
- Développement du modèle de scoring pour le ciblage des prospects de la téléassistance
- Développement du modèle d’attrition (résiliation) des clients de la télésurveillance.
Compétences et techniques mises en œuvre :
- Modèle de survie de vie :
o Estimation de la probabilité instantanée des pannes sur les matériels de télésurveillance avec traitement de la censure dans le modèle de Kaplan-Meier
o Loi de Weibull pour l’estimation du délai d’attrition par segment de clients
o Evaluation des risques de défauts en fonction du type et l’environnement des matériels : Modèle de survie généralisé à hasard proportionnel de COX.
- Techniques du Data Mining :
o Exploitation des Big Data de sources variées
o Modélisation prédictive par apprentissage supervisé : Réseaux de neurones, Arbres de décision, Modèle de régression par les splines adaptatives (MARS, PolyMARS), Forêts aléatoires et Séparateurs à vaste marge (SVM), les modèles de régression logistique binaire et multinomial et KNN (Plus proches voisins).
o Modélisation par apprentissage non supervisé : ACP, AFC, AFCM, Classification ascendante hiérarchique
- Maîtrise des requêtes de haut niveau : SQL/ORACLE, SQL/SAS Enterprise Guide et SQL/R.
- Gestion de flux de données : IBM SPSS MODELER 17.1
Post-doctorant (ATR) : Chargé d’études statistiques
Mission de recherche au CNRS
- Etude des facteurs d’exposition et de vulnérabilité des personnes sur le réseau routier du département du Gard en période d’inondation.
Mission d’enseignement à l’Ecole polytechnique de Lyon :
- Statistiques et informatique décisionnelle pour l’ingénieur
- Modélisation statistique des procédés industriels (MSPC) : Estimation des paramètres de contrôle
o Cartes de contrôle aux mesures
o Cartes de contrôle aux attributs
- Travaux pratiques :
o Méthodes exploratoires d’analyse des données : ACP, AFC, AFCM et AFD
o Séries chronologiques en 4ème et 5ème années
- Encadrement de projets de 5ème année à l’Ecole polytechnique de Lyon.
Logiciels utilisés : SAS 9.2, IBM SPSS MODELER 17.1, STATISTICA 10, R SPAD
Projet :
Développement des modèles statistiques de prévision des trajectoires d’avions et de charge de l’espace aérien en nombre d’avions.
Les résultats ont fait l’objet d’une soutenance de thèse en mathématiques appliquées soutenue en octobre 2010 et d’une publication scientifique à la Revue des Nouvelles Technologies.
Missions réalisées :
- Première classe de modèles proposés : Techniques d’apprentissage automatique supervisé
o Classification par arbres de décision et de régression (CART)
o Forêts aléatoires (random forests, Bootstrap)
o Séparateur à Vaste Marge (SVM)
- Deuxième classe de modèles proposés : Techniques de régression
o Régression Multivariée par les Splines Adaptatives (MARS)
o Régression de type PLS 1 et sur composantes principales – RCP
- Développement et validation d’un indicateur d’influence du vent sur les avions en vol
Compétences et logiciels :
- Techniques et outils de fouilles des données (Data mining)
- Exploitation des données multi-sources : Trafic aérien, météo et performances des avions
- Construction des variables synthétiques pour la mise en place des modèles de prévision
- SAS 9, MATLAB, SPAD 9, ORACLE.
Projet :
Evaluation économétrique de l’impact du stigmate du chômage sur les salaires et leur croissance. Source des données : Ministère de l’emploi et de la solidarité et la DARES
Missions réalisées :
- Evaluation des déterminants de la trajectoire salariale par modèle de régression logistique avec correction du biais de sélection par la méthode d’Heckman et Robb (Ratio de Mills)
- Estimation de la durée du chômage en fonction des caractéristiques individuelles et des politiques de l’emploi par le modèle général de durée de vie : Modèle à hasard proportionnel de Cox
- Validation des modèles économétriques multi-niveaux par genre (H/F) avec le test de Chow
- Evaluation des effets du capital humain sur la croissance salariale et le retour à l’emploi
Mission réalisée :
- Développement d’un modèle statistique de prévision de l’ozone dans la région Poitou-Charentes.
- Réduction des coûts d’investissements sur les appareils de mesure d’O3, NOX et particules fines
Mission :
Analyse de l’impact du lien de parenté du chef de ménage sur les activités domestiques des enfants. Données d’enquête ménage du Ghana 2000 réalisée par le Bureau international du travail.
Mission :
Classification des matériaux archéologiques en fonction de la composition chimique
Techniques et compétences mises en œuvre :
- Classification ascendante hiérarchique (CAH) : Simple et sur composantes principales
Logiciels : R et EXCEL.
Missions :
- Enseignement des mathématiques/statistiques et animateur pédagogique du département.