Expériences Professionnelles
Mars 2021 – Août 2021
Paris, France
Ingénieur Machine Learning
Generali Vie, DSI, Innovation and Cognitive Solutions
Surpaiement des prestations de dossiers maladies (Prévoyance Collective)
- Etude des déperditions en collaboration avec le cabinet McKinsey : analyse des causes racines et chiffrage
- Développement d’un outil de scoring (PySpark et Python) pour détecter automatiquement les déperditions
- Création de pipelines de traitement de données de plusieurs sources (base Oracle, Hadoop et Datamart) dans un
environnement Cloudera
- Analyse de la qualité des données (couverture et données manquantes) pour l’intégration de nouvelles sources de données dans un système d’aide à la décision (application métier)
Projet de détection de fraude interne et externe
- Framework de détection de fraude (interface visuel Linkurious) pour investigation sur la fraude
- Création de pipeline de données avec des jobs Dataiku (PySpark et Python) à partir de tables Hive
- Ingestion des données d’Hadoop vers un serveur Neo4j avec des scripts Unix (ordonnanceur Dollar Universe et stream Kafka)
Environnement : Python (Numpy, Scikit learn, Pandas), PySpark, Dataiku, Cloudera (Hadoop), Hue, Hive, Impala, Oracle, SQL,
Neo4j, Unix, Kafka, Git, Gitlab
Sept. 2020 – Fev. 2021
Bucarest, Roumanie
Machine Learning Data Associate
Amazon, Alexa Data Services
• Optimisation des modèles de reconnaissance de la parole et de part-of-speech tagging à partir de plusieurs algorithmes
: SGD, Adam, Adagrad, Adadelta et RMSProp
• Développement d’un pipeline de données ETL et de déploiement de scripts dans AWS grâce à Pyspark, Kafka, EC2,
Amazon S3, AWS Lambda et Jenkins
• Assistance dans la transcription et annotation des données audio d’utilisateurs francophones
Environnement : AWS, Pyspark, Kafka, EC2, Amazon S3, AWS Lambda, Jenkins
Mars 2020 – Juin 2020
Bucarest, Roumanie
Data scientist
Fordaq, département IT
• Business Transformation : Benchmark de solution technologiques (Business Intelligence/Analytics) pour monitorer et évaluer les ventes de souscription d’abonnement Fordaq
• Préparation de dataset à partir de base de données MSSQL (connexion de la base de données grâce à sqlite3 à un environnement de programmation Python)
• Analyse de sentiment des messages du chat Fordaq avec des modèles SVMs, Random Forests, et Naive Bayes
Environnement : Python (sqlite3, Numpy, Sci-kit, Pandas), Tableau, MSSQL
Sept. 2018 – Jan. 2019
Limoges, France
Data Analyst
Legrand, département production, Amélioration de process
• Construction d’un modèle statistique du fonctionnement d’un entrepôt de stockage pour augmenter la productivité et réduire les pertes de produits lié à l’obsolescence
• Rédaction d’un rapport d’analyse, et présentation des résultats (à l’aide du logiciel TABLEAU). Le rapport peut être très bien lu par des partenaires interne et externe et à pour but de donner des indications claires pour comment améliorer la gestion des produits
Environnement : Tableau, Access, Python
SNCF (Entité Réseau ferré) (06/2018 – 12/2019) - Responsable technique d’application
Etablissement et suivi de la gestion de montée de versions, de différents environnements (Integration, MCO, Formation , Préproduction, Production) au moyen de chronogramme
Coordination entre différentes équipes (production, métier) pour des interventions ponctuelles
Suivi des accès des habilitations des utilisateurs (interne et clientèle)
Environnement : CITRIX, LINUX, ORACLE, VTOM
CNP (07/2015 – 12/2017) - Intégrateur d’application
Création de scripts pour l’automatisation de l’intégration des dsx (pour la V8 en Unix et pour la V11en Linux)
Mise en place des composants dans les environnements d’intégration et recette
Demande de modification de base si nécessaire
Lancement des tests
Mise en place en production après validation des études.
Suivi de la mise en exploitation via CTRLM
Environnement : CTRLM (V8), SCRIPT (Unix Linux), Datastage serveur (V8), Datastage PX (V11), Oracle (9.5)
BPIFRANCE (depuis 01/2011)
En relation avec les études et la production, prise en compte des besoins de livraisons des applications commerciales (OAD, BCP CRM) et risques (BSR, DWO et BSRsa) pour l’espace d’intégration
Vérification de la conformité entre les documents d’exploitation, de livraison pour l’intégration et le besoin exprimé
Contrôle et installation des composants pour la recette
Déroulement de la stratégie de recette
Préparation des livrables pour la production
Création du document de livraison vers la production (ordre chronologique d’installation, détail de l’installation, cas particuliers…).
Création du plan de test technique
Suivi de la mise en exploitation
Environnement t : CTRL M, SCRIPT (cmd), WINDOWS Seven, WINDOWS XP, Chrome, Datastage serveur (8.7), Datastage PX, Oracle (9.5) DB2 (v10), WAS, JAVA, TOMCAT CNP (06/2009 – 12/2010)
Evolution et maintenance sur différents projets (CDS – ETC – EMB…) avec évolution de la documentation suivant la norme CMMI
Suivi d’exploitation des chaînes existantes de l’équipe DWH
Reprise et mise en place du projet OVI comprenant réception de fichier venant d'Espagne, mise au point avec les équipes, enrichissement des données et insertion en base pour les utilisateurs avec en complément le projet FER (Flux Externe de Régulation : fichier de code de point de vente)
Développement du projet CAE ( restitution du CApital Economique)
Initialisation et enrichissement d’un référentiel pour l’application CCA (Cube des Comptes Actuariat)
Suivi de la mise en intégration, recette
Création de dossier technique
Environnement : WINDOWS XP, Unix, Datastage PX (7.5.1.A), Datastage serveur (7.5.3),Oracle (9.5) via Toad
CACEIS (10/2008 – 03/2009)
Analyse technique du datamart TA (Transfert Agent)
Migration de l’application de Datastage V6 vers DatastageV8
Mise en place script shell pour le lancement des jobs (nuit, événementiels, technique)
Mise en place environnent Qual, Prod(Coté datastage, Unix)
Réalisation de schéma, dossier d’exploitation, dossier de monitoring
Suivi qualification et production
Environnement : WINDOWS XP, Unix, Datastage Server 6 et 8, Oracle via PL/SQL DARTY (05/2008 – 09/2008)
Analyse fonctionnelle des besoins des utilisateurs pour l’élaboration de rapports décisionnels sur la gestion de l’occupation de chaque personne s’occupant du B2B.
Modélisation des tables de réception ODS, dataware et datamart
Spécification technique détaillée
Développement (datastage) des interfaces entre SIEBEL (pourvoyeur de données), l’ODS, le dataware et le datamart, création de scripts Unix pour effectuer les liens.
Suivi de la mise en recette
Réalisation de schéma et dossier d’exploitation
Environnement : WINDOWS XP, Unix, Datastage Server 7.5, DB2 via TOAD, SIEBEL OSEO (10/2006 – 04/2008)
Après réunion et définition des besoins des utilisateurs, élaboration de spécification détaillée et mise en place de la génération des fichiers CRI (Compte Rendu d’Inventaire) pour les états réglementaires
Mise en place de chaîne d’alimentation d’un datamart pour la VGE (Vision Globale des Engagements), avec maintenance évolutive
Maintenance sur le datawarehouse de la base de suivi des risques
Réalisation de dossier de livraisons, d’exploitations
Maintien des différents extracteurs de données entre les bases ARCOLE (compta), CASSIOPE (Outil de gestion), SAP
Mise en œuvre de la restitution des informations de cotation des origines et de la restitution des flags des notations
Environnement : WINDOWS XP, WINDOWS NT, Datastage Server 7.1r2, DB2, Oracle 8
ROC (06/2006 – 07/2006)
Création d’une application gestion clientèle en Filemaker avec reprise des fonctionnalités et données existantes
Environnement : WINDOWS XP, Filemaker
CETELEM (03/2006 – 05/2006)
Etablissement d’un comparatif mensuel de comptes entre différentes comptabilités par la génération d’un fichier (CRE) via Datastage, et par la recherche des compteurs analogues avec affichage du résultat dans une application existante de style web
Mise en place d’un datamart avec des informations actualisées mensuellement par des prises de données (grâce à des scripts (ksh)) de la base principale et de l’intégration de fichier via Datastage, pour permettre l’édition des mandats de comptabilité
Environnement : Unix, Oracle, Datastage (PX), Plsql, Win’Design, WINDOWS XP IXIS (07/2001 – 12/2005)
Mise en place de l’application du batch BRG (base risque groupe) permettant la concordance des notations entre les différentes caisses régionales de la caisse d’épargne (comprenant intégration de fichiers extérieurs grâce à Datastage dans la base Sybase, rédaction documentation de la chaîne de nuit, création des shells de traitement)
Mise en place des transferts des flux dans un autre environnement (Référentiel Risque) et mise en œuvre de lien avec l’application SFERIC
Maintenance évolutive de l’application SFERIC (système de fédération des risques de contreparties)
Mise en œuvre ou explications, sur différentes demandes, des utilisateurs
Responsable de l’exploitation de la chaîne de nuit de SFERIC.
Pivot entre Chef de projet, Utilisateurs et Exploitation
Démarrage de la mise en place des paramètres dans le nouvel I.H.M.
Environnement : Unix(AIX5.2), Sybase, Datastage, HTML, VisualNet, NSDK, C, WINDOWS MATSYSTEM (05/2001 – 05/2001)
Recette de l’application de type web : Product-village (marketing)
Correction, livraison et contrôle du code HTML et Java-script sous Linux (RED HAT)
Environnement : Windows millenium, IE 5, HTML, Javascript, Linux CREDIT LYONNAIS (05/2000 – 04/2001)
Gestion des environnements d'intégration sur serveur HP en Unix
Administ...