Christel - Chef de projet Data

Ref : 151029O001
Email vérifié
Photo de Christel, Chef de projet Data
Compétences
Expériences professionnelles
  • Expérience professionnelle

    Chef de projet Data Science / Machine Learning
    Data Rainbow, AHI ES Supermarché AVRIL 2023 – MAINTENANT
    Contexte : Dans le secteur de la grande distribution, AHI ES supermarché souhaite automatiser
    la détermination du prix de ses articles.
    Expertise fonctionnelle : cadrage du projet
    • Ateliers avec les métiers, construction du datalake représentatif du use case
    • Création de la méthodologie de travail
    Expertise technique : création de l’algorithme de prédiction du prix des articles
    • Configuration de l’environnement en mode parallélisé
    • Data crunching et data préparation
    • Statistique descriptive, analyse factorielle multiple et clustering
    • Entrainement de quatre modèles : Random Forest, SVM, XGBoost et le modèle ensembliste
    • Méthode d’entrainement : validation croisée, recherche des paramètres par grid search et
    bayesian optimization
    • Sélection du meilleur modèle, étude des résidus et marge d’erreur
    • Reporting et présentation aux métiers
    Environnement technique: Numpy, Pandas, Matplotlib, Seaborn, Scikit-learn, TidyModels,
    ToParallel, Foreach, FactoMiner, Canva

    Chef de projet Datalab
    SGDBF (Saint Gobain Distribution Bâtiment France) JUILLET 2021 – MARS 2023
    Contexte : DATALAB, entité de la DSI chargée d’industrialiser, déployer, mettre en production et
    maintenir le run des projets Data Science, Machine Learning et Intelligence Artificielle.
    Expertise fonctionnelle : Coordinatrice de projets de bout en bout
    • 4 entités : équipe Métier, équipe Médiation, équipe Data Scientists et équipe Data Engineers
    • Scrum Master : mise en place de la méthodologie Agile/Scrum, garant de l’agilité au sein de
    l’équipe, organisation et animation des évènements SCRUM (sprint planning, sprint review,
    rétrospective), responsable du Jira Datalab
    • Product Owner Proxy : cadrage et formalisation des besoins de l’équipe Data Science (uses
    stories), animatrice des ateliers de grooming
    • Reporting de l’état d’avancement des projets
    • Veiller à la documentation et la mise à jour des documents des process techniques au sein de
    l’équipe : PSAT, DMEX, SFD, SPEC, documents projets sur Confluence
    • Suivi et participation aux projets dès la phase exploratoire afin d’anticiper la phase
    d’industrialisation
    • Assurer la visibilité de l’équipe au sein de la DSI SGDBF et auprès des métiers
    • Forte contribution à la cohésion et l’épanouissement de l’équipe
    Expertise technique : Responsable et suivi de l’ingestion des données
    • Planification et suivi accostage des tables : spec techniques $U
    • Recette technique des données lors de la migration sur Azure : scripts Python, job databricks,
    job CDSW
    • Recueil des nouveaux besoins, préparation et passage en comité d’architecture
    Environnement technique : Azure : ADLS, Databricks, Azure ML, Azure Data Factory, Hbase,
    Hive, Impala, flux Nifi, Hana, Sybase IQ, Python, Cloudera Data Science, Confluence Jira
    Chef de projet Data Science
    DGEFP(Délégation Générale à l’Emploi et à la Formation Professionnelle) JUILLET 2020 – JUILLET 2021
    Contexte : AGORA, projet qui a pour vocation à mesurer la performance pédagogique des
    formations multimodales ainsi que leur impact sur l’accès à la formation et les parcours comme
    sur l’insertion dans l’emploi.
    Expertise fonctionnelle : Conception de l’outil d’analyse de la qualité des données AGORA
    • Cadrage du projet Qualification des données AGORA : identification des interlocuteurs,
    animation des ateliers de travail pour le recueil du besoin métier, rédaction des comptes
    rendus et validation avec les métiers
    • Création de la méthodologie de travail adapté au besoin et à l’environnement
    • Planning, jalons et gestion des risques
    • Proposition des scénarios du dispositif adéquat adapté à l’environnement existant, échanges
    et validation
    • Chiffrage des différents scénarios et du projet
    • Échanges avec les architectes et participation à la configuration des environnements
    Expertise technique : création de l’outil d’analyse de la qualité des données AGORA
    • Installation du Client Microsoft R / Microsoft R Open
    • Configuration du protocole de communication avec le Serveur via RevoScaleR
    • Création et évolution des scripts d’analyse de données et automatisation

    • Tests unitaires
    • Création des indicateurs de qualité des données
    Environnement technique : SQL Server Machine Learning Services, Microsoft Client R, Power BI

    Expertise Machine Learning et Dataviz.
    TALAN SOLUTIONS FEVRIER 2020 – JUIN 2020
    Operational Intelligence via analyse vidéo : solution BI temps réel alimentée par des KPI produits
    par un moteur d’analyse vidéo. Projet amélioré dans le contexte du Coronavirus pour limiter le
    nombre de personnes dans les espaces filmés, surveiller l’application des distanciations et
    estimer le temps d’attente dans des espaces via une approche Machine Learning
    • Expertise Dataviz et Data Science : pilotage et supervision d’un consultant
    • Construction du Data Lake, Data crunching et automatisation
    • Développement d’algorithmes d’apprentissage
    • Création des tableaux de bord
    Environnement technique : Machine Learning Services, SQL Server, R, Power BI

    AÉROPORTS DE PARIS
    Smart Airport : prédiction et optimisation du temps d’attente des taxis en aéroport et optimisation
    de l’utilisations de parking
    • Définition des uses cases métier et analyse des données
    • Rédaction de l’expression de besoin
    • Participation à la construction du Datalake
    • Data Crunching et automatisation
    • Développement d’algorithmes d’apprentissage
    • Création des tableaux de bord
    Environnement technique : Cloud Data Plateforme Azure (Azure ML, Databricks) - Tableau
    Software - Méthodologie Agile – Scrum
    Product Owner / Full Data Stack

    SNCF TRANSILIEN AOÛT 2018 – OCTOBRE 2019
    COMOB (Connaissance de la Mobilité), 900 utilisateurs inscrits, plus de 70 utilisateurs
    connectés par mois : application intranet qui donne une vision sur le trafic, l’évolution des flux
    voyageurs, la qualité de service, la lutte anti-fraude sur le réseau Transilien
    • Pilotage de la migration de l’outil sur une nouvelle plateforme Azure : principale interlocutrice
    métier avec la DSI, gestion des risques, gestion du planning et suivi des coûts
    • Experte Data Viz : Benchmark des outils Data Viz - Pilotage de la migration de l’outil vers un
    nouvel outil de Data Viz
    • Data Science : programmes et analyses ad hoc pour répondre à des besoins d’estimation du
    trafic
    • Animation d’ateliers et formation des métiers
    Environnement technique : Agile, Data Lake Hadoop et Plateforme Azure, SAS Guide, SAS to
    Hadoop, SAS VA, R, PowerBI

    Data Scientist
    KLEPIERRE AVRIL 2018 – AOÛT 2018
    Mise en place de modèles prédictifs sur la consommation d’énergie dans des centres
    commerciaux du groupe et optimisation des commandes (chauffage/climatisation) pour améliorer
    l’expérience client et optimiser la consommation
    • Analyse des données historiques de consommation énergétiques et des relevés
    météorologiques
    • Démonstration qu’il est possible de proposer des réglages optimisés de la GTC
    • Modélisation de la consommation électrique
    • Création des tableaux de bord et proposition des axes d’amélioration
    • Présentation et échange avec les métiers
    Environnement Microsoft Azure (Azure ML, Azure Data Lake Store, Power BI…)

    Data Engineer
    LA POSTE JUIN 2017 – MARS 2018
    Refonte du SI – Socle Import/Export : Développement d’une application Import-Export qui permet
    l’enregistrement et le contrôle des courriers à l’international
    • Développement des web services pour l’envoi des informations vers le front et la récupération
    des informations depuis le front
    • Post et récupération des flux de données via des bus kafka
    • Création, Lecture et écriture au fil de l’eau dans des tables Cassandra et Sybase
    • Industrialisation : déploiement continue via les jobs jenkins et analyse des logs Spark
    Environnement technique : Agile SCRUM – Scala – Spark Streaming- Spark Sql – Sybase –
    Kafka Stream - Cassandra

    Data Scientist JUILLET 2017 – SEPTEMBRE 2017
    INNOTHERA
    Optimisation de la campagne de ciblage marketing d’un produit sur le territoire français
    • Cadrage et chiffrage du projet
    • Construction du Data Lake représentatif du besoin métier
    • Data Préparation et Data Crunching des données
    • Analyse exploratoire et profilage des clients
    • Analyse prédictive et déduction des facteurs impactant le chiffre d’affaires
    • Proposition de recommandations et présentation à la Direction

    EISTI
    Animation de formations Data Science
    • Préparation et rédaction des cours d’analyse de données en Master II
    • Animation des cours : méthodologie et étapes d’analyse en data science, explication des
    modèles de machine Learning illustrés d’exemples.
    • Présentation et utilisation du framework Spark : Spark MLlib
    • Préparation et animation d’un TP pour la mise en pratique de quelques modèles de Machine
    Learning sur un cas concret
    TALAN
    Talan IA : développement d’une solution automatisée de Machine Learning :
    • Data Scientist, responsable des développements du lot « Apprentissage non supervisé »
    • Optimisation d’algorithmes d’apprentissage non supervisé : critères de convergences,
    validation croisée, sélection et paramétrage des modèles
    Environnement technique : R, Spark MLlib, Tableau Software
    Consultante Data Science
    SNCF – TRANSILIEN JUIN 2016 – JUILLET 2017
    CAB TENDANCE : outil d’estimation du trafic et des flux voyageurs sur le réseau Transilien
    • Développement des scripts d’estimation des flux voyageurs
    • Qualification et pilotage des indicateurs de mesure de trafic : KPI évolutions du trafic, rédaction
    des livrables mensuels et trimestriels
    • Pilotage de la campagne de vérification des compteurs automatiques : échanges avec
    l’institut, organisation et planification, recettes, analyse des données et présentation des
    résultats
    • Recueil du besoin et création des tableaux de bord
    • Animation et coordination des ateliers de formation
    Environnement technique : SAS Guide, SAS Visual Analytics
    Consultante Big Data et Data Viz
    RATP DECEMBRE 2015 – MARS 2016
    Choix d’un outil de data visualisation par la DSI dans le cadre de l’accompagnement des métiers
    pour la création des tableaux de bord
    • Benchmark des outils de BI Analytics
    • Test des fonctionnalités et comparaison des outils
    • Recueil du besoin et création des tableaux de bord
    • Création et rédaction de l’offre de service proposant une méthodologie de service BI Agile
    d’Entreprise
    • Présentation et démonstration aux métiers

    INVENTIV IT Période : Depuis septembre 2015
    Fonction Formatrice Big Data et formation sur Tableau Software
    Mission
    Description Préparation des programmes de formations Big Data
    o les fondamentaux du Big Data
    o l’analyse statistique du Big Data
    Auto formation sur Tableau Software

    Technologies
    SPARK, MAHOUT, RHADOOP, HIVE, HADOOP
    Tableau Software

    VOYAGES-SNCF Période : Juil 2015 – Aout 2015
    Fonction Chargée d’Etudes Datamining
    Mission
    Description Préparation des campagnes marketing au sein du département Data & Webmining
    Analyse des critères marketing relationnels, étude de faisabilité
    Ciblage Marketing (SPSS MODELER et NEOLANE) : Sélection des sources de données, définition du domaine de travail (périmètre de données de la campagne), mise en place des critères, identifier la cible, identifier les clients finaux
    Mise à jour des KPI et Reporting hebdo et mensuel

    Technologies
    NEOLANE, SPSS Modeler, BO
    Domaine métier Distributeurs, e-Commerce

    XEROX Période : Juin 2014 – Mars 2015
    Fonction Analyste Marketing Décisionnel
    Mission
    Description Mission d’analyse de la performance au sein du département Marketing afin de pousser la force de vente.
    Suivi et analyse de l’activité commerciale France Channel Group
    Création et mise à jour des tableaux de bord (KPI, indicateurs clés de performance) sur Qlikview et Excel.
    Segmentation du réseau partenaire : Data Crunching, nettoyage, épuration, contrôle, clusters de partenaires (SAS EM)

    Technologies
    QlikView, Excel niveau avancé, Tableau, SAS EM
    Domaine métier Gestion électronique de documents, conseil, services


    C&O MARKETING Période : Juil 2010 – Nov 2013
    Fonction Chargée d’Etudes Data & Knowledge
    Mission
    Description Dans le cadre de missions de conseil et études de marché (Baromètre, B to B, B to C, Ciblage, Retail et ad hoc)
    Organisation de l’étude, gestion des tâches et du planning, suivi et reporting, points de contrôles avec le client, gestion des opérateurs de saisie
    Fonctionnel : définition de la méthodologie de collecte des données, participation à la conception du questionnaire de collecte
    Technique : Mise en place du masque de saisie [IBM SPSS ou Modelisa], formation des opérateurs de saisie, traitement statistique, Contrôle et nettoyage des données,
    Restitution : Reporting, rédaction de rapports, recommandations et présentations

    Technologies
    IBM SPSS, Modelisa, Excel avancé, Office, Comunik CRM
    Domaine métier Etudes de marché : grandes distributions, retail, conseil en marketing
    TEOS Période : Mars 2010 – Juin 2010
    Fonction Assistante Consultant BI
    Mission
    Description Installation d’un système décisionnel pour la gestion des ventes d’un portail e-commerce. Mise en place d’un tableau de bord des ventes.
    Choix des indicateurs
    Création du datawarehouse dédié
    Mise en place du flux d’alimentation (collecte, transformation, création des jobs)
    Création des cubes OLAP pour l’analyse multidimensionnelle
    Spécifications détaillées du système décisionnel

    Préparation des formations admin ; développeur ; utilisateur
    Support de présentations
    Démonstration dans l’outil

    Technologies

    MySql, Pentaho BI suite (Pentaho Data Integration, Schema Workbench, Reporting Designer, Mondrian),
    Domaine métier Conseil Informatique, Nouvelles technologies

Études et formations
  • Formation

    2014-2015 Master 2 Professionnel en Statistiques, spécialité « Data Science », CNAM Paris
    2013-2014 Master 2 Professionnel en Statistiques, spécialité « Statistiques pour l’Assurance », CNAM Paris
    2007-2010 Ingénieur d’Etat en Statistique et Informatique Décisionnelles, Université Abdelmalek Essaâdi, Tanger

    Compétences fonctionnelles
    Marketing  Préparation des campagnes marketing
     Analyse de la performance des forces de vente
     Conseil et études de marché (Baromètre, B to B, B to C, Ciblage, Retail et ad hoc)
    Outils : NEOLANE et solutions BI et statistiques (voir ci-dessous)

    Compétences techniques
    Statistiques & data mining  Enrichissement et mise en qualité des données, préparation des données volumineuses et data crunching
     Elaboration des modèles explicatifs et prédictifs d’aide à la prise de décision : Stat Multivariée/Scoring/Datamining/Clustering/Text Mining
     Développer des algorithmes d’apprentissage supervisées et non : Arbres de décision, Réseaux de neurones, Cartes de Kohonen
    Outils : IBM SPSS, Modeler ; SAS Base, SAS EM, SPAD, R
    Informatique décisionnel  Maîtrise de la chaîne décisionnelle: ETL, restitution et visualisation
     Création des cubes OLAP et analyses multidimensionnelles
     Reporting, tableaux de bord et indicateurs de performance
    Outils et langage : Qlikview, Tableau Software ; Programmation VBA, SQL
    Big Data  De solides connaissances autour des grands composants de l’écosystème Hadoop
     Bonnes connaissances autour de la collecte et du stockage des données (Sqoop, Flume, Yarn, HBase)
     Techniques d’analyse et de fouille de données (sous Spark avec Scala, Mahout, Rhadoop, Hive, Pig)
    Outils : SPARK, MAHOUT, RHADOOP, HIVE

D'autres freelances
Business Analyst DATA

Ces profils pourraient vous intéresser !
CV Lead Business & Data Analyst
Dannick

Lead Business & Data Analyst

  • VILLEJUIF
EXCEL SQL DATA BI PYTHON JIRA
Disponible
CV Data Analyst TABLEAU SOFTWARE
Ayadi

Data Analyst TABLEAU SOFTWARE

  • AULNAY-SOUS-BOIS
TABLEAU SOFTWARE AGILE SCRUM DATA SQL BI Qlik TALEND JIRA BUSINESS OBJECTS
Bientôt disponible
CV Data Analyst
Laetitia

Data Analyst

  • NEUILLY-SUR-MARNE
EXCEL DATA SQL BUSINESS OBJECTS AGILE Qlik Sense Microsoft Power BI
Disponible
CV BA/MOA/Expert SI Finances, Compatbilité (privée/publique), data, secteur public, transport public
Karim

BA/MOA/Expert SI Finances, Compatbilité (privée/publique), data, secteur public, transport public

  • SAINT-MAUR-DES-FOSSÉS
MOA DATA Finance PROJECT MANAGEMENT OFFICE BI Autres transports AGILE COGNOS BUSINESS OBJECTS BPM
Disponible
CV Data Analyst Power BI
Youness

Data Analyst Power BI

  • GRENOBLE
Microsoft Power BI BI DATA EXCEL SQL PYTHON SQL SERVER
CV Business Data Analyst
Suzanne

Business Data Analyst

  • SALLEBOEUF
BI EXCEL Microsoft Power BI MICROSTRATEGY SQL DATA TABLEAU SOFTWARE SQL SERVER AGILE
CV Data Scientist
Alexis

Data Scientist

  • OCCAGNES
EXCEL PACK OFFICE SQL PYTHON R DATA Microsoft Power BI SAS ORACLE VBA
CV Data Analyst Microsoft Power BI
Amal

Data Analyst Microsoft Power BI

  • PARIS
Microsoft Power BI SQL DATA PYTHON AZURE SQL SERVER Google Cloud Platform BUSINESS OBJECTS BIGQUERY POSTGRESQL
Disponible
CV Business Analyst DATA
Xin

Business Analyst DATA

  • MAISONS-ALFORT
DATA SQL AGILE
Disponible
CV Analyse de Données Data visualisation Power BI
Moncef

Analyse de Données Data visualisation Power BI

  • PARIS
Microsoft Power BI DATA EXCEL DATAVIZ AGILE SQL AZURE GOOGLE ANALYTICS SQL SERVER TABLEAU SOFTWARE
Disponible