CV Dataiku : Sélectionnez rapidement les meilleurs profils

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Dataiku connectés

CV Consultant TALEND (ETL/ESB/BIG DATA) & DATASTAGE PX
Dave

Consultant TALEND (ETL/ESB/BIG DATA) & DATASTAGE PX

  • Nantes
Talend Datastage PX PL/SQL DataStage SQL Apache Camel Big Data Python Informatica Apache Kafka
Disponible
CV Big Data Engineer & Mlops
Aina

Big Data Engineer & Mlops

  • CARRIÈRES-SOUS-POISSY
Data Big Data Python SQL PySpark Cloud AWS Google Cloud Platform Azure
Disponible
CV Administrateur Bases de Données Salesforce
Jorhan

Administrateur Bases de Données Salesforce

  • SERRIS
Salesforce
Disponible
CV Cheffe de projet /PO PMO/ transverse -ITSM RELATION CLIENT
Nadia

Cheffe de projet /PO PMO/ transverse -ITSM RELATION CLIENT

  • SAINT GERMAIN LAYE
ITSM Excel ServiceNow Jira Salesforce
Disponible
CV Data Scientist
Charlotte

Data Scientist

  • CERGY
Dataiku SQL Python GitLab Google Cloud Platform Microsoft Power BI Cloud AWS Docker Kubernetes Azure
Disponible
CV Statisticien | Data scientist
Boukary

Statisticien | Data scientist

  • POISSY
SQL Data Python SAS SAS Enterprise Guide Dataiku Data Science SAS Viya Excel BI
Disponible
CV Ingénieur de production Linux
Amal

Ingénieur de production Linux

  • PARIS
Linux Unix Windows Azure Ansible Bash VMware IBM MariaDB Qualys
Disponible
CV Chef de projet technique
Ndeye Gueye

Chef de projet technique

  • morsang sur orge
WebMethods Informatica WebLogic Fuse ESB Visual Studio Ansible Apache Kafka CFT MQSeries Jenkins
Disponible
CV Data Analyst Spécialisé en Impact Métier
Shreeraj

Data Analyst Spécialisé en Impact Métier

  • VITRY-SUR-SEINE
Excel Tableau Software SQL Python Google Cloud Platform Power BI Azure BigQuery Dataiku
Disponible
CV Manager de transition - Product Owner - Architecte 360 Technique IT/OT
Pascal

Manager de transition - Product Owner - Architecte 360 Technique IT/OT

  • GAGNY
TCP / IP WAN Routeurs Cisco MS Project HP OpenView SAN Check Point WiFi
Je trouve un CV Dataiku
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des missions de Charlotte,
freelance DATAIKU résidant dans le Val-d'Oise (95)

  • Data Scientist - risque de crédit Référente Dataiku

    BNP BCEF, Direction Risque et Finance
    Jan 2024 - aujourd'hui

    Contexte : Développement, automatisation et industrialisation de solutions internes de scoring, de data quality et de reporting réglementaire au sein de l’équipe Risque de Crédit BCEF.

    Tâches réalisées :

    o Développement d’un algorithme de scoring RWA interne en Python : conception du modèle, engineering des features, optimisation et intégration complète dans Dataiku pour exécution automatisée.

    o Déploiement du scoring RWA sur l𠆚utomation Node de Dataiku, avec gestion des dépendances et planification des runs.

    o Contribution aux travaux ESG : intégration d’indicateurs environnementaux, sociaux et de gouvernance dans les pipelines de risque, enrichissement des expositions via APIs et sources internes/externes.

    o Automatisation avancée des workflows (Python, SQL, Dataiku) : création de plugins Python, développement de custom triggers pour orchestrer les scénarios et déclencher automatiquement les reportings mensuels et trimestriels.

    o Mise en place de contrôles de data quality (cohérence, complétude, anomalies) et analyses approfondies des expositions (PD, LGD, EAD, RWA).

    o Préparation et industrialisation des reporting en vue de leur mise en production

    o Création de Dashboard des reportings réglementaires sous Tableau (Desktop & Server).

    o Suivi et monitoring des datalab Teradata des équipes.

    o Rédaction de documentation et formation des équipes métier aux outils Dataiku et Tableau.

    Résultats obtenus
    • Amélioration de la précision et de la cohérence des reportings RWA et ESG.
    • Réduction significative des efforts manuels grâce à l'automatisation (gains de temps mensuels et trimestriels).

    Technologies : Python, SQL, Git, Tableau Desktop, Serveur, Dataiku, Teradata, Jira, Concluence

    • Technologies : Python, SQL, Git, Tableau, Dataiku, Teradata, Jira, Concluence
  • ML Engineer - Prévision de stocks

    L’OREAL
    Jan 2023 - Jan 2024

    Contexte : Industrialisation d’un système de prévision des volumes de stocks sur un horizon de 18 mois, destiné à optimiser la planification, la production et la logistique globale.
    Tâches réalisées :

    o Mise en production d’un algorithme prévisionnel (modèles de séries temporelles, régression, optimisation) développé en Python et adapté aux contraintes opérationnelles du Supply Chain Planning.
    o Industrialisation et automatisation de la chaîne ML :
     Containerisation des modules ML avec Docker,
     Déploiement sur une architecture Kubernetes (GKE) pour une exécution scalable et robuste,
     Mise en place de pipelines orchestrés (batch + monitoring).
    o Gestion du cycle de vie des modèles : monitoring des performances, recalibrage périodique, gestion de la dérive (data drift / model drift).
     Collaboration étroite avec les équipes Data, Supply et IT pour intégrer le modèle dans les systèmes internes et les workflows métier.
     Création de dashboards Power BI mettant en valeur les prévisions, les écarts, les tendances et les indicateurs de performance logistique.
    o Documentation technique complète : architecture, data pipeline, procédures de déploiement, guide utilisateur.

    Résultats obtenus : Réduction des surstocks de ~15 % grâce à une meilleure anticipation des volumes et une stabilisation des prévisions

    Technologies : Python, Git, Power BI, GCP (GKE, BigQuery), Kubernetes, Docker, outils de monitoring ML.

    • Technologies : Python, Power BI, GCP, Kubernetes, Docker
  • ML Engineer - Maintenance Prévisionnelle

    THALES LAS
    Jan 2022 - Jan 2023

    Contexte : Conception et déploiement d’un pipeline analytique complet pour la maintenance prédictive
    Tâches réalisées :
    o Création d’un pipeline analytique de bout en bout
    o Sélection et préparation des features avec Python
    o Automatisation du pipeline de données (tests unitaires, intégration, contrôles, métriques)
    o Versioning des données et des modèles avec Git
    o Création de Dashboard de surveillance (Bokeh)
    o Mise en place de tests de contrôle et détection d𠆚nomalies
    o Calibration des algorithmes de maintenance prévisionnelle
    o Déploiement automatisé via Automation
    o Documentation
    Résultats obtenus : L𠆚utomatisation et l’optimisation des processus ont permis de réduire le temps de travail des équipes de 7 jours à seulement 2 jours

    Technologies : Dataiku, Python (POO), SQL, Git, Bokeh, Splunk, GitLab CICD, Linux, Docker

    • Technologies : Dataiku, Python (POO), SQL, Git, Bokeh, Splunk, GitLab CICD, Linux, Docker
  • ML Engineer - Industrialisation des Pipelines de Données

    Banque Postale, Direction Risque et Finance
    Jan 2022 - Jan 2022

    &bull Contexte : Industrialisation et Optimisation des workflows sur une plateforme Big Data
    &bull Tâches réalisées :
    o Collecte de données massives (Hive)
    o Monitoring, contrôle et alerting des pipelines de données (Pyspark)
    o Développement de tests d'intégration, de non-régression (Python, Hive)
    o Transformations des données dans Dataiku en utilisant DB2 comme source de données
    o Développement de règles de gestion (Python)
    o Création de pipelines de données dans Dataiku
    o Automatisation du packaging des pipelines (Dataiku bundles)
    o Monitoring, contrôle et alerting des pipelines
    o Industrialisation, Automatisation de pipelines de données (tests unitaires, d&rsquointégration via des scénarios, checks)
    o Recette et validation techniques des workflows Dataiku
    o Documentation
    o Formatrice des nouveaux arrivants, des équipes MOA et MOE
    o Support aux équipes fonctionnelles et techniques
    o Documentation
    &bull Résultats obtenus : Livraison en production de packages de reporting réglementaire

    &bull Technologies : Dataiku Design node, Automation node, Pyspark, Scala, Hive, Python, SQL, Jira, GitLab Pratique : MLOPS, CICD, Agilité
  • Data Scientist/ML Engineer - Industrialisation de projets Data

    MGEN DSI
    Jan 2021 - Jan 2021

    &bull Contexte : Industrialiser les workflows de projet Data, participer à la définition et au déploiement de l'architecture Dataiku, et assurer l'amélioration continue des modèles grâce à une revue de code, un monitoring et une gestion des instances

    &bull Tâches réalisées :
    o Identification des use case de Machine Learning pour le marketing
    o Industrialisation des workflows de projet Data
    o Contribution à la définition et mise en place de l&rsquoarchitecture de déploiement des projets Dataiku
    o Migration de projets d'une instance vers une autre
    o Revue de code pour évaluer la performance des modèles
    o Proposition de pistes d&rsquoamélioration pour optimiser les modèles
    o Administration de Dataiku (gestion des connexions, des utilisateurs)
    o Monitoring des instances Dataiku (via des APIs)
    o Documentation
    &bull Résultats obtenus : Livraison de Dashboard de suivi de KPI pour le métier, de documentations de bonnes pratiques d'utilisation de Dataiku

    &bull Technologies : Dataiku DSS (design,automation node, API deployer), BDD (Postgres, Netezza), Postman, Python, SQL, Git, Power BI
  • Data Scientist - IA pour la Prévision de Trajectoires de Vols

    DGA
    Jan 2020 - Jan 2021

    &bull Contexte : : Aider les contrôleurs de gestion à mieux anticiper la trajectoire des vols dans l'espace aérien français

    &bull Tâches réalisées :
    o Veille technologique pour suivi à l'amélioration continue des analyses
    o Datamining sur de gros volumes de données
    o Transformation et préparation des données à des fins de modélisation (parsing, extraction, normalisation et traduction en données statistiques)
    o Modélisation des données par Réseaux de Neurones Récurrents LSTM
    o Optimisation du modèle (Grid Search, auto‐tuning, Random Search)
    o Documentation
    &bull Résultats obtenus : Livraison d'un modèle de réseaux de neurones (package Python), prévisionnel de la trajectoire de vols

    &bull Technologies : Dataiku DSS, Python, Pspark, Hive, Git
  • Data Scientist - Refonte de modèles de prévision de ventes

    Carrefour Supply Chain
    Jan 2019 - Jan 2020

    &bull Contexte : Reconcevoir et améliorer les modèles de Machine Learning afin d'optimiser la prévision des stocks, en automatisant le traitement des données et en ajustant les algorithmes pour garantir une gestion plus efficace des quantités de produits disponibles
    &bull Tâches réalisées :
    o Utilisation des modèles de prévision : ARIMA, ESM, UCM, IDM, Décomposition de Loess, de Fourier pour des fins d&rsquoamélioration de la Forecast Accuracy (FA)
    o Backtesting des modèles développés pour évaluer leur efficacité
    o Reporting pour le client
    o Documentation

    &bull Résultats obtenus : Amélioration de la FA (Forecast Accuracy) du modèle de prévision de stocks

    &bull Technologies : SAS Viya, Visual Analytics, Forecast, SQL, Tableau
  • Data Analyst/Scientist Chargée de R&D

    CHU Limoges
    Jan 2016 - Jan 2019

    &bull Contexte : Développer un algorithme permettant de prédire la trajectoire d&rsquoautonomie des personnes âgées du Limousin

    &bull Tâches réalisées :
    o Participation à l&rsquoidentification du besoin métier et cadrage du projet de recherche
    o Recueil, nettoyage et préparation des données de santé pour des fins dʼanalyses statistiques
    o Conception d&rsquoun algorithme de Machine Learning prédisant la perte d&rsquoautonomie de la personne âgée
    o Réalisation d&rsquoune analyse de survie des personnes âgées
    o Valorisation scientifique des travaux par la publication dʼarticles, la présentation à des congrès internationaux
    o Documentation
    &bull Résultats obtenus : Livraison d'un mémoire de thèse doctorale, d'un algorithme de détection de facteurs prédictifs de la perte d'autonomie

    &bull Technologies : R, Python, SQL, Excel
Voir le profil complet de ce freelance