CV/Mission de Data scientist PySpark freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Ken,
Data scientist PySpark habitant l'Oise (60)

EXPERIENCES SIGNIFICATIVES

AXA – Nanterre
07/2022 à 01/2024 – 1 ans et 6 mois
Data Engineer
Projet 1: Fiabilisation des DSN
Contexte et objectif : Dans le cadre du traitement des fichiers DSN envoyés par les clients
d’AXA, une fiabilisation de ces données est nécessaire afin de pouvoir répondre
efficacement aux clients d’AXA et éviter les erreurs de paiement dans les arrêts de travail
et les taux de remboursement.
Environnement travail/fonctionnel : Équipe de 6 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins potentiels et des données
▪ Mise en place des pipelines d’ingestion
▪ Déploiement (CI/CD)
▪ Industrialisation des travaux des Data Scientist
▪ Implémentation de briques en vue de la création d’une librairie
Environnement technique :
Python, PySpark, Azure DataBricks, Azure Data Factory, Azure DevOps(Board, Repos,
Pipeline, Artifacts), Git, Pycharm

▪ Euroclear : Data Engineer – 7 mois
▪ Boursorama : Data Engineer – 9 mois
▪ Roquette : Data Engineer – 3 mois
▪ Louis Vuitton : Data Engineer – 2 ans et 2 mois
▪ Keyrus : Data Engineer – 9 mois
▪ SNCF : Ingénieur BI et Développement JAVA en Alternance – 3 ans

REFERENCES PROFESSIONNELLES
EUROCLEAR – Bruxelles
12/2021 à 06/2022 – 7 mois
Data Engineer
Projet 1: Enrichissement du Datalake
Contexte et objectif : Dans un environnement anglophone, mise en place de pipeline
d’ingestion de données issue de bases de données IBM Mainframe pour l’enrichissement
du datalake Hadoop et la mise à disposition pour les data scientist et les équipes du service
Finance.
Environnement travail/fonctionnel : Équipe de 10 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins potentiels et des données
▪ Mise en place des pipelines d’ingestion
▪ Documentations techniques
▪ Design de chaînes d’ingestion
▪ Proposition d’amélioration de conservation et partage de connaissance
▪ Déploiement (CI/CD)
Environnement technique :
Scala, Spark, Hadoop, Cloudera, Azure DevOps(Board, Repos, Pipeline, Artifacts), Git,
Splunk, IBM Mainframe, Kafka, Jira, IntelliJ, Eclipse, Maven, Bash
Projet 2: Maintenance des pipelines des projets en production
Contexte et objectif : Maintenir les pipelines en production dans le respect des SLA associées
à chacun des différents projets dans le cadre de la Hotline du service Analytics
Environnement travail/fonctionnel : Équipe de 10 personnes en SCRUM
Domaine d’intervention :
▪ Troubleshooting
▪ Gestion des tickets
▪ Analyse de code et optimisation
▪ Transfert de connaissance.
▪ Déploiement (CI/CD)
Dossier de compétences KBA / Data Engineer
5 ans d’expérience
Environnement technique :
Scala, Spark, Hadoop, Cloudera, Azure DevOps(Board, Repos, Pipeline, Artifacts), Git,
Splunk, IBM Mainframe, Kafka, Jira, IntelliJ, Eclipse, Maven, Bash
BOURSORAMA – Boulogne-Billancourt
03/2021 à 11/2021 – 9 mois
Data Engineer
Projet 1: Enrichissement du Datalake
Contexte et objectif : Avancée de la construction du socle Hadoop et de sa résilience.
Structuration de la données par la création de Masters à partir de données brutes ayant
été nettoyée et préparée pour un usage généralisé. Afin d’accélérer le développement de
nouvelles pipelines de données.
Environnement travail/fonctionnel : Équipe de 8 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins potentiels et des données
▪ Mise en place des pipelines d’ingestion
▪ Revue et optimisation des codes pour le passage en industrialisation
▪ Déploiement (CI/CD)
▪ Amélioration des règles de codages et de la structure des projets
▪ Enrichissement continue du code et mutualisation
Environnement technique :
Scala, Spark, Hadoop, Cloudera, NiFi, Jenkins, Nexus, Stash, Docker, Kafka, Zeppelin, Jira,
IntelliJ, SBT
Projet 2 : Segmentation Client
Contexte et objectif : En interaction avec la Direction Client, création de l’indicateur de
Relation Bancaire et d’indicateurs associés pour segmenter les clients entre différents pôles
et répartir la charge entre les équipes internes pour augmenter l’efficacité opérationnelle.
Amélioration du ciblage pour les campagnes marketing et meilleur accompagnement des
clients par la proposition de meilleurs services.
Environnement travail/fonctionnel : Équipe de 8 personnes en SCRUM
Domaine d’intervention :
▪ Analyse des besoins clients
▪ Analyse des données.
▪ Implémentation, proposition et amélioration des règles de gestion
▪ Mise en place de pipeline de traitement de données
▪ Déploiement (CI/CD)
Environnement technique :
Scala, Spark, Hadoop, Cloudera, NiFi, Jenkins, Nexus, Docker, Stash, Kafka, Zeppelin, Jira,
IntelliJ, SBT
Dossier de compétences KBA / Data Engineer
5 ans d’expérience
Projet 3 : Industrialisation des process d’ingestion NiFi
Contexte et objectif : Dans le cadre du processus d’automatisation des pratiques de
développement, mise en place d’un script de déploiement automatisé en production des
ProcessGroup NiFi pour réduire les temps d’intégration et de développement des nouvelles
sources de données d’alimentation du Cluster Hadoop sur plusieurs environnements de
production
Environnement travail/fonctionnel : Équipe de 8 personnes en SCRUM
Domaine d’intervention :
▪ Définition des règles cibles d’industrialisation
▪ Benchmark et étude d’outils
▪ Implémentation de scénarii pour validation
▪ Mise en place du déploiement automatisé sur plusieurs environnement de
production
Environnement technique :
Python, NiPyApi, NiFi Client, NiFi, Nifi Registry
ROQUETTE – Lille (La Madeleine)
10/2020 à 12/2020 – 3 mois
Data Engineer
Projet 1: Dynamic Pricing
Contexte et objectif : industrialisation de modèles de pricing dynamique
Les sujets ont porté sur : La revue des codes fournis par les Data Scientists en vue de leur
industrialisation, l’industrialisation de ces scripts dans le Datalake. La mise en place de
pipeline d’ingestion de fichiers en architecture serverless.
Environnement travail/fonctionnel : Équipe de 5 personnes en SCRUM
Domaine d’intervention :
▪ Définition des Best Practices en vue de l’industrialisation
▪ Mise en place des pipelines d’ingestion
▪ Revue et optimisation des codes pour le passage en industrialisation
▪ Industrialisation de modèles
▪ Tests unitaires
▪ Déploiement
▪ Implémentation d’Azure Function.
Environnement technique :
Python, Visual Studio Code, Git, Azure(Azure Blob Storage, Data Lake Storage, Azure
Function, Azure DevOps, Azure Data Factory)
Projet 2: E-Tabletting
Contexte et objectif : E-Tabletting doit permettre la recommandation et la personnalisation
des formulations des composées par les clients externes via des modèles d’Intelligence
Artificielle. Pour cela, il est nécessaire d’implémenter différents types de bases : clients,
process, produits, essais, etc.
Environnement travail/fonctionnel : Équipe de 6 personnes en SCRUM
Dossier de compétences KBA / Data Engineer
5 ans d’expérience
Domaine d’intervention :
▪ Analyse du besoin avec le Product Owner
▪ Définition des features avec le métier
▪ Mise en place des pipelines d’ingestion
▪ Extraction, Transformation et Traitement des données (fichiers sources aux formats
divers(xlsx, docx, txt) issus de rapports d’essais cliniques, logs de presses à
comprimé)
▪ Optimisation (temps d‘exécution, format des fichiers sources)
▪ Refactorisation du code
▪ Mise en production
Résultats : Génération d’un jeu de données corrigée et utilisable pour la phase de
modélisation.
Environnement technique :
Python, Visual Studio Code
LOUIS VUITON – Châtelet (Paris I)
05/2018 à 07/2020 – 2 ans et 2 mois
Data Engineer
Projet : Data Lab Louis Vuitton
Contexte et objectif : Dans le cadre du développement de la plateforme ONEDATA (centre
névralgique de la donnée au sein de Louis Vuitton), les sujets ont portés sur : le déploiement
et monitoring de jobs, la mise en place de pipelines de traitement et de stockage des
données produits issues du catalogue Louis Vuitton et du site internet ainsi que des processus
d’alimentation d’un moteur de recherche interne à Louis Vuitton et d’applications annexe
de recherche produit destiné aux vendeurs en boutique.
Environnement travail/fonctionnel : Équipe de 7 personnes en SCRUM
Domaine d’intervention :
▪ Analyse du besoin avec les équipes métiers
▪ Mise en place et industrialisation des pipelines d’ingestion, de transformation et de
traitement des données :
o Ingestion de données : produits, application lvlive (réseau social),
application learning (réseau de partage de connaissance)
o Transfert et traitement vers l’API REST du moteur de recherche Meilisearch
o Traitement et alimentation de l’application de référencement du
catalogue Louis Vuitton
o Envoi des données pour l’alimentation du modèle de personnalisation du
site WEB Louis Vuitton (QUBIT)
▪ Monitoring et Gestion des Jobs Spark (Airflow, Prometheus, Graphana, Python,
Scala, Spark)
▪ Création et déploiement automatisé de Job de récupération et de traitement de
données (produits, marketing) sur Cluster Cloudera.
▪ Monitoring et Gestion des Jobs Spark (Airflow, Prometheus, Graphana, Python,
Scala, Spark)
▪ Script de traitement de données de chatbot Louis Vuitton, Traitement de donnée
d'API de Social Listenning (Netbase) à des fins d'analyse de sentiments (Python,
Jupyter Notebook)
▪ Gestion de base de données dans le cloud (Heroku)
▪ Indexation de données (Elasticsearch)
Doss...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data scientist PySpark, Missions Data scientist PySpark, Data scientist PySpark freelance

Les nouvelles missions de Data scientist PySpark

Data engineer

SQL Python Power BI Dataiku Azure Data Factory
ASAP
63 - Clermont-Ferrand
3 mois
Voir la mission

Développeur Fullstack PYTHON / ANGULAR

Python Angular React.js Vue.js
ASAP
75 - Paris
12 mois
Voir la mission

Data Scientist BDD Graph

Python PostgreSQL Cassandra Cloudera Elasticsearch
ASAP
75 - Paris
3 mois
Voir la mission

Senior Data Engineer

Git Cloud AWS
ASAP
Télétravail
12 mois
Voir la mission

Data engineer senior

SonarQube Scala Microsoft Power BI Cloud AWS PySpark
ASAP
93 - NOISY-LE-GRAND
24 mois
Voir la mission

Data Architect Azure

Azure Microsoft Power BI
ASAP
69 - Lyon
6 mois
Voir la mission

DATA ENGENEER

Big Data Python Apache Hadoop CI/CD
ASAP
75 - Paris
3 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL Python PySpark
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Data Engineer

SQL Python Jenkins GitLab Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer

PySpark Python
ASAP
44 - Nantes
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data scientist PySpark disponibles

CV Data Scientist PYSPARK
Ange

Data Scientist PYSPARK

  • FONTENAY-AUX-ROSES
PySpark Python Azure SQL
CV Data Scientist PYSPARK
Sarra

Data Scientist PYSPARK

  • Béja
PySpark ECLIPSE PAPYRUS Microsoft BI SAS Big Data PL SQL Apache Hadoop Apache Kafka
CV Expert Data
Omar

Expert Data

  • PARIS
Python SQL Apache Spark Cloud AWS Azure
CV Consultant technique plateforme Big Data
Falaye

Consultant technique plateforme Big Data

  • HERBLAY
Cloudera Apache Hadoop Apache Spark Apache Hive ATLAS KERBEROS Ansible Git APACHE HBASE COUCHBASE
CV Data Engineer PySpark
Koffi Wilfried

Data Engineer PySpark

  • SAVIGNY-SUR-ORGE
Apache Spark PySpark SQL Python Data Big Data Power BI Microsoft Power BI Snowflake SAS
CV Data Analyst Full-Stack
Louis

Data Analyst Full-Stack

  • PARIS
Data SQL Python Tableau Software Data Science Data Warehouse LLM Apache Spark Google Cloud Platform Cloud AWS
Bientôt disponible
CV Développeur fullstack IA
Manh Cuong

Développeur fullstack IA

  • LE PERREUX-SUR-MARNE
Cloud AWS Python GitLab PostgreSQL Docker LLM Kubernetes
Bientôt disponible
CV Data Engineer
Mohammad

Data Engineer

  • LILLE
Python SQL Google Cloud Platform Apache Spark Data Science Cloud AWS Azure Scala
Bientôt disponible
CV Data Analyst / Scientist
Kheireddine

Data Analyst / Scientist

  • IVRY-SUR-SEINE
Python SQL Microsoft Power BI MYREPORT Tableau NoSQL Azure Data Factory Databricks
Bientôt disponible
CV Data Engineer (Python & Power BI)
Louis

Data Engineer (Python & Power BI)

  • NANTES
Python Microsoft Power BI SQL Azure Agile PySpark
Bientôt disponible
CV Data Scientist RStudio
Nadjib

Data Scientist RStudio

  • LE PERREUX-SUR-MARNE
RStudio Python C++ PySpark Linux
Bientôt disponible
CV Senior Data Scientist, PhD
Yanis

Senior Data Scientist, PhD

  • SAULX-LES-CHARTREUX
Python Data Pandas SQL Cloud AWS Git PySpark
Bientôt disponible
Je trouve mon freelance