CV/Mission de Data scientist PySpark freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Gilles,
Data scientist PySpark habitant les Yvelines (78)

Expériences Professionnelles

Mars 2021 – Août 2021
Paris, France
Ingénieur Machine Learning
Generali Vie, DSI, Innovation and Cognitive Solutions
Surpaiement des prestations de dossiers maladies (Prévoyance Collective)
- Etude des déperditions en collaboration avec le cabinet McKinsey : analyse des causes racines et chiffrage
- Développement d’un outil de scoring (PySpark et Python) pour détecter automatiquement les déperditions
- Création de pipelines de traitement de données de plusieurs sources (base Oracle, Hadoop et Datamart) dans un
environnement Cloudera
- Analyse de la qualité des données (couverture et données manquantes) pour l’intégration de nouvelles sources de données dans un système d’aide à la décision (application métier)
Projet de détection de fraude interne et externe
- Framework de détection de fraude (interface visuel Linkurious) pour investigation sur la fraude
- Création de pipeline de données avec des jobs Dataiku (PySpark et Python) à partir de tables Hive
- Ingestion des données d’Hadoop vers un serveur Neo4j avec des scripts Unix (ordonnanceur Dollar Universe et stream Kafka)
Environnement : Python (Numpy, Scikit learn, Pandas), PySpark, Dataiku, Cloudera (Hadoop), Hue, Hive, Impala, Oracle, SQL,
Neo4j, Unix, Kafka, Git, Gitlab

Sept. 2020 – Fev. 2021
Bucarest, Roumanie
Machine Learning Data Associate
Amazon, Alexa Data Services
• Optimisation des modèles de reconnaissance de la parole et de part-of-speech tagging à partir de plusieurs algorithmes
: SGD, Adam, Adagrad, Adadelta et RMSProp
• Développement d’un pipeline de données ETL et de déploiement de scripts dans AWS grâce à Pyspark, Kafka, EC2,
Amazon S3, AWS Lambda et Jenkins
• Assistance dans la transcription et annotation des données audio d’utilisateurs francophones
Environnement : AWS, Pyspark, Kafka, EC2, Amazon S3, AWS Lambda, Jenkins

Mars 2020 – Juin 2020
Bucarest, Roumanie
Data scientist
Fordaq, département IT
• Business Transformation : Benchmark de solution technologiques (Business Intelligence/Analytics) pour monitorer et évaluer les ventes de souscription d’abonnement Fordaq
• Préparation de dataset à partir de base de données MSSQL (connexion de la base de données grâce à sqlite3 à un environnement de programmation Python)
• Analyse de sentiment des messages du chat Fordaq avec des modèles SVMs, Random Forests, et Naive Bayes
Environnement : Python (sqlite3, Numpy, Sci-kit, Pandas), Tableau, MSSQL

Sept. 2018 – Jan. 2019
Limoges, France
Data Analyst
Legrand, département production, Amélioration de process
• Construction d’un modèle statistique du fonctionnement d’un entrepôt de stockage pour augmenter la productivité et réduire les pertes de produits lié à l’obsolescence
• Rédaction d’un rapport d’analyse, et présentation des résultats (à l’aide du logiciel TABLEAU). Le rapport peut être très bien lu par des partenaires interne et externe et à pour but de donner des indications claires pour comment améliorer la gestion des produits
Environnement : Tableau, Access, Python

SNCF (Entité Réseau ferré) (06/2018 – 12/2019) - Responsable technique d’application
Etablissement et suivi de la gestion de montée de versions, de différents environnements (Integration, MCO, Formation , Préproduction, Production) au moyen de chronogramme
Coordination entre différentes équipes (production, métier) pour des interventions ponctuelles
Suivi des accès des habilitations des utilisateurs (interne et clientèle)
Environnement : CITRIX, LINUX, ORACLE, VTOM

CNP (07/2015 – 12/2017) - Intégrateur d’application
Création de scripts pour l’automatisation de l’intégration des dsx (pour la V8 en Unix et pour la V11en Linux)
Mise en place des composants dans les environnements d’intégration et recette
Demande de modification de base si nécessaire
Lancement des tests
Mise en place en production après validation des études.
Suivi de la mise en exploitation via CTRLM
Environnement : CTRLM (V8), SCRIPT (Unix Linux), Datastage serveur (V8), Datastage PX (V11), Oracle (9.5)

BPIFRANCE (depuis 01/2011)

En relation avec les études et la production, prise en compte des besoins de livraisons des applications commerciales (OAD, BCP CRM) et risques (BSR, DWO et BSRsa) pour l’espace d’intégration
Vérification de la conformité entre les documents d’exploitation, de livraison pour l’intégration et le besoin exprimé
Contrôle et installation des composants pour la recette
Déroulement de la stratégie de recette
Préparation des livrables pour la production
Création du document de livraison vers la production (ordre chronologique d’installation, détail de l’installation, cas particuliers…).
Création du plan de test technique
Suivi de la mise en exploitation

Environnement t : CTRL M, SCRIPT (cmd), WINDOWS Seven, WINDOWS XP, Chrome, Datastage serveur (8.7), Datastage PX, Oracle (9.5) DB2 (v10), WAS, JAVA, TOMCAT CNP (06/2009 – 12/2010)

Evolution et maintenance sur différents projets (CDS – ETC – EMB…) avec évolution de la documentation suivant la norme CMMI
Suivi d’exploitation des chaînes existantes de l’équipe DWH
Reprise et mise en place du projet OVI comprenant réception de fichier venant d'Espagne, mise au point avec les équipes, enrichissement des données et insertion en base pour les utilisateurs avec en complément le projet FER (Flux Externe de Régulation : fichier de code de point de vente)
Développement du projet CAE ( restitution du CApital Economique)
Initialisation et enrichissement d’un référentiel pour l’application CCA (Cube des Comptes Actuariat)
Suivi de la mise en intégration, recette
Création de dossier technique

Environnement : WINDOWS XP, Unix, Datastage PX (7.5.1.A), Datastage serveur (7.5.3),Oracle (9.5) via Toad
CACEIS (10/2008 – 03/2009)

Analyse technique du datamart TA (Transfert Agent)
Migration de l’application de Datastage V6 vers DatastageV8
Mise en place script shell pour le lancement des jobs (nuit, événementiels, technique)
Mise en place environnent Qual, Prod(Coté datastage, Unix)
Réalisation de schéma, dossier d’exploitation, dossier de monitoring
Suivi qualification et production

Environnement : WINDOWS XP, Unix, Datastage Server 6 et 8, Oracle via PL/SQL DARTY (05/2008 – 09/2008)

Analyse fonctionnelle des besoins des utilisateurs pour l’élaboration de rapports décisionnels sur la gestion de l’occupation de chaque personne s’occupant du B2B.
Modélisation des tables de réception ODS, dataware et datamart
Spécification technique détaillée
Développement (datastage) des interfaces entre SIEBEL (pourvoyeur de données), l’ODS, le dataware et le datamart, création de scripts Unix pour effectuer les liens.
Suivi de la mise en recette
Réalisation de schéma et dossier d’exploitation

Environnement : WINDOWS XP, Unix, Datastage Server 7.5, DB2 via TOAD, SIEBEL OSEO (10/2006 – 04/2008)

Après réunion et définition des besoins des utilisateurs, élaboration de spécification détaillée et mise en place de la génération des fichiers CRI (Compte Rendu d’Inventaire) pour les états réglementaires
Mise en place de chaîne d’alimentation d’un datamart pour la VGE (Vision Globale des Engagements), avec maintenance évolutive
Maintenance sur le datawarehouse de la base de suivi des risques
Réalisation de dossier de livraisons, d’exploitations
Maintien des différents extracteurs de données entre les bases ARCOLE (compta), CASSIOPE (Outil de gestion), SAP
Mise en œuvre de la restitution des informations de cotation des origines et de la restitution des flags des notations

Environnement : WINDOWS XP, WINDOWS NT, Datastage Server 7.1r2, DB2, Oracle 8
ROC (06/2006 – 07/2006)

Création d’une application gestion clientèle en Filemaker avec reprise des fonctionnalités et données existantes

Environnement : WINDOWS XP, Filemaker
CETELEM (03/2006 – 05/2006)

Etablissement d’un comparatif mensuel de comptes entre différentes comptabilités par la génération d’un fichier (CRE) via Datastage, et par la recherche des compteurs analogues avec affichage du résultat dans une application existante de style web
Mise en place d’un datamart avec des informations actualisées mensuellement par des prises de données (grâce à des scripts (ksh)) de la base principale et de l’intégration de fichier via Datastage, pour permettre l’édition des mandats de comptabilité

Environnement : Unix, Oracle, Datastage (PX), Plsql, Win’Design, WINDOWS XP IXIS (07/2001 – 12/2005)

Mise en place de l’application du batch BRG (base risque groupe) permettant la concordance des notations entre les différentes caisses régionales de la caisse d’épargne (comprenant intégration de fichiers extérieurs grâce à Datastage dans la base Sybase, rédaction documentation de la chaîne de nuit, création des shells de traitement)
Mise en place des transferts des flux dans un autre environnement (Référentiel Risque) et mise en œuvre de lien avec l’application SFERIC
Maintenance évolutive de l’application SFERIC (système de fédération des risques de contreparties)
Mise en œuvre ou explications, sur différentes demandes, des utilisateurs
Responsable de l’exploitation de la chaîne de nuit de SFERIC.
Pivot entre Chef de projet, Utilisateurs et Exploitation
Démarrage de la mise en place des paramètres dans le nouvel I.H.M.

Environnement : Unix(AIX5.2), Sybase, Datastage, HTML, VisualNet, NSDK, C, WINDOWS MATSYSTEM (05/2001 – 05/2001)

Recette de l’application de type web : Product-village (marketing)
Correction, livraison et contrôle du code HTML et Java-script sous Linux (RED HAT)

Environnement : Windows millenium, IE 5, HTML, Javascript, Linux CREDIT LYONNAIS (05/2000 – 04/2001)

Gestion des environnements d'intégration sur serveur HP en Unix
Administ...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data scientist PySpark, Missions Data scientist PySpark, Data scientist PySpark freelance

Les nouvelles missions de Data scientist PySpark

Data Architect Azure

AZURE Microsoft Power BI
02/05/2024
69 - Lyon
6 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

DATA ENGENEER

BIG DATA PYTHON APACHE HADOOP CI/CD
ASAP
75 - Paris
3 mois
Voir la mission

Data Engineer

SQL PYTHON JENKINS GITLAB Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer

PYSPARK PYTHON
ASAP
44 - Nantes
3 mois
Voir la mission

Data Engineer (H/F) - Bordeaux

PYTHON Microsoft Power BI PYSPARK
ASAP
33 - BORDEAUX
24 mois
Voir la mission

Data Scientist

PYTHON PYSPARK
ASAP
79 - Niort
3 mois
Voir la mission

DATA Scientist

DATA
ASAP
79 - Niort
3 mois
Voir la mission

Data Scientist

DATA PYTHON PYSPARK
ASAP
79 - Niort
3 mois
Voir la mission

Data Engineer PySpark

PYSPARK
ASAP
Nanterre
3 mois
Voir la mission
Je trouve ma mission

Les profils de Data scientist PySpark ont postulé à :

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Tech Lead (AWS)

SQL PYTHON Cloud AWS PYSPARK
ASAP
75 - PARIS
12 mois
Voir la mission

CP Data

DATA
ASAP
92 - LEVALLOIS-PERRET
12 mois
Voir la mission

ANALYTICS ENGINEER

SQL PYTHON
ASAP
92 - BOULOGNE-BILLANCOURT
130 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur PYTHON AWS

POSTGRES PYTHON Cloud AWS
ASAP
92 - COURBEVOIE
3 mois
Voir la mission

FORMATION DATA

DATA
ASAP
13 - BOUC-BEL-AIR
15 jours ouvrés
Voir la mission

Data analyst

SQL PYTHON R
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur Python et JavaScript avec connaissances en Machine Learning pour écrire logiciel

JAVASCRIPT DATA PYTHON
ASAP
75 - PARIS
6 mois
Voir la mission

Ingénieur Data

JAVA SQL DATA SPRING AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
11 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data scientist PySpark disponibles

CV Développeur Fullstack Java/ Spring boot / React
Guy

Développeur Fullstack Java/ Spring boot / React

  • VILLENEUVE-LE-ROI
JAVA PYTHON TypeScript SQL Spring Boot PYSPARK REACT.JS Kubernetes DOCKER AZURE
CV Data Scientist python
Abdelkrim

Data Scientist python

  • CHANTELOUP-LES-VIGNES
PYTHON Jupyter OPENCV GITLAB MONGODB VISUAL STUDIO DOCKER APACHE SPARK SQL AZURE
CV Data Scientist APACHE SPARK
Ahmed

Data Scientist APACHE SPARK

  • LE PECQ
APACHE SPARK PYSPARK JAVA SCALA AZURE JENKINS APACHE KAFKA Cloud AWS DOCKER Kubernetes
CV Data engineer
Elyes

Data engineer

  • VILLEURBANNE
PYSPARK AZURE PYTHON BIG DATA DATA SQL
CV Data Analyst SQL
Lamine

Data Analyst SQL

  • POISSY
SQL DATA PYTHON AZURE EXCEL GIT GITLAB TERADATA PYSPARK AMAZON AWS
CV Data Scientist
Thomas

Data Scientist

  • CALUIRE-ET-CUIRE
PYTHON R SQL JAVASCRIPT Google Cloud Platform PYSPARK Cloud AWS HASHICORP TERRAFORM GITLAB
CV TECH LEAD BIG DATA & MLops
Amine

TECH LEAD BIG DATA & MLops

  • CHOISY-LE-ROI
APACHE SPARK PYTHON Data science Kubernetes AZURE
Bientôt disponible
CV tech lead data science
Khalil

tech lead data science

  • Montrouge
Data science BIG DATA PYTHON MICROSOFT BI APACHE HADOOP APACHE SPARK DOCKER APACHE HIVE SCRUM AZURE
Bientôt disponible
CV Product Owner Data AGILE
Hermann

Product Owner Data AGILE

  • Houilles
AGILE PYTHON JIRA SQL GIT TABLEAU SOFTWARE NoSQL Data lake PYSPARK PROJECT MANAGEMENT OFFICE
Bientôt disponible
CV Data Engineer / Cloud Engineer (Pyspark/Azure)
Ken

Data Engineer / Cloud Engineer (Pyspark/Azure)

  • SACY-LE-PETIT
PYSPARK APACHE SPARK SCALA PYTHON AZURE
Bientôt disponible
Je trouve mon freelance