Data scientist Paris : Trouvez vite les meilleurs freelances disponibles

Je dépose une mission gratuitement
Je dépose mon CV

Trouvez votre freelance à Paris

Les derniers profils de Data scientist Paris

CV Data engineer / Devops
Ghislain Brice

Data engineer / Devops

  • PARIS
PYTHON BIG DATA DATA REDHAT OPENSHIFT Kubernetes HASHICORP TERRAFORM GITLAB JAVASCRIPT TypeScript AMAZON AWS
Disponible
CV Data Scientist
Yanis

Data Scientist

  • PARIS
PYTHON SQL SCRUM DATA Microsoft Power BI AGILE DOCKER NODE.JS C# JIRA
Disponible
CV Ingénieur R&D PYTHON
Solène

Ingénieur R&D PYTHON

  • PARIS
VISUAL STUDIO PYTHON R Life Science & Healthcare SQL C C# C++ JAVA DOCKER
Disponible
CV Développeur Web / Data miner / Consultant IOT / Développeur Software
Charles-Ivan

Développeur Web / Data miner / Consultant IOT / Développeur Software

  • PARIS
C++ PHP C# JAVASCRIPT MYSQL SQL PYTHON C CSS Angular
Disponible
CV Consultant Data
Ababacar

Consultant Data

  • PARIS
SQL APACHE SPARK PYTHON APACHE HADOOP BIG DATA DATA Microsoft Power BI AZURE SCALA
Disponible
CV Consultant chef de projet data
Ibrahima

Consultant chef de projet data

  • PARIS
AGILE SQL TALEND TABLEAU SOFTWARE SQL SERVER ORACLE ITIL JIRA PYTHON SAP
Disponible
CV Data Scientist PYTHON
Pierre

Data Scientist PYTHON

  • PARIS
PYTHON Google Cloud Platform BIGQUERY PANDAS LINUX SQL DOCKER Kubernetes GIT Clojure
Disponible
CV Data engineer
Alain

Data engineer

  • PARIS
SQL PYTHON Google Cloud Platform APACHE SPARK TALEND SSIS APACHE HADOOP HASHICORP TERRAFORM ANSIBLE BIG DATA
Disponible
CV Full Stack Data Scientist
Badr

Full Stack Data Scientist

  • PARIS
PYTHON SQL HPE Vertica DATA Data science POSTGRESQL LINUX SQL SERVER TERADATA
CV Data engineer IA
Nathan

Data engineer IA

  • PARIS
APACHE HADOOP PYTHON SQL APACHE SPARK BIG DATA DATA Data science AMAZON AWS AMAZON EC2 REACT.JS
Disponible
Je trouve mon freelance

Les nouvelles missions de Data scientist Paris

Architecte Data IA Cloud - Senior

AZURE Cloud AWS
06/05/2024
75 - PARIS
12 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Data analyst

SQL PYTHON R
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer , Paris - Oracle BI / Publisher

SQL ORACLE BI ORACLE BI PUBLISHER ORACLE PL SQL CONTROL M
ASAP
paris
3 mois
Voir la mission

Data Scientist

SQL PYTHON
ASAP
PARIS
6 mois
Voir la mission

Data Engineer Scala / AWS

SCALA APACHE SPARK Cloud AWS PYTHON
ASAP
Paris
6 mois
Voir la mission

DATA ENGINEER

PYTHON IOT Cloud AWS Jupyter
ASAP
paris
3 mois
Voir la mission

Data engineer AWS

SQL DATA DEVOPS Cloud AWS
ASAP
PARIS
6 mois
Voir la mission

Data Analyst sur GCP obligatoire

PYTHON TIBCO SPOTFIRE Google Cloud Platform
ASAP
PARIS
12 mois
Voir la mission

Data Engineer sur GCP obligatoire

PYTHON APACHE HIVE SCALA APACHE SPARK Google Cloud Platform
ASAP
PARIS
12 mois
Voir la mission
Je trouve ma mission
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Trouvez un Data scientist Paris en freelance

Notre base de 143987 CV vous permet de trouver rapidement un Data scientist Paris freelance. Recevez gratuitement et sous 24h maximum les CV des meileurs intervenants disponibles.

Exemple de missions de Sylvain,
Data Scientist freelance

  • YZR Data Scientist
    Jan 2021 - Jan 2021

    Projet : Standardisation API
    Yzr est une start-up spécialisée dans la normalisation et la standardisation de données. Elle
    propose une plateforme d’automation de l’interopérabilité des données provenant de sources
    hétérogènes.
    Client : Yzr
    Contexte / Objectif : En forte croissance Yzr a besoin d’un soutien technique pour pouvoir
    faire face à la demande. J’ai rejoins Yzr dans le but d’être l’interface entre l’équipe tech et les
    clients permettant ainsi à celle-ci de se concentrer sur le produit. Mon objectif est de faire
    monter en compétence l’équipe technique, gérer un portefeuille de client et d’intégrer de
    nouvelles features à la Roadmap produit.
    Environnement travail / fonctionnel : Equipe de 10 personnes.
    Contraintes : Le Coronavirus qui a mis un stop aux essais cliniques du produit.
    Principales réalisations :
    • PRISE EN MAIN DE PLUSIEURS CLIENTS : CLEAR CHANNEL, L’OREAL, AXA MAROC ET MECHANICUS
    • EXECUTION D’ALGORITHMES TELS QUE LE VARIANT GROUPS ET CAMEMBERT POUR CES CLIENTS.
    • INTEGRATION DE DONNEES DANS ELASTIC SEARCH
    • CONSEILLE L’EQUIPE TECH SUR LES TECHNOLOGIES A UTILISER (PAR EXEMPLE KUBERNETES AVEC
    GPU SUR LE CLOUD AWS, TKINTER, …)

    Environnement technique : python , kubernetes, Camembert, Bert, Variant groups, git, Docker, AWS, project management, Elastic Search
  • Biogen – Data Analyst, Paris

    Konectom
    Jan 2020 - Jan 2020

    Konectom est une application mobile de Biogen. Elle consiste en un medical device permettant de suivre
    l’évolution de maladies cérébrales : SMA, MS, … L’application évite aux patients de faire certains tests chez
    le médecin dans le cadre de leur suivi.
    Client : Equipe scientifique
    Contexte / Objectif : Le projet s’inscrit dans l’intégration d’un produit d’une start-up (Ad Scientiam) dans
    les produits de Biogen permettant de combiner l’innovation avec la force de frappe de Biogen au niveau des
    Clinical trials. L’équipe Data est chargée d’analyser les données d’utilisation de l’application. L’objectif est
    la mise de place de features optimaux permettant le suivi de la progression de la maladie chez le patient.
    Premier Data Scientist / Data Analyst recruté au sein de l’équipe Data.
    Environnement travail / fonctionnel : Equipe de 10 personnes en Agile Scrum.
    Contraintes : Le Coronavirus qui a mis un stop aux essais cliniques du produit. Aucune infrastructure
    d’analyse de données au début de la mission.
    Principales réalisations :
     Suivi d’une entreprise tierce pour la mise en place du back-end de la plateforme de Data Science :
    - Analyse des besoins utilisateurs (Data Scientists)
    - Revue de l’architecture back-end proposée sur le cloud AWS (Amazon Web Services) avec
    l’entreprise tierce - Cycle de vie des données : base de données firebase, document Db,
    lambda functions, notebooks, intégration Git, outils d’analytics
    - Définition des formats de données utilisées sur la plateforme de Data Science et
    récupérées sur les devices
    - Définition des variables utilisées à partir des réunions scientifiques
     Mise en place d’une première librairie data science avec les fonctionnalités CI/CD sur le GitLab de
    l’équipe Data Engineering :
    - Création d’un algorithme état de l’art de step detection sur des séries temporelles de
    données d’accélération et de rotation à partir d’un papier de recherche pour le U-turn
    test et mise en place d’une démo (visualisation des résultats de l’algorithme en temps réel)
    permettant de démontrer l’algorithme à l’équipe
    - Lancement d’une étude de reliability avec R afin de visualiser la qualité des features et de
    leur stabilité temporelle.

    Environnement technique : AWS, Python, Docker, R, mongo Db, Signal processing
  • Data engineer, Lausanne

    AXA Group Operations
    Jan 2019 - Jan 2020

    Projet : Healthcare bot
    Au sein d’AXA REV (Research Engineering Vision) qui est le pôle
    innovation de l’IT au niveau groupe d’AXA. Les équipes d’AXA REV
    travaillent sur des projets à haut potentiel et placés très haut sur la value
    chain. Elle collabore avec les meilleurs chercheurs du monde (Stanford,
    Ecole Polytechnique Fédérale de Lausanne, …)
    Client : N+2 de l’équipe AXA REV
    Contexte / Objectif : Le projet consiste en la mise en place d’un Chatbot
    médical. L’utilisateur peut recevoir des diagnostics et suggestions de
    médecins en échangeant avec le Chatbot.
    Environnement travail / fonctionnel : Equipe de 10 personnes
    réparties à Lausanne, Paris et Barcelone et un Chef de Projet Agile.
    Contraintes :
     Contrainte de temps : Déploiement du bot en production mijanvier.
     Contraintes légales, de sécurité, de robustesse, d’image de
    marque, ...
    Principales réalisations :
     Aide à la définition et mise en place de l’architecture backend (fonctions Azure, serveur FHIR, transformation de données
    grâce à Typescript, Spark…) du chatbot enregistrant les
    interactions utilisateurs dans une base de données graph sur
    Azure Cosmos DB regroupant les données anonymisées
    d’utilisation du bot.
     Utilisation de Docker pour tester les fonctions en local.
     Travaux effectués sur la robustesse du code avant la mise en
    production et l’intégration de test pour l’intégration continue.
     Code review avec le project manager en s’assurant des best
    practices Python.

    Environnement technique : Cloud Azure, fonctions Azure, Trigger, procédures Azure, Databricks sur Azure, l’API REST de Spark, Neo4j, Standard FHIR, Typescript, Javascript, VS code, GitHub, Python Cosmos DB
  • Computer Vision Data Scientist

    Servier
    Jan 2019 - Jan 2019

    Projet : Détection de cancer sur les images histopathologiques
    L’équipe Data Science fait partie du PEX MVD (Pôle d’Expertise
    ‘Modélisation et Valorisation des Données’) intégré à IRIS (Institut de
    Recherches Internationales Servier). Elle travaille sur des
    problématiques de Computer Vision, NLP, Séries temporelles,
    anonymisations appliquées au domaine médical.
    Client : Project Manager Data Science
    Contexte / Objectif : Détection de cancer avec des algorithmes de
    Deep Learning pour identifier les différents types de cancer. Projet de
    classification de séries temporelles.
    Environnement travail / fonctionnel : Equipe de 6 personnes dont 2
    Chefs de Projet.
    Contraintes : Contrainte de temps pour une mise en place des
    algorithmes avant fin septembre. Limitation au niveau des librairies
    Deep Learning : utilisation des librairies et versions qui sont installées
    sur le HPC (>10 GPU, plusieurs Po de stockage). Nombre assez faible
    d’images par cancer.
    Principales réalisations :
     Etat de l’art d’algorithmes de traitement d’images 3D dans le
    but de les appliquer sur des scans IRM du genou pour détecter
    la progression de l’arthrose (3D CNN, …)
     Mise en place d’un algorithme de Computer Vision (ResNet)
    avec du Transfer Learning pour la détermination du type de
    cancer (Prostate, Colon, sein, poumon). Détermination des
    étapes de nettoyage et mise en forme des images
     Extraction de features de séries temporelles de
    recrutement clinique pour faire de la classification (Kmeans) au niveau du site-étude afin d’avoir un prior pour
    entrainer un modèle bayésien

    Environnement technique : HPC, Tensorflow, Selenium, Python
  • Manager France Bixby

    Samsung – Machine Learning Scientist & Engineer
    Jan 2018 - Jan 2019

    Projet : ASR (Automatic Speech Recognition)
    L’équipe ASR s’occupe de la transcription de la voix en texte. Les
    performances de l’équipe ASR a une influence directe sur la
    reconnaissance vocale de Bixby (Assistant virtuel) qui est installé sur le
    téléphone des particuliers. L’équipe est divisée en plusieurs entités :
    Language Modeling,
    IContexte / Objectif : L’objectif est d’améliorer la reconnaissance
    vocale de Bixby sur les devices Samsung des utilisateurs.
    Environnement travail / fonctionnel : Equipe de 10 personnes en
    Agile Scrum dont un Team Leader.
    Contraintes :
     Encadrement du projet par Samsung Pologne qui a mis en place
    l’architecture permettant de sous-traiter les langues Européennes
     Contraintes de temps avec la sortie du produit en novembre 2018
     Contrainte de performances pour l’acquisition de nouveaux clients
     Contraintes légales pour le crawling de sites web.
    Principales réalisations :
     Crawling de sites web pour entrainer le modèle de langage.
    Utilisation de Rotating Proxies, BeautifulSoup, Headless Chrome,
    Selenium (utilisé par exemple pour des pages à défilement infini
    sur le forum Quora), VPN, Apache Nutch (par exemple pour
    crawler le monde), Wikipédia, Français facile, Opus.... Tests de
    différents agencements de textes de language naturels pour
    améliorer la perplexité
     Mise en place de slot dictionaries
     Automatisation de tâches de correction de corpus
     Phonétisation automatique via LSTM
    Environnement technique : Regular expression, Nutch, Python, CMU
    SphinxTN, Wake up, G2P

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

Data analyst Paris, Data engineer Paris