Data scientist Lyon : Trouvez vite les meilleurs freelances disponibles

Je dépose une mission gratuitement
Je dépose mon CV

Trouvez votre freelance à Lyon

Les derniers profils de Data scientist Lyon

CV Data Analyst, Data Engeener
Marco

Data Analyst, Data Engeener

  • VILLEURBANNE
SQL Qlik Sense Power BI Talend Git Tableau Software Agile Snowflake Python
Disponible
CV Data Scientist
Kamal

Data Scientist

  • LYON
Microsoft Power BI Python SQL Data Science Google Cloud Platform PySpark
Bientôt disponible
CV Data Engineer | AWS, Python, Kafka | Pipelines temps réel & ML
Théo

Data Engineer | AWS, Python, Kafka | Pipelines temps réel & ML

  • LYON
Python SQL Kafka Cloud AWS Next.js NoSQL Docker
Disponible
CV Ingénieur R&D R
Quentin

Ingénieur R&D R

  • LYON
Big Data R Python Data Science Life Science & Healthcare Dataviz Reinforcement Learning Unsupervised Learning Supervised Learning SQL
CV INGENIEURE DATA
Sarah

INGENIEURE DATA

  • VAULX-EN-VELIN
Data BI SQL Teradata Excel VBA Cognos Microsoft Power BI DataStage Talend Big Data
CV Data Scientist / Analyst
Florian

Data Scientist / Analyst

  • LYON
Python R Data Excel SQL Snowflake SQL Server
CV Ingénieur IA PYTHON
Mateo

Ingénieur IA PYTHON

  • OULLINS
Python Deep Learning OpenCV Automation Anywhere
CV Data Analyst MICROSOFT BI
********

Data Analyst MICROSOFT BI

  • LYON
Microsoft BI
CV Data Analyst
Jerome

Data Analyst

  • LYON
Python SQL Data SQL Server PostgreSQL Azure Data Factory Microsoft Power BI Talend Big Data PySpark
CV Développeur PYTHON
Stéphane

Développeur PYTHON

  • BRON
Python Django PostgreSQL Odoo XML Git JavaScript SQL Docker Jenkins
Je trouve mon freelance

Les nouvelles missions de Data scientist Lyon

Data Scientist – Life Sciences (H/F)

Data Python Apache Hadoop Pandas TensorFlow
ASAP
69 - LYON
12 mois
Voir la mission

Data Engineer Java ou Python

Java Data Python Big Data Apache Spark
ASAP
69 - LYON
12 mois
Voir la mission

Data Architect Azure

Azure Microsoft Power BI
ASAP
69 - Lyon
6 mois
Voir la mission

Data developper SAP HANA

SAP HANA
ASAP
69 - LYON
6 mois
Voir la mission

Formateur Traitement des données et machine learning avec Python

SQL Data Python
ASAP
69 - LYON
10 jours ouvrés
Voir la mission

Data analyst

R
ASAP
LYON
5 jours ouvrés
Voir la mission

Data Scientist

Python PostgreSQL Jenkins Ansible
ASAP
Lyon
6 mois
Voir la mission

DATA Ingineer

ETL
ASAP
Lyon
6 mois
Voir la mission

Mécénat de compétence - Data Scientist - Connaissance client

SQL Data Science CRM Python R
ASAP
Lyon
3 jours ouvrés
Voir la mission

Animer formation hadoop - écosystème & ses architectures

Data
ASAP
Télétravail
1 mois
Voir la mission
Je trouve ma mission
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Trouvez un Data scientist Lyon en freelance

Notre base de 171415 CV vous permet de trouver rapidement un Data scientist Lyon freelance. Recevez gratuitement et sous 24h maximum les CV des meileurs intervenants disponibles.

Exemple de missions d'Aymen,
Data Scientist freelance

Expérience Professionnelle

ADEO Octobre 2023 – Janvier 2024 4 mois
Fonction : Data Analyst/Data Scientist
Contexte mission :
Au sein de l'équipe CRO/PERF e-commerce, j'ai été chargé de définir et de mettre en place des outils métier destinés aux différentes Bu et au groupe. Ma répartition de
tâches s'élevait à 60% pour la création des outils métier et à 40% pour l'analyse des retours clients.
Réalisations :
 Conception d'un tableau de bord Power BI dédié au suivi de la qualité des données et à l'analyse des informations provenant de Tempo.
 Élaboration de datamarts et création d'un tableau de bord Power BI pour l'analyse des retours clients issus de Qualtrics, des avis clients de Bazaarvoice, et les requests
vers le centre d'appels (taux d'appels, NPS, analyse des sentiments des commentaires, temps de résolution des requêtes, etc.).…
 Analyse des retours clients ( via le « center call », NPS , Bazaarvoice) à travres les algorithmes NPL.
Environnement technique :
GCP ( Bigquery)
Python ( NPL , NLTK , SPACY..)
Power BI

Data Scientist | Auchan | Octobre 2022- Octobre 2023
Description de la Mission :
En tant qu'Ingénieur/Data Analyst au sein de l'équipe Supply, j'ai dirigé la création et la mise en production de projets de
prévisions, en utilisant AirFlow pour automatiser les processus. J'ai élaboré des modèles de prévision initiale textile, de prévision
saisonnière et de prévision d'activité, fournissant des informations cruciales pour guider les décisions opérationnelles.
De plus, j'ai joué un rôle central dans l'analyse de données pour l'équipe Retail. J'ai conçu et exécuté des projets d'analyse de
données, en suivant un processus complet : depuis la création de mappings et de couches métier (Business Layer), jusqu'à la mise en
place de scripts de récupération de données à partir de diverses sources. J'ai également créé des API et des tableaux de bord pour
visualiser clairement les insights tirés des données.
Environnements Techniques :
J'ai utilisé des compétences avancées en Python pour développer des solutions robustes. J'ai exploité AirFlow pour orchestrer
les processus de prévision et d'analyse. J'ai manipulé des données à grande échelle en utilisant BigQuery, garantissant des
performances optimales dans le traitement des données. Mon travail a été suivi et partagé via GitHub, facilitant la collaboration et le
suivi des versions.

Data Scientist | Camaieu | Janvier 2019- Octobre 2022
Description de la Mission :
Pendant une période de 3 ans et 8 mois, j'ai occupé le poste de Data Scientist, avant de prendre en charge pendant 4 mois le
rôle de Manager Datalab en intérim. Cette expérience a enrichi mon parcours professionnel en me permettant de superviser une
équipe et de gérer des projets stratégiques tout en continuant à exercer mes compétences en tant que Data Scientist.
● Data Scientist (3 ans et 4 mois) : En tant que Data Scientist, j'ai contribué activement à l'analyse et à l'interprétation des
données, en utilisant des compétences avancées en Python. J'ai travaillé sur des projets de prévisions, d'optimisation et de
scoring, en exploitant des technologies telles que GCP, Python, DataStudio, Snowflake et Git.
● Manager Datalab en Intérim (4 mois) : Pendant cette période, j'ai assumé le rôle de Manager Datalab par intérim, dirigeant
une équipe composée d'un Data Analyst et d'un Data Engineer. Ensemble, nous avons exécuté des projets clés qui ont eu un
impact significatif sur l'entreprise.
● Projet 1 : Outil de Suivi des Magasins : J'ai supervisé la création d'un outil de suivi des magasins, permettant aux directeurs de
magasins de surveiller les KPIs quotidiennement. Cet outil a renforcé la fidélisation des clients et a permis une planification
plus précise des campagnes publicitaires.
● Projet 2 : Outil d'optimisation des Décotes : J'ai dirigé le développement d'un outil visant à optimiser les stratégies de décote,
contribuant ainsi à une meilleure gestion des marges tout en maintenant l'attrait pour les clients.
● Projet 3 : Outil d'optimisation des Lots Outlet : J'ai supervisé la création d'une solution d'optimisation pour les lots outlet,
améliorant l'efficacité de la gestion des stocks et de la vente des produits en outlet.
● Projet 4 : Outil de Scoring : Nous avons conçu des scores de prédiction pour évaluer les comportements des clients, en utilisant
Python, Google Storage et BigQuery pour fournir des insights stratégiques.
Environnements Techniques :
Au cours de ces projets, j'ai utilisé une variété d'outils techniques, notamment Python, GCP, DataStudio, Snowflake, Git,
PyCharm et Flask.

Data Scientist | Datalab ECONOCOM | Octobre 2018- Janvier 2019
Description de la Mission :
Pendant une période de 4 mois, j'ai occupé le poste de Datascientist, focalisant mes compétences analytiques sur des projets
ciblés et en utilisant des outils avancés pour tirer des insights significatifs.
● Projet 1 : Benchmarking entre Dataiku et Modules Machine Learning GCP : J'ai réalisé une analyse comparative approfondie
entre la solution Dataiku et les modules de machine learning de Google Cloud Platform (GCP). En utilisant les environnements
techniques de GCP et Dataiku, j'ai évalué les avantages, les inconvénients et les performances de chaque solution, fournissant
des informations essentielles pour orienter les décisions en matière de développement analytique.
● Projet 2 : Optimisation de la Gestion des Tickets ITSM Orange CD : Mon travail a porté sur l'optimisation de la gestion des
tickets issus du système ITSM Orange CD. En exploitant les ressources de Google Cloud Platform (BigQuery, Datastudio, ML
Engine), j'ai développé des solutions analytiques pour améliorer la prise en charge des tickets, accélérant les résolutions et
optimisant les processus de support technique.
Environnements Techniques :
Au cours de ces projets, j'ai utilisé Google Cloud Platform (GCP) comme fondement technologique, en exploitant BigQuery
pour l'analyse de données, Datastudio pour la visualisation, et ML Engine pour le développement et le déploiement de modèles de
machine learning. J'ai également employé les capacités de Dataiku pour des analyses comparatives approfondies.

Data Scientist | Datalab ADEO | Juin 2017 - Octobre 2018
Description de la Mission :
Pendant une période de 1 an et 4 mois en tant que Datascientist, j'ai travaillé sur une série de projets analytiques diversifiés, en
utilisant une variété d'outils et de technologies pour fournir des solutions innovantes et des insights précieux.
● Projet 1 : Next Product to BUY - LM Brazil : J'ai développé des modèles de recommandation pour le projet "Next Product to
BUY" chez LM Brazil, en utilisant R, Stambia et Teradata pour créer des systèmes d'aide à la décision pour les clients.
● Projet 2 : Analyse Comparative du Panier Moyen Italien et Français - Zodio : J'ai analysé les différences entre les paniers
moyens italiens et français pour Zodio. J'ai exploité Tibco et Teradata pour extraire, transformer et charger les données,
fournissant ainsi des informations clés pour orienter les stratégies de vente.
● Projet 3 : Convergence de Gamme entre GSP et Proxi pour les Bus : J'ai réalisé une étude de convergence de gamme entre GSP
et Proxi pour plusieurs bus. En utilisant Tibco et Teradata, j'ai analysé les données pour identifier les opportunités
d'optimisation des gammes de produits.
● Projet 4 : Industrialisation des Flux de Transfert de Données - ESB vers Oracle Big Data Appliance : J'ai contribué à
l'industrialisation des flux de transfert de données de l'ESB vers la plateforme Oracle Big Data Appliance. J'ai utilisé Stambia et
Shell pour mettre en place des solutions efficaces et automatisées.
● Projet 5 : Importation, Exploration et Analyse des Données de Capture Clients - LM France : J'ai géré l'importation,
l'exploration et l'analyse des données de capture clients pour LM France, en utilisant Teradata, Stambia et Tibco pour obtenir
des insights pertinents.
● Projet 6 : Analyse du Comportement d'Achat Web et Magasin - Marque Inspire : J'ai analysé le comportement d'achat des
produits de la marque Inspire dans 5 Business Units en utilisant Impala et Tibco, fournissant des informations cruciales pour
affiner les stratégies de vente.
● Projet 7 : Scraping des Sites des Concurrents au Vietnam : J'ai développé des scripts de scrapping en utilisant JS, HTML et CSS,
ainsi que Tibco, pour collecter des informations stratégiques à partir des sites des concurrents au Vietnam.
● Projet 8 : Étude de Parcours Web des Clients - LM France : J'ai utilisé Google Analytics, Impala et Tibco pour étudier les
parcours web des clients de LM France, fournissant des idées pour améliorer l'expérience utilisateur et les performances du
site.
Environnements Techniques :
● Outils : R, Tibco, Stambia, Impala, Google Analytics, JavaScript (JS), HTML, CSS, Shell
● Bases de données et Plateformes : Teradata, Oracle Big Data Appliance
● Collaboration et Gestion de Code : Git, Tibco

Stage de fin d’étude Mastére Spécialisé BIG DATA | INSEPTI | Janvier 2017 - Juin 2017 ( 6 mois)
● Sujet : Démocratisation du BIG DATA au sein des PME clientes de la société INSEPTI
▪ Environnement technique : R, Stambia , SAP PREDICTIVE ANALYTICS, SAP LUMIRA.

Data Scientist | CIMA CONSULTING Tunisie | Février 2014 - Avril 2015 ( 1 an et 3 mois)
● Use case : Réalisation de la typologie de la clientèle et création de modèles de prédiction des accidents pour une société d’assurance :
▪ Environnement technique : R, MySql.
● Use case : Mise en place de système de chrun pour une société de télécommunication
▪ Environnement technique : R, ACCESS.
● Mission : Réalisation des formations sur des logiciels statistiques R...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

Chief data officer Lyon, Data analyst Lyon, Data engineer Lyon, Ingénieur big data Lyon