CV/Mission de Consultant PySpark freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Rabii,
Consultant PySpark habitant les Yvelines (78)

EXPERCIENCES PROFESSIONNELLES

Louis Vuitton | Senior Data Engineer | 09/2023
• Qualification du développement et correction des bugs existants.
• Assistance au développement pour finaliser les étapes restantes de la migration.
• Audit et amélioration de la solution pour optimiser les performances et la stabilité.
Technologies : Python, Scala, SQL, DBT, BigQuery, Cloud Run, Airflow, Jenkins, GitHub, Docker

Orange | Tech Lead Data GCP | 05/2021-> 09/2023
• Etude des développements existants (Teradata) et Conception d'une stratégie de migration complète vers GCP, y compris le
choix des composantes
• Traduction de scripts KSH en Python, SQL Teradata en SQL BigQuery et la mise en place de scripts DAG pour
l'ordonnancement.
• Développement et déploiement de solutions via Docker et CI/CD, accompagné de tests rigoureux pour assurer la qualité et
l'intégrité des données.
• Contribution active à l'amélioration de l'architecture, en apportant des solutions innovantes pour optimiser les performances et
résoudre les problèmes.
• Automatisation des tâches répétitives, y compris le recensement des paramètres, les tests unitaires, l'installation, la
qualification, et la documentation.
• Prise en charge de l'accompagnement technique des développeurs et data Engineers, facilitant leur progression, validant les
solutions et développements, et supervisant les déploiements en production..
Technologies : BigQuery, Airflow, Docker, Firestore, Data Flow, AI vertex, Dataproc, Python, ksh, SQL, CI/CD, Git

INETUM (GFI) – Paris : [May 2021 a Présent]

Tech Lead Data GCP
Orange
Since October 2021

Technologies:
BigQuery, Cloud composer, Airflow, Docker, Firestore, Data Flow, Cloud Run,etc…
Python, ksh, SQL
Agile, CI/CD, Git

Ensure the design, development, and delivery of migration solution from Teradata to GCP.
solving difficult and complex technical problems.
Development f data pipelines.
Creation of DAGs for tasks orchestration.
translate ksh scripts to python.
translate Teradata SQL to BigQuery SQL.
Support of the Data Engineer teams on code reviews.
Mentor Engineers to develop their technical skills.

Consultant Data Analytics
MACIF
May 2021 to October 2021
Technologies :
Pyspark, Python
Spark Streaming, Nifi, MongoDB, ML.
Study and processing of complex data.
Development of data flows in pyspark.
Migration from NIFI to Spark streaming
Proposal for a new use case in machine learning.
Optimization of existing predictive models
Support for data profiles.

Bluescale - PARIS: [July 2018 to Present]

Data Scientist Consultant
TechnipFMC
January 2020 to April 2020

Technologies:
Deep learning: Neural Network, TensorFlow
Linear regression, Random Forest, variable selection, multiple time series.
Python: pandas, Scikit-learn, SciPy, R.
ggplot2

PROJECT: Development of predictive models to estimate the final cost of several scopes: Engineering, Procurement, Installation and Construction in TechnipFMC Projects.
Needs analysis, understand the job of project controllers and how thy estimate the final expenditure for each scope of a project.
Exploration and analysis of 300 variables: Behavior, relationship and impact through visualizations with R’s library.
Understand the problems of project controllers and formulate the objective of the models to be developed.
Data analysis and exploration: identification of missing data and their causes according to the nature of the variables.
Development of Python and R scripts to detect outliers and their corrections.
Development of scripts for missing data handling according to several strategies studied with project controllers.
Study of variables importance using random forest algorithms.
Development of several new 'Features' (predictor variables) using data transformations and normalizations.
Development of a predictive model using neural network with TensorFlow.
Development of multiple linear regression models to help project controllers to correct their estimates on the one hand, and to forecast and anticipate actions on the other.
Development of Forecast models using multiple time series algorithms.
Testing and validation of the models using cross-validation by project.
Writing of deliverables: python and R codes, documentation on methods and industrialization of models.

Tech Lead Data Science
Bluescale (Internal project)
August 2019 to December 2019

Technologies:
Linear regression, Random Forest, k-mode, variable selection, multiple time series.
Python: pandas, Scikit-learn, SciPy.
Microsoft Azure, Spark, Notebooks data.
Power BI, ggplot2, mapview, leaflet, tmap.
PROJECT: Predictive analyses of the availability rate of Belib' recharging stations for electric vehicles.
Study and design the technical solution in Cloud Azure.
Data collection, variables selection and data sources identification.
New Features extraction and datasets construction.
Data visualization: creation of the Dashboard via Power BI. Simulation of the availability and occupancy rates of the recharging sockets on the Paris map using the ggplot2, mapview and Leaflet library.
Design and development of predictive models using Machine Learning algorithms:
Rate availability prediction of 268 charging stations using multiple time series.
Clustering of similar stations using the k-mode and k-means algorithm.
Development of a linear regression model to estimate recharge occupancy times.
Anomalies detection through classification using the Random Forest algorithm.
Testing and validation, drafting of documentation.
Support and coaching of junior ML developers.

Big Data Consultant
Orange (Customer)
July 2018 to August 2019

Technologies:
Hortonworks, Spark, Kafka, Hive, HBase, Elasticsearch, Kafka, HBase, Oozie Knox, Grafana.
Python, Scala, java, Script Shell, R
GIT, SVN.
Multiple linear regression, Random Forest, time series
PROJECT 1: Performance test of using machine learning in big data environment
Participation in the design of the various test modules.
Development of the module for testing Machine Learning algorithms in Scala and pyspark using Spark's MLlib library.
Data processing and ingestion from Kafka to Elasticsearch indexes.
Creation of new projects environment in Hive/HBase: access, creation of tables, execution of HQL queries.
Deployment of test use case in Prod and preprod environments.
Drafting of documentation.

PROJECT 2: " Dispatcher Elasticsearch " Development of a Knox Dispatcher
for connecting Grafana to Elasticsearch in multisearch mode.
Study and investigation of data connection between the Grafana and Elasticsearch.
Development of a new version of Knox's Elasticsearch Dispatcher Class to support multisearch queries from Grafana to Elasticsearch.
Deployment of the patch in big data environments.
Drafting of manual for installing the Dispatcher Elasticsearch patch

PROJECT 3: Support of data scientists and Big data developers.
Study and implementation of new tools in Big Data clusters according to the needs expressed by the Data Scientist teams and Big Data developers.
Analysis and optimization of Hive queries, Spark scripts, Kafka flow, Oozie workflow.
Support for Data Engineers/Data Scientists in the data processing and model design using Machines Learning.
Drafting of technical documents for studies/reports.

BLUESCALE – PARIS : [JUILLET 2018 A PRESENT]
Recherche & Développement
Thèse de doctorat (ICT Indicator Assessment)
01/05/2020 à présent
• Rédaction et publication de trois articles scientifiques :
o Article 1 : nouveau système de pondération des indicateurs
composites basé sur la mesure d’importance des variables par
l’algorithme de « forêts aléatoires »
o Construction d’un indicateur composite basé sur un modèle DEA
multiplicatif et multicouche DEA-MM : Une étude de cas sur l'indice
de l'économie et de la société numériques (DESI)
o Mesure de l’efficacité de la e-stratégie nationale via le modèle DEAMM
• Rédaction du rapport de thèse de doctorat

Consultant Data Scientist
TechnipFMC (Client)
26/01/2020 à 15/04/2020
Technologies :
− Régression linéaire, Random Forest,
sélection des variables, séries
chronologiques multiples.,
− Python: pandas, Scikit-learn, SciPy, R.
− ggplot2
PROJET : Etude et développement de plusieurs modèles prédictifs pour estimer
les dépenses finales de l’ingénieries, des achats, les coûts d’installation et de
construction des Projets de TechnipFMC.
▪ Etude du besoin, comprendre le métier des contrôleurs des projets et
comment estiment les dépenses finales de chaque scope d’un projet.
▪ Etude et exploration de 300 variables : Comportement, relation et impact
à l’aide des visualisations en utilisant la librairies ggplot2 de R.
▪ Comprendre la problématique des contrôleurs des projets et formulation
de l’objective des modèles à élaborer.
▪ Analyse et exploration des données : identification des données
manquantes et leurs causes selon la nature des variables.
▪ Développement des scriptes Python et R pour détecter les données
aberrantes et leurs corrections.
▪ Développement des scripts pour traitement des données manquantes
selon plusieurs stratégies étudiés avec les contrôleurs des projets.
▪ Etude des importances des variables par rapport la variable de sortie en
utilisant les algorithmes des forêts aléatoires.
▪ Développement de plusieurs nouvelles ‘Features’ (variables prédicteurs) à
l’aides des transformations et normalisations des données.
▪ Développement des modèles de régression linéaire multiple pour aider les
contrôleurs des projets de corriger leurs estimations d’une part, et de
prévoir et anticiper des actions d’autre part.
▪ Développement des modèles de Forecast en utilisant les algorithmes des
séries chroniques multiples.
▪ Test et validation des modèles sont effectuées par la méthode des tes...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Consultant PySpark, Missions Consultant PySpark, Consultant PySpark freelance

Les nouvelles missions de Consultant PySpark

Data engineer JAVA / SPARK / PYTHON

JAVA APACHE SPARK PYTHON
ASAP
75 - Paris
6 mois
Voir la mission

Automaticien recette

POSTGRESQL JIRA HP QUALITY CENTER APACHE KAFKA PYSPARK
ASAP
92 - ISSY-LES-MOULINEAUX
12 mois
Voir la mission

Machine Learning Engineer

PYTHON PYSPARK
ASAP
79 - Niort
3 mois
Voir la mission

DATA ENGINEER

SCALA SQL PYSPARK JAVA
ASAP
69 - LYON
3 mois
Voir la mission

Data Analyst POWER BI Junior

Microsoft Power BI
ASAP
94 - Charenton le Pont
6 mois
Voir la mission

TechLead PySpark

PYSPARK APACHE HIVE CI/CD
ASAP
93 - Montreuil
3 mois
Voir la mission

Lead Dev Data Science

PYTHON JAVA PYSPARK JAVASCRIPT
ASAP
79 - Niort
3 mois
Voir la mission

Data Engineer JAVA / SPARK / SCALA

JAVA APACHE SPARK SCALA APACHE HADOOP
ASAP
75 - Paris
6 mois
Voir la mission

Consultant PYSPARK

PYSPARK
ASAP
94 - Charenton le Pont
12 mois
Voir la mission

Consultant Big Data

APACHE SPARK APACHE HIVE PYTHON HDFS
ASAP
31 - Toulouse
3 mois
Voir la mission
Je trouve ma mission

Les profils de Consultant PySpark ont postulé à :

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

ANALYTICS ENGINEER

SQL PYTHON
ASAP
92 - BOULOGNE-BILLANCOURT
130 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

FORMATION DATA

DATA
ASAP
13 - BOUC-BEL-AIR
15 jours ouvrés
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Data analyst

SQL PYTHON R
ASAP
75 - PARIS
12 mois
Voir la mission

Ingénieur Data

JAVA SQL DATA SPRING AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
11 mois
Voir la mission

Business Analyst Data / chef de projet BI Retail

SQL BI BIG DATA Google Cloud Platform
ASAP
94
10 mois
Voir la mission

Data Analyst

DATA
ASAP
75010-Paris
90 jours ouvrés
Voir la mission

CHIEF DATA OFFICER

DATA BIG DATA
ASAP
Télétravail
6 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Consultant PySpark disponibles

CV Data Scientist python
Abdelkrim

Data Scientist python

  • CHANTELOUP-LES-VIGNES
PYTHON Jupyter OPENCV GITLAB MONGODB VISUAL STUDIO DOCKER APACHE SPARK SQL AZURE
CV Product Owner - Scrum Master
Javier

Product Owner - Scrum Master

  • TOURS
SCRUM AGILE KANBAN JIRA SQL DATAVIZ EXCEL
CV Data Scientist APACHE SPARK
Ahmed

Data Scientist APACHE SPARK

  • LE PECQ
APACHE SPARK PYSPARK JAVA SCALA AZURE JENKINS APACHE KAFKA Cloud AWS DOCKER Kubernetes
CV Chef de projet AGILE
Frédéric

Chef de projet AGILE

  • BIGANOS
AGILE SCRUM SQL
CV Consultant SPSS
Alexandre

Consultant SPSS

  • Landrethun les Ardres
SPSS
CV Chef de projet AGILE
Baptiste

Chef de projet AGILE

  • PARIS
AGILE SCRUM JIRA SQL DOCUMENTUM API RESTful POSTMAN BDD PYSPARK AZURE
Bientôt disponible
CV tech lead data science
Khalil

tech lead data science

  • Montrouge
Data science BIG DATA PYTHON MICROSOFT BI APACHE HADOOP APACHE SPARK DOCKER APACHE HIVE SCRUM AZURE
Bientôt disponible
CV TECH LEAD BIG DATA & MLops
Amine

TECH LEAD BIG DATA & MLops

  • CHOISY-LE-ROI
APACHE SPARK PYTHON Data science Kubernetes AZURE
Bientôt disponible
CV Senior Data Engineer - Expert Business Intelligence BI
Mathieu

Senior Data Engineer - Expert Business Intelligence BI

  • RILLIEUX-LA-PAPE
SQL DATA BI ODI MICROSTRATEGY PYTHON AZURE
Bientôt disponible
CV Data Engineer / Cloud Engineer (Pyspark/Azure)
Ken

Data Engineer / Cloud Engineer (Pyspark/Azure)

  • SACY-LE-PETIT
PYSPARK APACHE SPARK SCALA PYTHON AZURE
Disponible
Je trouve mon freelance