CV/Mission de developpeur gpu freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Khadir,
Developpeur gpu habitant Paris (75)

AI Expert/ Data Platform Product Owner
ESSEC BUSINESS SCHOOL/ CERGY-PARIS
1/2022 -
PROJET :
L'ESSEC Metalab (for Data, Technology & Society) constitue l'un des trois axes majeurs de la stratégie ESSEC RISE.
Il favorise la recherche scientifique interdisciplinaire et l'innovation pédagogique, mise à profit par les transformations en cours
des technologies de la donnée et de l'IA, dans les domaines de l'économie et de la gestion, des sciences humaines, ainsi que des
sciences statistiques et de l'ingénieur.
Il rassemble des professeurs, des étudiants et des partenaires de l'ESSEC pour produire des programmes de recherche et
d'éducation percutants sur l'adoption de l'IA et des technologies associées par la société dans son ensemble.
TEAM :
3 data scientists, 1 data engineer, 1 DevOps engineer, 1 project/team manager.
MISSIONS:
Au sein de l'ESSEC Business School, face à l'impact croissant de l'intelligence artificielle et de l'apprentissage automatique sur le
monde des affaires, j'ai joué un rôle clé dans la sensibilisation et la formation des acteurs académiques et professionnels. J'ai
activement soutenu les professeurs, chercheurs et collaborateurs en les aidant à saisir les opportunités offertes par l'IA et la
data science. Mes responsabilités principales incluaient la mise en œuvre et la gestion de plateformes dédiées à
l'expérimentation en IA, l'accompagnement des enseignants dans des modules centrés sur l'IA, le Big Data et le Machine
Learning, ainsi que la conduite de formations spécialisées. De plus, j'ai été un acteur majeur dans la diffusion des connaissances
en IA et data science au sein de l'institution.
ENVIRONNEMENT TECHNIQUE :
Azure, Databricks, Airflow, Dataiku, Tableau, Python, Spark, MLFlow, Pytorch, Spark ML, Scikit-learn, Git, SQL

Machine Learning Engineer / Data Scientist
COVÉA/ PARIS
1/2021 - 1/2021
PROJET :
Covéa est un groupe d'assurances regroupant trois marques complémentaires (MMA, MAAF et GMF), ils sont en train de
développer des outils de veille des réseaux sociaux, d'analyse des enquêtes de satisfaction, des voices bot et plusieurs solutions
innovantes. J'ai intégré l'entreprise pour l'industrialisation, la mise en production, l'amélioration et l’implémentation des modèles
et des solutions pour l’analyse des réseaux sociaux.
TEAM :
3 data scientists, 1 data engineer, 1 DevOps engineer, 1 project/team manager.
MISSIONS:
• Mise en place des bonnes pratiques pour développer des solutions industrialisables et évolutives.
• Déployer des modèles de machine learning avec MLFlow dans un environnement cloud Azure Databricks
• Implémenter des modèles de clustering, de détection des topics et d’analyse de sentiment en se basant sur les
transformers.
ENVIRONNEMENT TECHNIQUE :
Python, Azure Databricks, Spark, MLFlow, Pytorch, Spark ML, Scikit-learn, Azure data lake storage, Spacy, NLTK

Machine Learning Engineer
SCHNEIDER ELECTRIC/ GRENOBLE
7/2020 - 11/2020
PROJET :
Le département « Artificial Intelligence and Analytics » accompagne les équipes métier de Schneider Electric dans le traitement
de grandes quantités de données IoT issues des offres EcoStruxure dans le domaine de la gestion de l'énergie et de
l'automatisation industrielle et dans le développement de nouveaux services à valeur ajoutée à travers des composants ou
modèles analytiques complexes.
TEAM :
4 data scientists, 1 machine learning engineer, 2 Data engineers, 1 project manager.
MISSIONS:
Accompagnement de l’équipe des data scientists pour accélérer et faire évoluer leurs modèles en simplifiant tout le cycle de vie
du Machine Learning pour les solutions de l'industrie pétrolière et gazière, afin de mettre en place un pipeline de bout en bout
intégré, évolutif et avec un coût réduit entre l'application commerciale (Autonomous Production Advisor) et le Data Factory.
J’ai développé des prototypes basés et les déployés dans le cloud, tous suivis par MLFLow :
• Training d'un modèle CNN Keras ML sur des volumes de données plus importants à l'aide de Petastorm
• Training d'un modèle CNN Keras ML distribué sur plusieurs GPU à l'aide d'Horovod.
• Training d’un modèle de Stacking distribué sur plusieurs GPU à l'aide d'Horovod.
ENVIRONNEMENT TECHNIQUE :
Python, Spark, Git, MLFlow, TensorFlow, Keras, Linux, Gitlab, Scikit-learn, Petastorm, Horovod

Lead Data scientist/ Research engineer
NOVELIS/ PARIS
7/2019 - 6/2020
PROJET : SMART PROGRAMMING
Développement d’une plateforme permettant de générer des applications web à partir des cahiers de charges
TEAM :
1 data scientist, 2 Post-Doc, 2 PhD candidates, 1 Data engineer, 1 web developer
MISSIONS:
Proposition et développement des algorithmes de représentation et de modélisation des langues naturelles (Anglais et Français)
afin de développer des interfaces capables de transformer un langage naturel à des modèles de bases de données relationnelles
et des requêtes SQL.
• Tâches réalisées :
Implémentation et fine tuning des modèles de transformation de connaissances pour la modélisation des langues en se
basant sur le pre-trained model BERT.
Implémentation des algorithmes de représentation des textes avec des graphes.
Implémentation et développement des algorithmes d’extraction d’information à partir de Wikipedia.
ENVIRONNEMENT TECHNIQUE :
Python, Scikit-learn, Gensim, NLTK, Pandas, Flask, Tensorflow, MongoDB, Linux, GitLab, Docker.

Data scientist/ Tech lead
GROUPE OCP / UM6P
8/2017 - 7/2019
PROJET : EAGLE
Développement d’une platforme IoT pour la maintenace prédictive (acquisition des données, monitoring et analytics)
EQUIPE :
2 data scientists, 3 data engineers, 3 software developers, 1 Devops engineer and 1 designer.
MISSIONS:
Mise en place et administration d’un cluster Hadoop pour les traitements Datawarehouse non critiques mode batch
(traitements mensuels) : Hortonworks Data Platform HDP (Sqoop, HDFS, Hive, Pig).
Mise en place et administration d’un cluster d’ingestion de streaming et de calcul des données temps réel : Hortonworks Data
Flow HDF (Nifi, Kafka, Storm, Spark Streaming).
Implémentation des modèles de prédiction des pannes pour la maintenance des équipements et ateliers de l’OCP Group à base
de deep learning.
Implémentation des modèles d’analyse et diagnostique automatique des équipements.
Développement des fonctions de traitement de signal et des modèles de classifications des défauts de roulement des différents
machines tournantes.
PROJET : AGRIOP
Développement d’une plateforme de recommandation et d’aide à la décision pour les agriculteurs dédiés à l’Afrique en partenariat
avec les ministères d’agriculture du Maroc, Ethiopie et de TOGO.
EQUIPE :
3 data scientists, 4 software developers, 1 Devops engineer et un scrum master.
MISSIONS:
Implémentation des modèles de recommandation des fertilisants à partir des données du sol.
Implémentation des modèles d’irrigation en analysant les caractéristiques de la culture, le type du sol et la météo
Implémentation des modèles de prédictions des prix des produits agricoles.
Implémentation des modèles de recommandation des cultures adéquat à chaque parcelle agricole.
PROJET : AUTOMATED DATA SCIENCE PLATFORM:
Développement d’une plateforme d'intelligence artificielle et de machine learning automatique (Automated Machine learning
Platform).
EQUIPE :
1 Data scientist, 2 PhD students, 1 data engineer and 1 developer
MISSIONS:
Mon rôle dans ce projet était de concevoir la plateforme, de déterminer les flux de données nécessaires pour chaque projet
d'intelligence artificielle, et d’implémenter des modèles de deep learning et de machine learning pour prédire et optimiser les
hyper paramètres des différents modèles de machine learning, pour éviter les problèmes de overfitting, et ainsi pour
sélectionner les meilleurs modèles pour des différents cas d'utilisation.
ENVIRONNEMENT TECHNIQUE:
Python, Anaconda, Flask, Spark, XGBoost, H2O, Scikit-learn, NLTK, Keras, Tensorflow, OpenCV, MongoDB, Docker, Git, Hadoop,
Kafka, Oozie, Linux.

Consultant Big Data
OCTO TECHNOLOGY
1/2017 - 8/2017
PROJET WAFASALAF BOT :
Développement d’un système conversationnel automatique (chatbot) pour le compte de la société Attijari Wafa banque.
EQUIPE :
1 data scientist, 2 developers and 1 data engineer
MISSIONS :
J’ai contribué au développement d’un chatbot pour le compte de, Durant ce projet, j’ai implémenté un programme qui permet
de classer les messages par leurs types (réclamation, demande de crédit, demande de simulation de crédit, demande d’emploi,
Email: ********
Tél: +33 7 51 32 22 61
etc) et d’extraire les entité et l’informations intéressante à partir de ces messages, j’ai implémenté par la suite un modèle de
sélection de réponse en se basant sur Word2Vec et les réseaux de neurones récurrents (LSTM)
PROJET : PREDICTION DES PROVISIONS
Implémentation d’un modèle de prédictions des provisions.
EQUIPE :
2 data scientists
MISSION :
J’ai modélisé et implémenté un modèle de deep learning qui permet de prédire la valeur mensuelle globale des provisions liées
aux échéances impayés.
ENVIRONNEMENT TÉCHNIQUE:
SAS, Dataiku, Python, Anaconda, Scikit-learn, Flask, Appache Lucene, NLTK, Elastic Search, Hortonworks data platform (HDP),
MongoDB, Oozie, Flume, PyCharm IDE, Linux, Docker, Git.

Data scientist / Scrum master
FRAKTAL
5/2014 - 1/2017
PROJET : HARTI EXPERT
Développement d’un système de questions/réponses basé sur les ontologies des domaines et le deep learning.
EQUIPE:
2 Data scientist, 3 développeurs, un data engineer
MISSIONS :
Au sein de la Start-up Fraktal, je me suis occupé d’implémenter un système de question réponse intelligent qui permet
de proposer des répon...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV developpeur gpu, Missions developpeur gpu, developpeur gpu freelance

Les nouvelles missions de developpeur gpu

Développeur GPU / C++ / MATLAB

MATLAB GPU
ASAP
13080
6 mois
Voir la mission

Développeur GPU

A définir
31- Toulouse
3 mois
Voir la mission

🔹 Développeur Grid Computing / Cloud Services

C++ SQL Python Bash Google Cloud Platform
01/04/2026
75 - PARIS
86 mois
Voir la mission

Lead-développeur - Power Plateform de Microsoft

Microsoft Power BI Microsoft Power Apps Microsoft Power Automate Power BI
ASAP
93 - SAINT-DENIS
12 mois
Voir la mission

Consultant HPC

GPU
ASAP
ORSAY
6 mois
Voir la mission
Je trouve ma mission

Les derniers CV de developpeur gpu disponibles

CV DevOps Cloud
Jeremy

DevOps Cloud

  • PARIS
Cloud AWS DevOps Google Cloud Platform Python Azure Google Cloud Security Command Center GO
CV Consultant technique C
Mohammed

Consultant technique C

  • MASSY
C C++ Bash Linux ADA Python QT IBM PLATFORM MPI MySQL PL/SQL
Disponible
CV Ingénieur de développement PYTHON
Hilaire Nayébé

Ingénieur de développement PYTHON

  • CERGY
Python Java Node.js C++
Disponible
CV Big Data Engineer & Mlops
Aina

Big Data Engineer & Mlops

  • CARRIÈRES-SOUS-POISSY
Data Big Data Python SQL PySpark Cloud AWS Google Cloud Platform Azure
Disponible
CV Senior Développeur
Michael

Senior Développeur

  • NICE
C++ GPU Java Modélisation financière Big Data
Disponible
CV Ingénieur de développement backend/cloud
Anas

Ingénieur de développement backend/cloud

  • VÉLIZY-VILLACOUBLAY
Java Python JavaScript
Disponible
CV Data Scientist Python
Dorsaf

Data Scientist Python

  • LE PRÉ-SAINT-GERVAIS
Python SQL Data Apache Spark Google Cloud Platform Deep Learning Microsoft Azure Machine Learning Azure HashiCorp Terraform
Disponible
CV AI Lead (15+ years of experience)
Mohamed Amine

AI Lead (15+ years of experience)

  • Le Kremlin-Bicêtre
OpenCV Python Data Science
Disponible
CV Développeur Python
Jijun

Développeur Python

  • PARIS
Python Java SQL Angular Kubernetes Kafka JavaScript
Disponible
CV Développeur C++
Pierre

Développeur C++

  • RENNES
C++ C GLSL TypeScript JavaScript Python
Disponible
Je trouve mon freelance