Missions APACHE SPARK : Postulez aux dernières offres mises en ligne

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions APACHE SPARK à pourvoir

Data engineer

SQL PYTHON AMAZON AWS APACHE SPARK
ASAP
91 - MASSY
3 mois
Voir la mission

Développeur/DevSecOps IA

PYTHON APACHE SPARK DevSecOps SONARQUBE
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

Data Engineer – Sciences de la Vie (H/F)

SQL APACHE HADOOP APACHE SPARK Cloud AWS
ASAP
69 - LYON
12 mois
Voir la mission

Data scientist senior

PYTHON APACHE SPARK Cloud AWS
ASAP
59 - CROIX
3 mois
Voir la mission

Développeur BIG DATA

APACHE SPARK JAVA APACHE KAFKA GRAFANA LINUX
ASAP
44 - Nantes
3 mois
Voir la mission

Data Engineer SPARK / SCALA

PYSPARK APACHE SPARK APACHE HADOOP SCALA
ASAP
94 - Charenton le Pont
12 mois
Voir la mission

Pilote de réalisation migration Cloudera vers Teradata - Tours

LINUX TERADATA PYTHON APACHE SPARK Cloudera
ASAP
37 - TOURS
15 mois
Voir la mission

Data Engineer SPARK / SCALA

APACHE SPARK SCALA APACHE HADOOP
ASAP
75 - Paris
6 mois
Voir la mission

Data Engineer Senior + Python/Spark

PYTHON APACHE SPARK SQL AMAZON AWS TALEND
ASAP
78640 - Vélizy
6 mois
Voir la mission

Chef de projet IA

ASAP
78 - Saint Remy les Chevreuse
6 mois
Voir la mission
Je trouve ma mission APACHE SPARK

Les intervenants APACHE SPARK ont aussi candidaté à :

Data Ops/ Data Ingénieur

GITLAB HASHICORP TERRAFORM DOCKER Google Cloud Platform Airflow
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur IA

Microsoft Azure Machine Learning PYTHON
ASAP
Télétravail
1 mois
Voir la mission

Architecte Solution Cloud, Data et IA

DATA DEVOPS Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

DATA ENGINEER

PYTHON GIT DJANGO DOCKER Python (Pandas, NumPy)
ASAP
75 - PARIS
12 mois
Voir la mission

DevOps AWS Migration

HASHICORP TERRAFORM Cloud AWS DATA DOCKER BDD
ASAP
92 - PUTEAUX
12 mois
Voir la mission

DATAVIZ

DATA DATAVIZ Microsoft Power BI Dataiku Tableau
ASAP
75 - PARIS
12 mois
Voir la mission

Chef(fe) de projet / Senior Business Analyst – cas d'usage data client et produits

SQL DATA DECISIONNEL Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Chef(fe) de projet ou Senior Business Analyst Data - collecte et intégration de données

SQL DATA DECISIONNEL Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Intégrateur LLM

IMPROMPTU PYTHON Cloud AWS Amazon SageMaker LLM
ASAP
44 - NANTES
12 mois
Voir la mission

Data Engineering

SQL PYTHON POWERSHELL MONGODB POSTGRESQL
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission APACHE SPARK
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé d'expériences de Hamza,
freelance APACHE SPARK résidant dans la Haute-Garonne (31)

  • Société Projet CLS TOULOUSE
    Jan 2020 - Jan 2020

    Mettre en place un environnement d’analyse opérationnel des logs ELK
    Rôle Ingénieur Big data
    Activités réalisées  ingestion les mesures de performances et de disponibilités de l’instance
    établies dans le contrat avec le client (KPI) en exploitant les logs de
    l’application avec logstash
     Intégrer ces mesures dans un rapport mensuel exploitable et automatisé
    avec KIBANA

    Environnement LINUX, CloudS(infrastructure OpenStack), Docker, elasticsearch, logstsash, Kibana
  • Rôle Ingénieur Big data

    Société Databiz filière d’Autobiz France Projet Autobiz, Crawler et analyser les sites SELOGER, IMMO, VO
    Jan 2019 - Jan 2020

    Activités réalisées
     Crawler les sites des annonces dans des fichier JSON
     Nettoyage et transformation des données et extraire les statistiques avec
    Apache Spark puis envoyer les statistiques aux analystes
     Stocker et interroger les données dans MongoDB
     Stocker les données textuelles des annonces dans Elasticsearch et faire la
    visualisation avec Kibana
     Créer un outil qui permet de chercher un mot dans tous les pages et les
    sous pages d’un site avec scrapy et Django

    Environnement LINUX, SCRAPY, SELENIUM, APACHE SPARK, PYTHON, ELK, MONGODB, GITLAB, REDMINE, DJANGO, script shell, Docker
  • Rôle Ingénieure Big Data

    Société SDI
    Jan 2018 - Jan 2019

    Activités réalisées  Crawler les pages Facebook (poste, comment, nombre de j’aime et de
    partage), les jobs sur LinkedIn, les produits sur AliExpress, Amazon, les
    bibliographies des artistes (NRJ, FNAC)

    Environnement LINUX, API graphe, SCRAPY, SELENIUM, APACHE SPARK, R, PYTHON, ELK, MONGODB, GITLAB, REDMINE, DJANGO
  • Rôle Ingènieure Big Data

    Société TADA
    Jan 2017 - Jan 2018

    Projet PLATEFORME DE RECOMMANDATION COMMERCIAL
    Activités réalisées  Développement d’un package de classification hiérarchique avec les algorithmes génétiques
     Développement d'une application web back office pour l'analyse et la prédiction des comportements clients et la génération des rapports d’analyse

    Environnement RSTUDIO, RMARKDOWN, APACHE SPARK ET APACHE CASSANDRA
  • Projet TADA, CREER UN GENERATEUR DE PAYSAGE 3D

    aujourd'hui

    Activités réalisées  Implémenter des algorithmes de génération de paysage 3D exploitant les algorithmes génétiques.

    Environnement RSTUDIO, R, APACHE SPARK
  • Projet TADA, DETECTION DES OBJETS

    aujourd'hui

    Activités réalisées  Développer un module de détection des visages et des objets.
     Développer un module de reconnaissance des visages.
     Développer un module d’analyse des mouvements et suivi des objets

    Environnement PYTHON, OPENCV, APPRENTISSAGE APPROFONDI, MONGODB Projet BIN PACKING 3D Activités réalisées  Résolution du problème complexe de Bin packing 3D  Modélisation d’une soution avec WPF. Environnement Visual Studio, C#, WPF
  • Projet PICKUP AND DELIVERY TEMPS REEL
    aujourd'hui

    Activités réalisées  Résolution du problème complexe de réception de plusieurs demandes de
    livraison. Le service développé permet au transporteur d’organiser ces
    clients et de répondre aux nouvelles demandes en acceptant ou refusant tout en prenant en considération le facteur date limite de livraison et la date approximatif nécessaire pour la livraison calculer par le service tout en
    prenant en considération les livraisons déjà acceptés.

    Environnement RSHINY, R, RESTFUL API, PLUMBER LIBRARY, MAP API GGMAP LIBRARY
Voir le profil complet de ce freelance