Missions SCALA : Une multitude d'offres déposées chaque semaine

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions SCALA à pourvoir

Senior Data Engineer

GIT Cloud AWS
ASAP
Télétravail
12 mois
Voir la mission

Data engineer senior

SONARQUBE SCALA Microsoft Power BI Cloud AWS PYSPARK
ASAP
93 - NOISY-LE-GRAND
24 mois
Voir la mission

Tech Lead Développeur

JAVA JAVASCRIPT REACT.JS J2EE
ASAP
79 - NIORT
12 mois
Voir la mission

DEVELOPEUR JAVA/REACT

JAVA JAVASCRIPT J2EE REACT.JS
ASAP
79 - NIORT
12 mois
Voir la mission

Développeur PHP Full stack

JAVASCRIPT PHP REACT.JS SALESFORCE SCALA
ASAP
13 - AIX-EN-PROVENCE
6 mois
Voir la mission

Développeur Scala

SCALA Cloud AWS
ASAP
75 - PARIS
1 mois
Voir la mission

Data Architect Azure

JAVA PYTHON SCALA AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
6 mois
Voir la mission

tech lead java

BIG DATA SCALA PYSPARK
ASAP
paris
6 mois
Voir la mission

Développeur Java Sénior Big Data

JAVA SCALA APACHE KAFKA Cloud AWS Spring Boot
ASAP
PARIS
12 mois
Voir la mission

Recetteur / Industrialisation des tests (H/F)

SQL UNIX LINUX AGILE JENKINS
ASAP
Lyon (03)
12 mois
Voir la mission
Je trouve ma mission SCALA

Les intervenants SCALA ont aussi candidaté à :

Data Engineer Cloud AWS

PYTHON HASHICORP TERRAFORM Cloud AWS PYSPARK
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

Data Analyst E-commerce

SQL DATA PYTHON
ASAP
94 - IVRY-SUR-SEINE
12 mois
Voir la mission

Développeur AWS

SQL PYTHON HASHICORP TERRAFORM Cloud AWS PYSPARK
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur Java Senior

JAVA J2EE Angular RabbitMQ Kafka
ASAP
92 - COURBEVOIE
12 mois
Voir la mission

Architectes Cloud / DevOps

GIT HASHICORP TERRAFORM AZURE Kubernetes Cloud AWS
ASAP
75 - PARIS
18 mois
Voir la mission

Tech Lead DATA F/H

DATA AGILE AMAZON WEB SERVICES
ASAP
75 - PARIS
12 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Tech Lead (AWS)

SQL PYTHON Cloud AWS PYSPARK
ASAP
75 - PARIS
12 mois
Voir la mission

CLoud Architect GCP

Google Cloud Platform
ASAP
75 - PARIS
6 mois
Voir la mission

Expert technique – DevOps (Conteneurs, Openshift, Kubernetes) - Région Ile de France Est

GIT DEVOPS DOCKER Kubernetes REDHAT OPENSHIFT
ASAP
93 - NOISY-LE-GRAND
36 mois
Voir la mission
Je trouve ma mission SCALA
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois de Haifa,
freelance SCALA résidant dans Paris (75)

  • Senior Data Engineer

    , Telenet Belgique full Remote/English (contrat freelance)
    Jan 2022 - Jan 2023

    Migration du legacy on premise Cloudera vers le Cloud
    - Modélisation et alimentation de la cloud database Snowflake
    - Design et Développement des Jobs ETL Spark en python et Scala
    - Industrialisation des modèles de machine learning en étroite collaboration avec les data scientists
    - Sizing et Tuning des clusters Databricks pour optimiser les performances jobs ETL Spark

    - Stack : Azure Databricks Pools, Job clusters, MLOPS, Lakehouse/Delta Lake, DataDog, Docker, Aiven, Jenkins Rest API, Pyspark, Scala, Maven, Snowflake, Terraform, Kubernetes, Azure Storage, Azure Devops, Cloudera
  • Senior Data Engineer

    pour Sodexo (Contrat Freelance)
    Jan 2019 - Jan 2019

    Déploiement d’applications ETL (Spark/Scala) mode batch (Spark SQL, fonctions Windowing/Aggregations/Join)
    - Configuration des applications Spark avec les frameworks (TypesafeConfig et PureConfig)
    - Gestion des arguments additionnels des jobs Spark avec La librairie Scopt
    - Dockerisation des environnements des tests d’intégration

    - Stack: Microsoft Azure (Azure Databricks, Data Lake Storage, Azure Data Factory, Azure Devops (VSTS), Azure Pipleines), Scala, Sbt, Python, Intellij IDE, Shell
  • BIG Data Engineer

    pour Renault Digital (Contrat Freelance)
    Jan 2018 - Jan 2019

    - Développement d’applications (spark/scala) d’ingestion et de mapping des données en temps réel (GCP platform :
    Dataproc, Pubsub, Big Query, Spanner, GCS, Cloud Functions)
    - Mise en place de templates de jobs spark normalisés en utilisant des frameworks de gestion de config (Typesafe
    config) et d’injection de dépendances (ServiceLoader)
    - Ordonnancement de l’exécution des jobs spark en running sous Yarn avec l’outil Composer
    - Tuning des Jobs Spark dans la production (Spark Web UI Metrics) / Résolution des bugs
    - Développement de Spark Custom Streaming Source/Sink (scala, sbt)
    - Mise en place de pipelines CI/CD (tasks de compile, quality, unit tests, build et deploy) avec Gitlab CI (toolchain :
    Git, Jira, Sonarqube, Nexus)

  • BIG Data Engineer

    pour BNP PAR IBAS PF (Contrat Freelance /portage salarial)
    Jan 2018 - aujourd'hui

    -Développement de pipelines ETL avec Hadoop/Spark (Distribution Hortonworks HDP 2.6)
    -Implémentation des jobs Spark en Scala avec la toolchain:Maven,Eclipse, Git,
    Jenkins-Configuration et packaging des traitements dans un environnement Hadoop:
    YARN/OOZIE/HIVE
    -Rédaction des spécifications techniques détaillées /Documentation des développements réalisés

  • BIG Data Engineer/Data Scientist

    pour Spherea (Ex Cassidian)
    Jan 2017 - Jan 2018

    -Déploiement de workflows pour le traitement de données de types séries temporelles en se basant sur les technologies du BIG Data (Distribution Hortonworks HDP 2.5)
    : Import des données (flight data records) sous HDFS/HIVE
    -Analyse des tables HIVE avec le moteur de calcul distribué SPARK: API DATAFRAME/SQL/Built
    -in UDFs
    -Développement d’applications PySpark pour la détection des différents patterns
    -Utilisation du gestionnaire de Ressources Yarn Pour l’exécution des jobs Sparks
    -Implémentation de pipelines de machine learning avec l’API ML de SPARK

  • Data Analyst

    pour GFI Informatique/Disneyland Paris
    Jan 2017 - Jan 2017

    -Développement de POCs BIG Data pour la collecte,le stockage,le traitement, l’analyse et la
    visualisation des données multi-média massives (batch et temps réel)
    -Expérimentation et Implémentation d’algorithmes d’apprentissage performants et scalables
    (Machine Learning supervisé, non supervisé, collaborative filtering avec Spark en scala)

  • Jan 2016 - Jan 2017

    avionique pour calculateur embarqué dans trains d’atterrissage de l’A350 XWB: Steering
    -Analyse et traitement des faits techniques vus en essais en vol ou en service commercial/Suivi et support technique des activités sous traitées de codage et d’intégration
    -Gestion des exigences/de la configuration et suivi de la traçabilité bidirectionnelle

  • Signal Processing/Radar Data Engineer

    pour Thales Air Systems
    Jan 2013 - Jan 2013

    -Analyse des données (séries temporelles) radar issues de plusieurs sites
    -Etude et implémentation d’un algorithme de lissage des données radar à la sortie du pistage existant-Développement d’algorithmes de filtrage plus performants que le filtrage de Kalman utilisé en pistage radar (Un scented Kalman filtering, Interacting Multiple Model Kalman Filtering)

  • aujourd'hui

    - Développement/déploiement d’applications Spark Structured Streaming en Scala sous AWS Databricks
    - Ingestion en temps réel des données depuis Kafka avec Spark (développement consumer Kafka en streaming/producer
    Kafka en streaming sous Spark Structured Streaming)
    - Tuning des paramètres de configuration du Producer/Consumer Kafka (tuning acks, min.inSync.replicas, etc)
    - Développement des applications ETL avec Kafka Connect/Debezium
    - Développement d’un custom Sink DynamoDB avec Spark Structured Streaming en Scala (API ForEachWriter)
    - Mise en place de la gouvernance des données Avro circulant dans Kafka via le tuning du schema Registry Server
    - Tuning Performance Jobs Spark avec Spark UI/Ganglia (tuning spark conf, partitioning, cores,RAM, type worker)
    - Mise en place monitoring des métriques JMX avec Prometheus Server/Datadog

    - Stack : AWS, S3, DynamoDB, STS, SSM, Kafka MSK, Avro, Schema Registry Server, Kafka Connect , Scala, Python
Voir le profil complet de ce freelance