Freelance SCALA : Trouvez les compétences nécessaires à votre projet

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple des missions de Hm Growth,
freelance SCALA résidant dans Paris (75)

EXPÉRIENCES PROFESSIONNELLES

Data Engineer - STET
08/2021
Projet 1 : IP CORE-XCHNG
Contexte:
Mise en place de la plateforme CORE 2
Travaux réalisés.
● Création d’un wrapper Kafka Streams en scala 2.11
● Intégration du wrapper dans le projet IP CORE-XCHNG
● Release fonctionnelle SWIP-FORWARD
● Release technique réduction de temps de build
● Revue de code
● Revue architecture du projet et des tests
● Tests unitaires et tests d’intégration
● Approvisionnement des stacks AWS
● Déploiement des solutions dans le cloud AWS
Environnement technique.
● Kafka, Kafka Streaming, Spark, Scala, Hadoop, Kafka, ELK, NiFi, Finatra

Data Engineer - SOCIETE GENERALE
04/2019 - 07/2021
Projet 1 : RUBA
Contexte:
Projet de transformation Big Data
Travaux réalisés.
● Enrichissement du dossier d’architecture d’INCORE avec la partie RUBA.
● Mise à jour du dossier d’empreinte pour la création des environnements.
● Mise en place du projet
● Création de la structure de la SUV Finance Risk Social Indicators ● Mapping et tests
unitaires
Environnement technique.
● Spark, Scala, Hadoop, Kafka, ELK, NiFi, Finatra

Projet 2 : KIPHOLM
Contexte.
Projet de transformation Big Data
Travaux réalisés.
● Participation aux ateliers de définition de l’architecture technique du projet
● Participation aux ateliers de modélisation des données
● MVP pour tester l’appel à un calculateur externe “Jarvis” avec Nifi et Python
● Développement des tables avec Spark Scala
● Développement de la classe pour préparation du message Atlas à envoyer
● Participation à la construction des tables du niveau 1 et 2
● Participation à la construction du message à envoyer à Atlas ( niveau 3 )
● Tests unitaires et tests d’intégration
● Participation à la construction du flux NiFi ( Partie Appel pour le calcul de l’éligibilité )
● Préparation du flux NiFi pour installation en Homol
Environnement technique.
● Spark, Scala, Hadoop, Kafka, ELK, NiFi, Finatra

Projet 3 : BV-Assiette INCORE
Contexte.
Projet de transformation Big Data
Travaux réalisés.
● Développement d’un job Spark en python pour la fiabilisation de la distribution des
données.
● Participation à la refonte de l’architecture du service de distribution des données en
Scala/Finatra
● Développement d’un module de mapping de données provenant de différentes sources
en Scala
● Revue de code, tests unitaires et tests de performance du service
● Mise en production du service de distribution
● Document applicatifs nécessaires au transfert de connaissances de l'entité et en
dehors de l'entité.
● Livrables : code, documentation, revue de code
Environnement technique.
● Spark, Scala, Hadoop, Kafka, ELK, NiFi, Finatra

Projet 4 : Care-Distribution SAFIR
Contexte.
Projet de transformation Big Data: Création d’un service de transfert des données SAFIR
de Teradata vers le Big Data.
Travaux réalisés.
● Mise en place d’un environnement de tests d’intégration en local avec Docker
● Participation au dossier d’architecture du projet de distribution des données de
Teradata vers le lake ( Big Data )
● Création des sources views dans Hive

Développement d’un flux Nifi pour la consommation des données dans Kafka et
l’archivage des fichiers parquets dans HDFS.
● Mise en production du service de distribution
● Documents applicatifs nécessaires au transfert de connaissances de l'entité et en
dehors de l'entité.
● Livrables : code, documentation, revue de code
Environnement technique.
● Spark, Scala, Hadoop, Kafka, ELK, NiFi, Java Spring Boot

Consultant Big Data / Data Engineer - CARREFOUR
01/2018 - 03/2019
Au sein de la Software Factory, a occupé le poste de Data Engineer afin de travailler sur
l’entrée des flux et les données utilisées, et ce via Phenix, la Plateforme Big Data de
Carrefour
Projet 1 - CAnoP ( Carrefour No Paper )
Contexte.
Le projet consiste à dématérialiser toutes la factures (Clients et fournisseurs) au sein de
Carrefour depuis l’extraction jusqu’à l’exposition des données à travers un web-service,
afin de faciliter la recherche et l’export en masse
Travaux réalisés.
● Indexation des données dans ElasticSearch
● Stockage des données dans Cassandra
● Développement d’une api-rest en Scalatra qui interroge ElasticSearch et Cassandra,
pour lire les données indexées en temps réel (Spark Streaming) Dans ElasticSearch et
persistées dans Cassandra.
● Tests d’intégration et tests unitaires
● Rédaction des Playbooks Ansible pour l’automatisation des déploiements.
● Déploiement et installation des différents composants dans les différents
environnements (Test, Pré-Production et Production)
● Déblocage ré-indexation des données dans ElasticSearch à partir de Cassandra
● Retours du module normalizer (Enrichissement du pivot)
● Rôle de facilitateur entre l’équipe de développement et l’équipe Corps Data
Environnement technique.
● Spark Scala et Spark Streaming
● ElasticSearch
● Cassandra
● HDFS
● Apache Kafka
● Scalatra, Scala
● Docker
● Ansible, Git, Jenkins, Rundeck, Mesos, Marathon
Projet 2 - OMS (Order Management System) – One Carrefour
Contexte.
Le projet One-Carrefour consiste à regrouper toutes les applications de Carrefour en une
seule application (One Carrefour), OMS est le composant centrale qui gère tous les
aspects des commandes reçues dans les différentes applications (Facturation,
Remboursement, Préparation des commandes…)
Travaux réalisés.
● Participation à la revue des spécifications et le chiffrage ● Création d’un topic Kafka
pour réceptionner les demandes de remboursement
● Normalization des demandes de remboursement (Ajout d’un schéma) ● Création d’un
topic kafka pour transférer les demandes de remboursement.
● Création des Playbooks Ansible pour l’automatisation des déploiements. ● Déploiement
et installation des modules Facture + Remboursement ● Extraction dans HDFS puis
curation dans Hive des factures + remboursement
● Tests unitaires + tests d’intégration
● Evolution des règles d’ingestion des données
Environnement technique.
● Spark Scala et Spark Streaming
● Apache Kafka
● HDFS
● Docker
● Ansible, Git, Jenkins, Rundeck, Mesos, Marathon
Projet 3 - Mandala Data Recovery
Contexte.
Ingestion des sorties PPC (Plateforme Préparation des Commandes) issues de Mandala
(Data Lake Carrefour)
Travaux réalisés.
● Module Spark Batch pour la lecture des données à partir de HDFS ● Module de Parsing
des données et enrichissement du pivot ● Module de génération des clés pour des
contraintes d’optimisation d’espace de stockage
● Stockage des données dans une table Hive
● Reprise de 3 ans d’historique
Environnement technique.
● Spark Scala
● HDFS
● Hive
● Docker
● Ansible, Git, Jenkins, Rundeck, Mesos, Marathon
Consultant Big Data / Data Engineer - CAPGEMINI
Contexte.
People Analytics est un programme de matching entre les offres et les demandes, le
programme permet de trouver les meilleurs profils pour les missions ouvertes, permet
aussi la gestion des ressources en interne et la recommandation de formations aux
collaborateurs
Travaux réalisés.
● Extraction et intégration des données dans Hadoop HDFS.

Extraction des données à partir de plusieurs sources, structurées ( R2D2 ) et
non-structurées ( CV PDF, fichiers Word ) et
semi-structurées
● Transformation et chargement des données dans des tables Hive ● Création d’un
workflow Oozie pour automatiser le traitement
● Lecture et préparation des données à partir de Hive
● Requêtes HQL pour lire les données à partir des tables Hive ● Développement
d’algorithmes de nettoyage des données en Spark ( Scala et Python )
● Développement des algorithmes de machine learning (Python, Spark Scala)
● Développement d’un module d’extraction des STOPWORDS en Spark (Spark MLlib,
TF-IDF, Scikit-learn, Scala et Python, NLTK )
● Développement d’un module d’extraction des COMPETENCES en Spark ( Spark MLlib,
NERModel, StanfordNLP, Scikit-learn, Python et Scala )
● Développement d’un module d’extraction des SYNONYMES (compétence, synonyme
compétence) en Spark ( Spark MLlib, TF-IDF, Singular Values Decomposition, Latent
Dirichlet Allocation model, Python et Scala/Java)
● Tests unitaires et tests d’intégration ( test-driven approach )
● Industrialisation des algorithmes (Oozie, Hue)
● Création d’un workflow Oozie pour chaque module développé pour automatiser les
traitements et d’un workflow Parent pour automatiser le lancement de plusieurs
modules, donner le choix à l’utilisateur de stocker les résultats dans une table Hive ou
dans HDFS
Environnement technique.
● Hadoop Hue
● SparkML, Spark Mllib
● Scala, Python, pyspark
● Panda, scikit-learn, NLTK (bibliothèques Python)
● Jenkins, Archiva, SonarQube, Ansible, Git
● Système Unix CentOS

Voir le profil complet de ce freelance

Les derniers freelances SCALA

CV Ingénieur de production LINUX / Devops
Elmostafa

Ingénieur de production LINUX / Devops

  • ISSY-LES-MOULINEAUX
LINUX APACHE HADOOP JBOSS WEBLOGIC ANSIBLE CONTROL M DOLLAR UNIVERSE CFT VTOM
Disponible
CV Data Scientist PYTHON
Amina

Data Scientist PYTHON

  • VILLENEUVE D'ASCQ
PYSPARK GIT SCALA PYTHON
Disponible
CV Développeur J2EE
Salaheddine

Développeur J2EE

  • FONTENAY-LE-FLEURY
J2EE JAVA SQL JAVASCRIPT Angular MYSQL
Disponible
CV Architecte DATA/ Chef de projet Data
Sabrin

Architecte DATA/ Chef de projet Data

  • ISSY-LES-MOULINEAUX
DATA BIG DATA
Disponible
CV Data Scientist ML/DL
Achraf

Data Scientist ML/DL

  • LE MESNIL-SAINT-DENIS
APACHE HADOOP APACHE SPARK AZURE PYTHON DATA SCALA SQL BIG DATA Google Cloud Platform
Bientôt disponible
CV Head of Data
Samuel

Head of Data

  • PARIS
SQL Google Cloud Platform PYTHON
Disponible
CV Développeur Java/J2EE Senior/Tech Lead - ME PKI
Djasra

Développeur Java/J2EE Senior/Tech Lead - ME PKI

  • PARIS
PYTHON DEVOPS Kubernetes Cloud AWS OPENTRUST BIG DATA SCRIPT SHELL PKI JAVA J2EE
Disponible
CV Développeur APACHE SPARK Scala
Ousmane 3

Développeur APACHE SPARK Scala

  • ARGENTEUIL
APACHE SPARK SCALA APACHE HADOOP GIT JENKINS
Disponible
CV Data scientist and AI Engineer
Joseph

Data scientist and AI Engineer

  • PARIS
DATA
Disponible
CV Data Engineer
Désiré Dofinisséri

Data Engineer

  • SARTROUVILLE
APACHE SPARK SCALA PYSPARK SQL
Disponible
Je trouve mon freelance SCALA

Les nouvelles missions SCALA

Développeur Sénior Informix 4GL

4GL INFORMIX 4GL
ASAP
Télétravail
3 mois
Voir la mission

Consultant HADOOP / SPARK / SCALA

APACHE HADOOP APACHE SPARK SCALA
ASAP
75 - Paris
6 mois
Voir la mission

Architecte d'entreprise

UML DATA ENTERPRISE ARCHITECT SCALA APACHE KAFKA
ASAP
75 - Paris
3 mois
Voir la mission

tech lead java

BIG DATA SCALA PYSPARK
ASAP
paris
6 mois
Voir la mission

Développeur Java Sénior Big Data

JAVA SCALA APACHE KAFKA Cloud AWS Spring Boot
ASAP
PARIS
12 mois
Voir la mission

Recetteur / Industrialisation des tests (H/F)

SQL UNIX LINUX AGILE JENKINS
ASAP
Lyon (03)
12 mois
Voir la mission

Développeur Big Data / Data Engineer H/F

DATA PYTHON APACHE HADOOP SCALA APACHE SPARK
ASAP
Paris
36 mois
Voir la mission

Senior Data Engineer

JAVA PYTHON SCALA ANSIBLE APACHE HADOOP
ASAP
92
12 mois
Voir la mission

URGENT - DevOps

DEVOPS
ASAP
Paris
12 mois
Voir la mission

Data Engineer Scala / AWS

SCALA APACHE SPARK Cloud AWS PYTHON
ASAP
Paris
6 mois
Voir la mission
Je trouve ma mission SCALA

Les freelances maîtrisant SCALA ont postulé à :

Data engineer AWS

SQL DATA DEVOPS Cloud AWS
ASAP
PARIS
6 mois
Voir la mission

Consultant Formateur

BI BIG DATA APACHE SPARK Microsoft Power BI BI MICROSOFT
ASAP
Télétravail
5 jours ouvrés
Voir la mission

Data Engineer sur GCP obligatoire

PYTHON APACHE HIVE SCALA APACHE SPARK Google Cloud Platform
ASAP
PARIS
12 mois
Voir la mission

Formateur Cloudera Spark (Certifiant CCA)

BIG DATA APACHE SPARK Cloudera
ASAP
Télétravail
4 jours ouvrés
Voir la mission

DATA SCIENTIST

DATA PYTHON APACHE HADOOP APACHE HIVE APACHE SPARK
ASAP
paris
12 mois
Voir la mission

Formateur Big Data

BIG DATA
A définir
75011
30 jours ouvrés
Voir la mission

Formateurs BIG DATA

BIG DATA
ASAP
75 - Paris
3 jours ouvrés
Voir la mission

Consultant formateur BIG DATA

BIG DATA
ASAP
75 - paris
5 jours ouvrés
Voir la mission

Consultant formateur BIG DATA

BIG DATA
ASAP
75 - paris
5 jours ouvrés
Voir la mission
Je trouve ma mission SCALA