Missions ELASTICSEARCH : Dénichez votre prochaine mission indépendante

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions ELASTICSEARCH à pourvoir

Développeur Java / ELK

JAVA ELASTICSEARCH
05/05/2025
79 - Niort
3 mois
Voir la mission

Ingénieur Intégration Système Linux

LINUX SYSTEMES EMBARQUES
05/05/2025
78 - VÉLIZY-VILLACOUBLAY
12 mois
Voir la mission

Développeur NodeJS

NODE.JS JAVASCRIPT GIT JSON MONGODB
12/05/2025
75015
6 mois
Voir la mission

Développeur JAVA sénior

ASAP
69 - Lyon
3 mois
Voir la mission

Développeur Full Stack React/NodeJS (dominante Front end) / E-commerce

NODE.JS REACT.JS Cloud AWS
ASAP
75 - PARIS
3 mois
Voir la mission

DevOps

DEVOPS GRAFANA KIBANA ELK ANSIBLE
ASAP
92 - NANTERRE
12 mois
Voir la mission

Ingénieur Développeur / DevOps

JAVA JENKINS Angular Spring Boot Kafka
ASAP
69 - LYON
12 mois
Voir la mission

DBA Oracle / Postgres confirmé

ORACLE POSTGRESQL COUCHBASE Google Cloud Platform
05/05/2025
37 - TOURS
12 mois
Voir la mission

Développeur Python Flask/Django

PYTHON DJANGO GIT GITLAB ELASTICSEARCH MONGODB
ASAP
75 - Paris
12 mois
Voir la mission

Expert Serveur

JAVA MIDDLEWARE ANSIBLE JSON DevSecOps
ASAP
78180 - Saint-Quentin-en-Yvelines
6 mois
Voir la mission
Je trouve ma mission ELASTICSEARCH

Les intervenants ELASTICSEARCH ont aussi candidaté à :

Ingénieur DevOps / DevSecOps / Cloud Senior (H/F

HASHICORP TERRAFORM AZURE GRAFANA Kubernetes Cloud AWS
26/05/2025
92 - NEUILLY-SUR-SEINE
12 mois
Voir la mission

Solution Architect AWS

Cloud AWS
ASAP
75 - PARIS
6 mois
Voir la mission

Expert DevOps (API & Kafka)

DEVOPS Kubernetes Kafka
ASAP
75 - PARIS
12 mois
Voir la mission

Architecte Solution Cloud, Data et IA

DATA DEVOPS Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

Développement Python - Javascript - Swagger - Noisiel (77)

JAVASCRIPT PYTHON SWAGGER
ASAP
77 - NOISIEL
3 mois
Voir la mission

Architecte des Sytèmes d'information

Management de transition
ASAP
75 - PARIS
2 mois
Voir la mission

chef de projet

AGILE
ASAP
69 - LYON
12 mois
Voir la mission

développeur Angular Java SINEQUA

JAVA SINEQUA Angular
ASAP
92 - NANTERRE
12 mois
Voir la mission

Tech lead Java/Angular Assurance (H/F) Levallois-Perret (92)

JAVA Angular
ASAP
92 - LEVALLOIS-PERRET
12 mois
Voir la mission

Ingénieur DevOps AWS expérimenté

HASHICORP TERRAFORM DEVOPS Cloud AWS CI/CD DYNATRACE
ASAP
92 - BOULOGNE-BILLANCOURT
12 mois
Voir la mission
Je trouve ma mission ELASTICSEARCH
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple des missions de Zakaria,
freelance ELASTICSEARCH habitant Paris (75)

  • Senior Data Engineer /

    Engie E&C, Paris
    Jan 2022 - aujourd'hui

    (MDM) Master Data Management :
    Un projet qui vise à centraliser et normaliser les données provenant de divers fournisseurs
    d'électricité, garantissant ainsi leur qualité et cohérence pour une utilisation optimale par les
    utilisateurs finaux.
    Mission(s) et réalisations :
    • Comprendre les besoins métiers des feature-teams et les aider/guider dans le choix de la
    solution technique à mettre en place.
    • Développer des briques techniques optimales pour :
    o Collecter les fichiers des courbes de charges de différents source (ENEDIS, RTE, Fredi,
    MultiEld…) depuis les serveurs FTP ou les buckets S3.
    o Ingérer des données hétérogènes à forte volumétrie, enrichir les trois couches de Datalake
    (Bronze, Silver et Gold).
    o Créer et consommer des APIs et fournir des données propres et exploitables par les endusers.
    • Automatisation et orchestration des jobs Spark avec Airflow.
    • Proposer des POC aux chefs de projets data et chiffrer les solutions techniques envisageables.
    • Former les personnes techniques et métiers à l'utilisation de la plateforme data de l'entreprise
    et les outils mis à disposition.
    • Assurer la MCO de l’infrastructure et des composantes logicielles de la plateforme data liée à
    l'activité de l'équipe.
    • Proposer des ateliers techniques réguliers pour discuter les bonnes pratiques de code et de CICD
    ainsi que pour faire du housekeeping.

    AWS, S3, Deltalake, AWS Glue, DynamoDB, Databricks, Spark, API Gateway, CloudWatch, Secrets Manager, Airflow, Amazon EventBridge, Python, Terraform, GitHub Actions, SonarQube, Intellij.
  • Senior Data Engineer /

    TotalEnergies TDF, Paris
    Jan 2020 - Jan 2022

    (C-Track) Carbon Track :
    Solution qui recueille des données pour chaque étape du cycle de vie du GNL, calcule l’empreinte
    GES estimée et réelle pour chaque cargaison de GNL, crée des rapports associés et affiche les
    données sur un tableau de bord.
    Mission(s) et réalisations :
    • Organisation des meetings avec les utilisateurs pour définir les besoins.
    • Assistance au cadrage du projet.
    • Développement des fonctions lambda pour :
    o Ingérer les fichiers de différentes sources (Planet, Woodmac, Harpe) dans S3 en Format
    parquet (Bronze layer).
    o Ingérer les données des Cargaisons GNL depuis l’Api Signal dans S3 en Format parquet
    (Bronze laye).
    o Traiter, consolider, nettoyer, enrichir les données de la couche bronze et stocker les
    résultats dans des tables Athena (Silver Layer).
    o Calculer les features et l’empreinte GES et stocker les résultats dans les datamart afin de la
    visualiser dans les tableaux de bord et de générer les rapports (Gold layer).
    o Générer les rapports et de les envoyer vers les clients et les traders de GNL.
    • Préparation et réalisation des tests unitaires, non-régression et d’intégration.
    • Développement State Machine dans Step Function pour automatiser le lancement des lambda.
    • Développement des pipelines GitHub Actions pour :
    o Initialiser les buckets, base de données et tables
    o Déployer les fonctions Lambda.
    o Déployer les Dags Step Function.
    • Réalisation de la revue de code avec les Développeurs.
    • Participation aux tests de Qualifications (Pré production /Production).
    • Préparation de transfert du projet à l’équipe run.

    WS, S3, Athena, AWS Glue, RDS, Potgres, Lambda, API Gateway, CloudWatch, Secrets Manager, Step Functions, Amazon EventBridge, Docker, Elastic Container Registry, Shell, Python, Terraform, GitHub Actions, SonarQube, Intellij. (COBRA) Cost Optimization Based on Reliability & Availability : Outil intelligent pour prédire temps de défaillance des équipements des compresseurs de gaz et prendre en charge la planification des activités de maintenance en conséquence.
  • Poste Data Engineer

    La Française des Jeux
    Jan 2019 - aujourd'hui

    Projet
    Mise en place du Datalake pour la française des jeux en mode open source en respectant l’architecture lambda et Mise à disposition des données provenant de différentes sources (Streaming et batch) afin d'être proprement exploitées par des acteurs tierces.
    Mission(s) et réalisations
    Mise en place du Datalake :
    Développement/MEP des formules Salt pour instanciation de cluster kafka en Swarm avec le build des images Kafka, Zookeeper et Kafka Manager par Gitlab CI.
    Développement/MEP des formules Salt pour instanciation de cluster ELK avec le build des images Elasticsearch et Kibana par Gitlab CI.
    Développement/MEP des formules Salt pour instanciation de cluster Nifi en Swarm avec le développement des nouveaux processors et les intégrer et le build de l’image par Gitlab CI.
    Tunnig de la couche speed layer pour avoir des très bonnes performances (≃1.7 milliards d’évents/jour).
    Migration de ELK à chaud de la version 6.x au 7.x.
    Développement/MEP des formules Salt pour l’instanciation à chaud de cluster Elasticsearch hors containerisation.
    Développement/MEP des formules Salt pour l’instanciation de l’écosystème de Hadoop (Ambari, HDFS, Hbase, Phoenix, Spark, Hive, Kerberos, Ranger, Knox…) avec la distribution Hortonworks.
    Développement/MEP des formules Salt pour l’instanciation de Jupyter et Hue pour les Data Scientists en Docker et avec le build des images par Gitlab CI.
    Développement des formules Salt pour le téléchargement des jobs Spark de Nexus et le déploiement dans les serveurs d’ingestion.
    Développement des formules Salt et un script Python pour la création des tables Hive avec les vues.
    Gestion des problèmes liés à la sécurisation du cluster (kerberos, Ranger, SSL, KNOX).
    Administration du Datalake :
    Configuration de cluster ELK avec les rollovers, sharding et les templates des index et les différents paramètres.
    Création des espaces kibana pour les équipes et la gestion des droits d’accès aux différents index et dashboards.
    Création des topics Kafka avec leurs paramètres avec Kafka Manager.
    Création des dashboards dans Grafana pour le monitoring de la couche Speed Layer.
    Développement :
    Développement des workflow Nifi pour l’ingestion des events dans Kafka en streaming.
    Développement des workflow Nifi pour la lecture de Kafka, nettoyage, enrichissement et l’indexation des events de type logs dans Elasticsearch.
    Création des dashboards Kibana pour la visualisation des index.
    Développement des jobs Spark en Scala, Java Maven et avec le build par Gitlab CI pour :
    Ingestion des fichiers de différents formats dans HDFS en Format parquet compressé et partitionné.
    Archivage des fichiers en format brut.
    Chiffrement des données personnelles (Pseudo anonymisation).
    Déchiffrement de la donnée par Spark ou Hive (développement des udf Spark et Hive).
    Purge des données personnelles après un certain temps.
    Compactage des petits fichiers dans HDFS et s'assurer que le nombre de fichiers ne prolifère pas.
    Traçage et récupération des métadonnées pour toutes les étapes de traitement de la donnée et les indexer dans Elasticsearch.
    Automatisation et orchestration des chaines de traitement avec Airflow.
    Création des dashboards avec Kibana pour tracer tout le parcours de la donnée.
    Amélioration de performance des jobs Spark.
    Accompagnement des data scientists.
    Optimisation des traitements data science (les jobs Spark en Python).

    Linux (Redhat), Java, Scala, Python, Shell, Jupyter, Intellij, Salt, Gitlab, Gitlab CI CD, Nexus, Swarm, Docker, Hortonworks, Apache Spark, Apache Kafka, Apache Nifi, Apache Hadoop, Apache Hive, Elasticsearch, Apache Kerberos, Apache Ranger, Apache Knox, Kibana, Hue, Grafana
  • Poste Data Engineer

    Sanofi
    Jan 2018 - Jan 2019

    Projet
    Ingestion des donnés dans DataLake en mode batch et streaming et développement et évolution des cas d’usage.
    Mission(s) et réalisations
    Organisation des meetings avec les clients pour définir le besoin.
    Analyse des besoins utilisateurs en termes de données à intégrer dans le Datalake.
    Développement des jobs Spark pour ingérer les données dans Datalake sous différents formats en mode batch.
    Développement des jobs Spark Streaming pour consommer depuis Kafka et consolider les évents (logs) dans des fichiers afin de les ingérer dans Datalake en mode batch (archivage des logs).
    Développement des jobs Spark pour récupère les logs archivés dans ...

  • Mission(s) et réalisations :
    aujourd'hui

    • Organisation des meetings avec les utilisateurs pour définir les besoins.
    • Assistance au cadrage du projet.
    • Analyse des besoins des data scientists en termes de données à intégrer dans le Datalake.
    • Développement des jobs Spark/Spark streaming pour :
    o Ingérer en temps réel les données temporelles depuis EventHub dans Datalake sous formats
    Deltalake.
    o Ingérer les données historiques temporelles sous format Deltalake.
    o Interpoler, extrapoler et rééchantillonner les données temporelles.
    o Calculer les features pour les modèles machine Learning.
    o Entrainer les modèles machine Learning pour le calcul de la “state probability et time to
    failure”.
    o Versionner les modèles machine Learning dans MLflow.
    o Prédire “state probability et time to failure” pour les composants des compresseurs AKPO,
    DALIA et AMENAM.
    o Préparer les Datamarts pour le back/front end.
    • Amélioration de la performance des jobs Spark.
    • Préparation et réalisation des tests unitaires, non-régression et d’intégration.
    • Développement des jobs Databricks pour automatiser le lancement des jobs Spark.
    • Développement des pipelines Teraform pour :
    o Déployer les cluster Databricks.
    o Monter l’Azure datalake storage à Databricks.
    o Déployer les jobs Spark.
    • Réalisation de la revue de code avec les Développeurs.
    • Participation aux tests de Qualifications (Pré production /Production).
    • Préparation de transfert du projet à l’équipe run.

    Environnement technique : Databricks, Azure Datalake storage, Spark, MLflow, Azure Devops, Terraform, Eventhub, Postgres, Shell, Python, Scala, Intellij.
Voir le profil complet de ce freelance