Freelance Logstash : Nos nouveaux consultants enregistrés

Je dépose une mission gratuitement
Je dépose mon CV

Qu'est-ce que LOGSTASH ?

Logstash est une solution libre qui permet de récupérer des données provenant d'un grand nombre de sources, de les transformer et de les envoyer vers une solution de stockage.
La solution de stockage du même éditeur est Elasticsearch. 

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences d'Oussama,
freelance LOGSTASH résidant dans le Val-d'Oise (95)

Expérience professionnelle

Crédit agricole group infrastructure platform : Devops bservability
(03/2024 - actuellement).
En tant qu’ingénieur DevOps spécialisé en observabilité, je veille à l’adoption et à
l’usage efficace des outils d’observabilité (Elk, grafana, dynatrace) par les équipes
d’exploitation (Ops) et les maîtrises d’œuvre (MOE), en assurant leur formation et
leur accompagnement. J’administre et garantis le bon fonctionnement de 12
clusters Elasticsearch, en m’assurant de leur performance, leur disponibilité et leur
stabilité. Je conçois et j’automatise les processus d’ingestion des logs dans ces
clusters afin d’assurer une collecte structurée et fiable des données. J’accompagne
également les équipes projet de bout en bout, depuis l’expression de leurs besoins
jusqu’à l’intégration des solutions Elasticsearch adaptées à leurs cas d’usage.
■ Reconfiguration complète de clusters Elasticsearch de production mal dimensionnés pour
l’ingestion de logs applicatifs. Réalisation d’un capacity planning, refonte des index templates
et des stratégies d’indexation. Correction des pipelines Logstash et création de nouveaux
index optimisés, assurant une ingestion fiable, performante et durable des données.
■ Conception et création d’une interface web à destination des équipes Ops et MOE pour
déclarer dynamiquement les clés (le format) de logs. Intégration à une pipeline GitLab CI/CD
automatisée injectant les filtres dans Logstash, générant des merge requests, puis déployant
les configurations dans Elasticsearch via API après validation. Solution full GitOps, traçable et
industrialisée.
■ Développement d’un microservice d’automatisation de la création d’espaces Kibana dédiés
pour chaque application. Génération automatique des espaces, rôles et role mappings,
assurant l’isolation et la sécurisation des logs par application. Solution facilitant la
gouvernance des accès et la lisibilité des données dans l’écosystème observabilité.
■ Déploiement d’une solution d’observabilité pour les pipelines COBOL exécutés via Jenkins et
l’environnement IBM IDz. Automatisation de l’extraction et du retraitement des logs
d’exécution, avec injection dans Elasticsearch. Création de dashboards Kibana clairs et
opérationnels, permettant aux équipes de superviser en temps réel leurs traitements batch
mainframe, de détecter les anomalies et d’optimiser leurs workflows. Mise en visibilité d’un
environnement critique jusqu’ici opaque.
Environnements techniques : Kubernetes, Docker, Argo cd, jfrog artifactory, ELK (Elasticsearch, Logstash, Kibana),
Kafka, Python, Mongodb, HTML, css, JavaScript React Native, Grafana, Dynatrace.

CESI École d’Ingénieurs, Nanterre : Intervenant-formateur externe en
DevOps (2024-2025).
Enseignant DevOps en Master 1 et 2. Contenus pédagogiques enseignés :
■ Architecture cloud native.
■ Infrastructure des systèmes d’information.
■ Stratégie d’hébergement applicatif.
■ Observabilité.

Worldline : Platform Architect (de Janvier 2021 à 2024)
Architecture et construction d’une plateforme de Business monitoring.
Proposition d’architecture, et création de la solution de supervision des
transactions bancaires des clients utilisant les machines carte bleue de Worldline
(Ingenico) et les systèmes de paiement en ligne.
■ Proposition d’une architecture globale de la solution.
■ Réalisation d’une capacity planning.
■ Création d’un script de génération des métriques de supervision (Python).
■ Création des machines Redhat8 pour Kafka, logstash, kibana, grafana,
elasticsearch (Terraform).
■ Création des modules puppet d’installation et de configuration de kafka, logstash,
kibana, grafana, elasticearch, metricbeat, filebeat.
■ Création et automatisation d’un cluster kafka.
■ Création et automatisation d’un cluster elasticsearch.
■ Création de pipelines Logstash pour la récupération et l’injection de données
dans elasticsearch en passant par Kafka.
■ Construction des dashbords de supervision sur Kibana et Grafana.
■ Exposition des dashbords aux clients (grafana, processus réseaux et sécurité,
Haproxy, iptables…)
■ Mise en place des scripts (exporters prometheus) de monitoring de la plateforme (Python)
■ Mise en place des dashbords de monitoring de la plateforme (Grafana avec
prometheus comme datasource)
■ Mise en place du processus de l’alerting sur Pagerduty.
■ Création d’un système de détection des anomalies basé sur des scripts de machine
learning de prédiction des comportements futurs des données. (Python, Pandas,
hotwinter Arima, Sarima…)
■ Création de playbook Ansible de maintenance des machines virtuelles et des
serveurs physiques de la solution.
■ Documentation du projet.
Environnements techniques : suite ELK (Elasticsearch, Logstash, Kibana), Kafka, Python, Perl, Puppet, Grafana,
Prometheus, Terraform, HAproxy, ExaBGP,Ansible, Jira, PostgreSQL, Redhat 8, gitlab

RADèS : Platform Architect (Septembre-Novembre 2021) :
Définition d'une nouvelle architecture du projet sur le cloud d’une plateforme de
supervision RADèS : LIGHTHOUSE
Amélioration de l’infrastructure du projet : migration sur le Cloud AWS
■ Conception et mise en œuvre d'une architecture logicielle d’une solution basée
sur Elasticsearch, déployée sur AWS et gérée par Kubernetes.
■ Utilisation d'Elasticsearch pour le stockage et l'indexation de données, avec une
intégration transparente grâce à Kubernetes et Amazon EKS (Elastic Kubernetes
Service).
■ Dockerisation du code Python existant en utilisant des Dockerfiles, suivi du
déploiement des images résultantes sur Amazon ECR (Elastic Container Registry).
■ Configuration d'un cluster EKS sur AWS pour héberger le système, impliquant la mise
en place d'une VPC, la gestion des rôles IAM et la configuration des groupes de sécurité.
■ Déploiement de l'infrastructure avec Helm, en personnalisant les charts pour
répondre aux exigences spécifiques du projet.
■ Mise en place de la communication entre différentes composantes du système,
assurant un flux de données fluide de l'application Python à Elasticsearch via Logstash.

IBM : Stage en intelligence artificielle (Mars - Août 2021)
Etant donné une base de connaissances (un jeu de donnée RDF) et une classe cible qui est décrite par une
propriété booléenne décrivant l’appartenance à une classe (comme l’acceptation d’un prêt), le but est de générer
un ensemble de règles de la logique permettant de classifier les données de la classe cible. La génération de ces
règles est faite par le système AMIE 3.
Réalisations :
■ Transformation de la base de données : Excel vers base de connaissance, selon
un modèle de graphe.
■ Analyse et catégorisation des données suivant les types : variables discrètes,
variables continues.
■ Développement d’un algorithme en python qui construit des intervalles et qui trouve
des seuils.
■ Enrichissement de la base de connaissance : Développement du modèle de graphe.
■ Utilisation du système AMIE 3 pour la génération des règles.
Environnement technique : Python pour la data science.

Coresponsable d'une chaîne youtube "The Techcave" mettant à disposition des
cours et formations :
▪ Introduction à l'interaction home machine.
▪ Docker container.
▪ Création d'une formation sur la Starck ELK (Elasticsearch logstash Kibana) (en cours)

Voir le profil complet de ce freelance

Les derniers freelances Logstash

CV DataOps– Administrateur/Intégrateur Big Data
Yas

DataOps– Administrateur/Intégrateur Big Data

  • PARIS
Big Data
Disponible
CV Technical Leader Java Spring
Fouad

Technical Leader Java Spring

  • JOINVILLE-LE-PONT
Spring Boot Java Cloud AWS SQL Kubernetes Node.js Kotlin Angular
Disponible
CV Développeur Python
Hounaida

Développeur Python

  • RENNES
Python PostgreSQL Odoo XML JavaScript Linux
Disponible
CV Ingénieur système linux
Sylviane

Ingénieur système linux

  • BAGNEUX
Ansible DevOps Linux CI/CD Python
Bientôt disponible
CV DevOps IAC & Automation
Aymen

DevOps IAC & Automation

  • FRESNES
Ansible CI/CD DevOps HashiCorp Terraform GitLab
Disponible
CV Ingénieur de développement React.js
Ilyass

Ingénieur de développement React.js

  • MONTROUGE
SQL Java React.js JavaScript Angular SQL Server
Disponible
CV Consultant cybersécurité
Karim

Consultant cybersécurité

  • MAISONS-LAFFITTE
SIEM Elasticsearch Endpoint Security
Disponible
CV Data Engineer Python
Ikram Céline

Data Engineer Python

  • CHATOU
Python
CV Architecte solution Azure
Rachad

Architecte solution Azure

  • PARIS
Azure Cloud AWS Spring Boot Python Databricks Azure Data Factory API RESTful Microsoft Power BI Angular Script Shell
Bientôt disponible
CV Lead Infrastructure & Production
Bilel

Lead Infrastructure & Production

  • LA GARENNE-COLOMBES
POSTGRES MCO Apache Kafka Apache NiFi Docker Gestion de crise Gestion d'équipe Enterprise Architect Keycloak WebMethods Axway
Disponible
Je trouve mon freelance Logstash

Les nouvelles missions Logstash

Expert ELK Platform

ELK Elasticsearch Logstash
05/05/2026
75 - Paris
6 mois
Voir la mission

Expert KIBANA

Kibana Elasticsearch Python
04/05/2026
94 - Charenton le Pont
6 mois
Voir la mission

Architecte technique EDR

Bash Proxy ELK Linux
ASAP
94 - Noisy-le-Grand
3 mois
Voir la mission

Data Engineer Expert Elastic Stack

Python Logstash Kibana ELK Apache Kafka
ASAP
78 - GUYANCOURT
12 mois
Voir la mission

Consultant Elastic Stack(ELK) LINUX/PYTHON/ANSIBLE

ELK Linux Python Ansible SQL
ASAP
92 - Châtillon
3 mois
Voir la mission

Architecte DataOps

Python Elasticsearch Ansible Kafka
ASAP
75 - PARIS
6 mois
Voir la mission

Ingénieur Data pour Massy (91)

SQL SAS Python Talend Snowflake
ASAP
91 - MASSY
3 mois
Voir la mission

Data Engineer

Apache Hadoop Apache Spark Python Bash Jenkins
ASAP
75 - Paris
12 mois
Voir la mission

Développeur PHP / Symfony

SQL PHP Symfony REST Microservices
ASAP
06 - VALBONNE
6 mois
Voir la mission

Data Steward Elasticsearch

Elasticsearch Agile ELK
ASAP
75 - Paris
6 mois
Voir la mission
Je trouve ma mission Logstash

Les freelances maîtrisant Logstash ont postulé à :

Ingénieur DevOps Azure / Terraform

DevOps Docker Ansible
ASAP
75 - PARIS
12 mois
Voir la mission

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Senior DevSecOps

DevOps Azure Cloud AWS Google Cloud Platform CI/CD
ASAP
75 - PARIS
12 mois
Voir la mission

Expert DevOps / Terraform

HashiCorp Terraform DevOps Kubernetes
ASAP
75 - PARIS
6 mois
Voir la mission

PARIS - Expert Cybersécurité

Firewall Sécurité Splunk ISO 2700x Cybersécurité
ASAP
75 - PARIS
6 mois
Voir la mission

PARIS - Consultant DevOps

Jenkins DevOps Ansible Cloud AWS Cybersécurité
ASAP
75 - PARIS
6 mois
Voir la mission

Ingénieur Systèmes DevOps

MongoDB Ansible Kubernetes OpCon
ASAP
75 - PARIS
6 mois
Voir la mission

Développeurs JAVA

Java Spring Boot DevOps Cloud AWS
ASAP
44 - NANTES
12 mois
Voir la mission

Ingénieur DevOps/Intégrateur d’applications

GitLab Azure Kubernetes DevSecOps
ASAP
75 - PARIS
12 mois
Voir la mission

DevOps Engineer

DevOps
ASAP
75 - PARIS
5 mois
Voir la mission
Je trouve ma mission Logstash