Freelance LOGSTASH : Trouvez les talents que vous recherchez

Je dépose une mission gratuitement
Je dépose mon CV

LOGSTASH : une compétence singulière

Logstash est une solution libre qui permet de récupérer des données provenant d'un grand nombre de sources, de les transformer et de les envoyer vers une solution de stockage.
La solution de stockage du même éditeur est Elasticsearch. 

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences d'Oussama,
freelance LOGSTASH habitant le Val-d'Oise (95)

Expérience professionnelle

Crédit agricole group infrastructure platform : Devops bservability
(03/2024 - actuellement).
En tant qu’ingénieur DevOps spécialisé en observabilité, je veille à l’adoption et à
l’usage efficace des outils d’observabilité (Elk, grafana, dynatrace) par les équipes
d’exploitation (Ops) et les maîtrises d’œuvre (MOE), en assurant leur formation et
leur accompagnement. J’administre et garantis le bon fonctionnement de 12
clusters Elasticsearch, en m’assurant de leur performance, leur disponibilité et leur
stabilité. Je conçois et j’automatise les processus d’ingestion des logs dans ces
clusters afin d’assurer une collecte structurée et fiable des données. J’accompagne
également les équipes projet de bout en bout, depuis l’expression de leurs besoins
jusqu’à l’intégration des solutions Elasticsearch adaptées à leurs cas d’usage.
■ Reconfiguration complète de clusters Elasticsearch de production mal dimensionnés pour
l’ingestion de logs applicatifs. Réalisation d’un capacity planning, refonte des index templates
et des stratégies d’indexation. Correction des pipelines Logstash et création de nouveaux
index optimisés, assurant une ingestion fiable, performante et durable des données.
■ Conception et création d’une interface web à destination des équipes Ops et MOE pour
déclarer dynamiquement les clés (le format) de logs. Intégration à une pipeline GitLab CI/CD
automatisée injectant les filtres dans Logstash, générant des merge requests, puis déployant
les configurations dans Elasticsearch via API après validation. Solution full GitOps, traçable et
industrialisée.
■ Développement d’un microservice d’automatisation de la création d’espaces Kibana dédiés
pour chaque application. Génération automatique des espaces, rôles et role mappings,
assurant l’isolation et la sécurisation des logs par application. Solution facilitant la
gouvernance des accès et la lisibilité des données dans l’écosystème observabilité.
■ Déploiement d’une solution d’observabilité pour les pipelines COBOL exécutés via Jenkins et
l’environnement IBM IDz. Automatisation de l’extraction et du retraitement des logs
d’exécution, avec injection dans Elasticsearch. Création de dashboards Kibana clairs et
opérationnels, permettant aux équipes de superviser en temps réel leurs traitements batch
mainframe, de détecter les anomalies et d’optimiser leurs workflows. Mise en visibilité d’un
environnement critique jusqu’ici opaque.
Environnements techniques : Kubernetes, Docker, Argo cd, jfrog artifactory, ELK (Elasticsearch, Logstash, Kibana),
Kafka, Python, Mongodb, HTML, css, JavaScript React Native, Grafana, Dynatrace.

CESI École d’Ingénieurs, Nanterre : Intervenant-formateur externe en
DevOps (2024-2025).
Enseignant DevOps en Master 1 et 2. Contenus pédagogiques enseignés :
■ Architecture cloud native.
■ Infrastructure des systèmes d’information.
■ Stratégie d’hébergement applicatif.
■ Observabilité.

Worldline : Platform Architect (de Janvier 2021 à 2024)
Architecture et construction d’une plateforme de Business monitoring.
Proposition d’architecture, et création de la solution de supervision des
transactions bancaires des clients utilisant les machines carte bleue de Worldline
(Ingenico) et les systèmes de paiement en ligne.
■ Proposition d’une architecture globale de la solution.
■ Réalisation d’une capacity planning.
■ Création d’un script de génération des métriques de supervision (Python).
■ Création des machines Redhat8 pour Kafka, logstash, kibana, grafana,
elasticsearch (Terraform).
■ Création des modules puppet d’installation et de configuration de kafka, logstash,
kibana, grafana, elasticearch, metricbeat, filebeat.
■ Création et automatisation d’un cluster kafka.
■ Création et automatisation d’un cluster elasticsearch.
■ Création de pipelines Logstash pour la récupération et l’injection de données
dans elasticsearch en passant par Kafka.
■ Construction des dashbords de supervision sur Kibana et Grafana.
■ Exposition des dashbords aux clients (grafana, processus réseaux et sécurité,
Haproxy, iptables…)
■ Mise en place des scripts (exporters prometheus) de monitoring de la plateforme (Python)
■ Mise en place des dashbords de monitoring de la plateforme (Grafana avec
prometheus comme datasource)
■ Mise en place du processus de l’alerting sur Pagerduty.
■ Création d’un système de détection des anomalies basé sur des scripts de machine
learning de prédiction des comportements futurs des données. (Python, Pandas,
hotwinter Arima, Sarima…)
■ Création de playbook Ansible de maintenance des machines virtuelles et des
serveurs physiques de la solution.
■ Documentation du projet.
Environnements techniques : suite ELK (Elasticsearch, Logstash, Kibana), Kafka, Python, Perl, Puppet, Grafana,
Prometheus, Terraform, HAproxy, ExaBGP,Ansible, Jira, PostgreSQL, Redhat 8, gitlab

RADèS : Platform Architect (Septembre-Novembre 2021) :
Définition d'une nouvelle architecture du projet sur le cloud d’une plateforme de
supervision RADèS : LIGHTHOUSE
Amélioration de l’infrastructure du projet : migration sur le Cloud AWS
■ Conception et mise en œuvre d'une architecture logicielle d’une solution basée
sur Elasticsearch, déployée sur AWS et gérée par Kubernetes.
■ Utilisation d'Elasticsearch pour le stockage et l'indexation de données, avec une
intégration transparente grâce à Kubernetes et Amazon EKS (Elastic Kubernetes
Service).
■ Dockerisation du code Python existant en utilisant des Dockerfiles, suivi du
déploiement des images résultantes sur Amazon ECR (Elastic Container Registry).
■ Configuration d'un cluster EKS sur AWS pour héberger le système, impliquant la mise
en place d'une VPC, la gestion des rôles IAM et la configuration des groupes de sécurité.
■ Déploiement de l'infrastructure avec Helm, en personnalisant les charts pour
répondre aux exigences spécifiques du projet.
■ Mise en place de la communication entre différentes composantes du système,
assurant un flux de données fluide de l'application Python à Elasticsearch via Logstash.

IBM : Stage en intelligence artificielle (Mars - Août 2021)
Etant donné une base de connaissances (un jeu de donnée RDF) et une classe cible qui est décrite par une
propriété booléenne décrivant l’appartenance à une classe (comme l’acceptation d’un prêt), le but est de générer
un ensemble de règles de la logique permettant de classifier les données de la classe cible. La génération de ces
règles est faite par le système AMIE 3.
Réalisations :
■ Transformation de la base de données : Excel vers base de connaissance, selon
un modèle de graphe.
■ Analyse et catégorisation des données suivant les types : variables discrètes,
variables continues.
■ Développement d’un algorithme en python qui construit des intervalles et qui trouve
des seuils.
■ Enrichissement de la base de connaissance : Développement du modèle de graphe.
■ Utilisation du système AMIE 3 pour la génération des règles.
Environnement technique : Python pour la data science.

Coresponsable d'une chaîne youtube "The Techcave" mettant à disposition des
cours et formations :
▪ Introduction à l'interaction home machine.
▪ Docker container.
▪ Création d'une formation sur la Starck ELK (Elasticsearch logstash Kibana) (en cours)

Voir le profil complet de ce freelance

Les derniers freelances LOGSTASH

CV Expert Data - Chef de projet données et infra Big Data
Aboubakar

Expert Data - Chef de projet données et infra Big Data

  • TOURS
Data Python SQL Java Apache NiFi Talend Microsoft Power BI Apache Hadoop SIG
Disponible
CV Ingénieur système Windows
Jacques Achille

Ingénieur système Windows

  • MONS-EN-BAROEUL
Windows VMware PowerShell SCCM Active Directory Linux Exchange Red Hat Citrix SAN
Disponible
CV Data Engineer - Azure
Zakaria

Data Engineer - Azure

  • SAINT-MAUR-DES-FOSSÉS
SQL Python Apache Spark Databricks Kafka Scala
Disponible
CV Data Engineer Azure/AWS
Ayoub

Data Engineer Azure/AWS

  • BEZONS
Apache Spark Transact SQL Python Azure Data Factory Azure AWS Lambda Databricks PySpark Cloud AWS DevOps
Disponible
CV Administrateur réseaux Active Directory
Othmane

Administrateur réseaux Active Directory

  • TRAPPES
Cisco VMware DNS Active Directory Windows Server 2016 Linux Firewall WiFi Exchange Veeam
Disponible
CV Consultant chef de projet infrastructures/cybersécurité
Aymen

Consultant chef de projet infrastructures/cybersécurité

  • COURBEVOIE
ITIL Agile Project Management Office VMware LAN Windows Cisco Azure Active Directory Datacenter
Disponible
CV Ingénieur de production DEVOPS
Ramzi

Ingénieur de production DEVOPS

  • NANTERRE
DevOps Cloud AWS HashiCorp Terraform Ansible Azure
CV Senior DevSecOps
Nasser

Senior DevSecOps

  • PARIS
DevOps Jenkins GitLab CI/CD Docker Git Cloud AWS Linux Java Kubernetes
Disponible
CV Développeur JAVA
Mokrane

Développeur JAVA

  • COURBEVOIE
Java SQL Server SQL J2EE MySQL Java J2EE Oracle Angular PL SQL JavaScript
Disponible
CV Lead développeur
Yang

Lead développeur

  • SUCY-EN-BRIE
Angular Spring Java Jenkins Oracle Kubernetes Docker Elasticsearch Cloud AWS
Je trouve mon freelance LOGSTASH

Les nouvelles missions LOGSTASH

Expert Observabilité

Elasticsearch SIEM
ASAP
Télétravail
3 mois
Voir la mission

Architecte technique EDR

Proxy ELK Bash Linux
ASAP
93 - Noisy-le-Grand
3 mois
Voir la mission

Architecte DataOps

Python Elasticsearch Ansible Kafka
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur PHP / Symfony

SQL PHP Symfony REST Microservices
ASAP
06 - VALBONNE
6 mois
Voir la mission

Ingénieur Data pour Massy (91)

SQL SAS Python Talend Snowflake
ASAP
91 - MASSY
3 mois
Voir la mission

Data Engineer

Apache Hadoop Apache Spark Python Bash Jenkins
ASAP
75 - Paris
12 mois
Voir la mission

Data Steward Elasticsearch

Elasticsearch Agile ELK
ASAP
75 - Paris
6 mois
Voir la mission

Data Engineer ELASTICSEARCH

Elasticsearch Kibana
ASAP
94 - Charenton le Pont
12 mois
Voir la mission

Expert infrastructure

GPO VMware PowerShell Windows Server 2016
ASAP
75 - Paris
3 mois
Voir la mission

Expert Linux

Linux VMware Keycloak Active Directory
ASAP
12 - Paris
3 mois
Voir la mission
Je trouve ma mission LOGSTASH

Les freelances maîtrisant LOGSTASH ont postulé à :

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

PARIS - Consultant DevOps

Jenkins DevOps Ansible Cloud AWS Cybersécurité
ASAP
75 - PARIS
6 mois
Voir la mission

Ingénieur Systèmes DevOps

MongoDB Ansible Kubernetes OpCon
ASAP
75 - PARIS
6 mois
Voir la mission

Développeurs JAVA

Java Spring Boot DevOps Cloud AWS
ASAP
44 - NANTES
12 mois
Voir la mission

DevOps Engineer

DevOps
ASAP
75 - PARIS
5 mois
Voir la mission

DevSecOps Confirmé

GitLab DevOps Kubernetes Red Hat OpenShift CI/CD
ASAP
Luxembourg
36 mois
Voir la mission

Solution Architect AWS

Cloud AWS
ASAP
75 - PARIS
6 mois
Voir la mission

Expert DevOps (API & Kafka)

DevOps Kubernetes Kafka
ASAP
75 - PARIS
12 mois
Voir la mission

SysOps

Linux DevOps Docker Ansible Kubernetes
ASAP
76 - ROUEN
11 mois
Voir la mission

Architecte Solution Cloud, Data et IA

Data DevOps Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission LOGSTASH