Expérience professionnelle
Janvier 2020- Aujourd’hui
NATIXIS- Paris
Responsable Opérationnel SOC SSI
• Pilotage de l’équipe du SOC (10 Collaborateurs)
• Gestion des alertes de sécurité
• Superviser les contrôles de N1 et N2 effectués sur Splunk
• Prise en charge des nouveaux scénarios de détection sur Splunk (Définition, développement,
qualification, déploiement et documentation)
• Mise en place de Scenarios de DLP (Mail, Web, Application métier sensible…)
• Gérer la pertinence des évènements corrélés et des alertes générées par Splunk
• Réalisation d’enquêtes
• Proposer un plan d'amélioration sur les moyens de détection en place
• Revoir les processus de gestion des incidents de sécurité
• Piloter les comités de suivi avec les RSSI et la DSI
• Fournir un rapport sécurité mensuel conforme aux attentes des RSSI
• Assistance Utilisateur : Bonnes pratiques pour l’optimisation de recherches et
accompagnement dans le développement de tableaux de bord et création de
recherches accélérées (data model acceleration,summary indexing …)
• Création de tableaux de bords complexes avec filtrage en fonction du rôle de l’utilisateur
• Intégration de Centreon dans SPLUNK et remonter les alertes dans des tableaux de bords
• Revue de l’architecture Splunk (passage de cluster de 12 indexeurs à 24
indexeurs)
• Supervision et maintenance de la plateforme Splunk
• Intégration SPLUNK ES ( Splunk Entreprise Security)
Juin 2018-Décembre 2019
SOCIETE GENERALE - Paris
Architecte SPLUNK- SOC
• Mise en place de la plateforme SPLUNK pour des uses cases de sécurité
• Mise en place d’un Cluster sur les instances d’Indexer
• Revue de l’architecture Splunk (passage de cluster de 12 indexeurs à 24
indexeurs)
• Mise en place d’un déploiement server
• Activation de l’authentification des utilisateurs SPLUNK via leLDAP
• Configuration du Syslog pour la collecte de donnée vers Splunk
• Collecte de metrics et logs depuis Shinken, Unicron (CMDB),N agios
• Développement de Uses cases en Capacity planning Infra et sécurité
• Développements de Rapport et Dashboard avancé
• Définition des solutions de stockage et la structuration des données (Stockage en S3)
• Déploiement du dbconnect pour collecter les données d'une base de données externe
vers l'outil Splunk
• Déploiement du Module ITSI, IT Service Intelligence pour la maintenance
prédictive
• Remonter les alertes Nagios dans ITSI
• Monitoring avec Gafana et développement de plugins
• Développement du toolkit machine learning
• Assister les équipes sur splunk dans la maintenance de tableaux de bord en
production
• Former l’équipe de sécurité aux recherches complexes et aux modules de splunk
Fevrier 2017-Mai 2018
Dexia Banque -Paris
Administrateur BIG DATA
Planifier, configurer, déployer, run, monitor, troubleshoot et sécuriser les clusters HADOOP,ELK
• Définition de l’architecture physique et applicative d’un cluster Hadoop multi
environnement logiques (REC, DEV, PRD)
• Automatisation d’installation des composants Hadoop (HWX) via Ansible
• Activation de la haute disponibilité sur tous les services critiques (HDFS, YARN, Hive)
• Intégration des composants à l’active directory d'entreprise
• Activation de la sécurité Hadoop via SSL et authentification Kerberos
• Remontée des logs applicatives dans un ELK
• Gestion des habilitations centralisées via Ranger
• Support aux datascientists utilisant Zeppelin (interpreter Scala, python, R)
• Administration du cluster Kafka pour une application de transactions bancaires
(définitions des topics, nombre de partitions/producers/consommateurs)
• Throubleshooting et optimisation des jobs Spark
Novembre 2015-Janvier 2017
SOCIETE GENERALE - Paris
Responsable de la plateforme Splunk
Utilisation du BIG DATA pour lutte contre la cyber-criminalité (Phishing, Virus,
lngénierie Sociale)
• Administration de la plateforme BIG DATA Splunk:
• Gestion des indexs, Amélioration de l'interface d'investigation, Optimisation des
requêtes, Création des rapports et Dashboard
• Définition des solutions de stockage et la structuration des données.
• Collection des données d'une base de données externe vers l'outil Splunk via
dbconnect, forwarders.
• Mise en place de nouvelles règles de sécurité
• Optimisation des requêtes pour réduire le temps de réponse des Dashboards, des
Stats
• Proposition des scénarios prédictifs des comportements de fraudeurs et garantir la
modélisation statistique des données.
• Déploiement du Module IT Service Intelligence
• Développement du toolkit machine learning
• Mise en place de IBM Security Trusteer Rapport pour lutter contre les chevaux de
troie
• Déploiement et industrialisation de cluster Hadoop
Septembre 2017-Aujourd'hui
DEXIA BANQUE- Paris
Consultant Expert SPLIJNK
Implémentation, Configuration et Administration de Splunk
⦁ Maintien en condition opérationnelle de l’infrastructure de sécurité
⦁ Déploiement et industrialisation de cluster Hadoop
⦁ Traitements MapReduce
Novembre 2015-Septembre 2017
SOCIETE GENERALE - Paris
Consultant DATA ENGINEER
Utilisation du BIG DATA pour lutte contre la cyber-criminalité (Phishing, Virus,lngénierie Sociale)
⦁ Administration de la plateforme BIG DATA Splunk: Gestion des indexs, Amélioration de l'interface d'investigation, Optimisation des requêtes, Création des rapports et Dashboard
⦁ Définition des solutions de stockage et la structuration des données.
⦁ Collection des données d'une base de données externe vers l'outil Splunk via dbconnect, forwarders.
⦁ Mise en place de nouvelles régles de sécurité
⦁ Optimisation des requêtes pour réduire le temps de réponse des Dashboards, des Stats
⦁ Proposition des scénarios prédictifs des comportements de fraudeurs et garantir la modélisation statistique des données.
⦁ Mise en place de IBM Security Trusteer Rapport pour lutter contre les chevaux de troie
Avril-Septembre 2015
BNP PARIBAS PERSONAL FINANCE - Paris
Stage de fin d'Etudes
Sujet: Prototypage et Analyse des technologies BigData
⦁ Analyse et Prototypage ELK (Logstash,Elasticsearch,Kibana,shield et marvel)
⦁ Réalisation de la pile de traitement ELK,documentation de la topologie et configurations inputs/filtres/output
⦁ Analyse et modélisation des besoins utilisateurs en recherche,visualisation,reporting
⦁ Collecte des données, Filtrage des données avec logstash et indexation dans Elasticsearch
⦁ Intégration de Spark de la distribution HortonWorks
⦁ Mise en place de L'outil SmartCloud Log Analytics "SCALA" d'IBM
Février-Juin 2014
GROUP INOV- RABAT
Stage de fin d'Etudes
Sujet: Mise en place d'un outil d'intelligence opérationnel au niveau d'un opérateur Telecom
⦁ Etude du besoin de l'opérateur et rédaction du cahier de charges
⦁ Etude des différentes solutions d'intelligence opérationelle
⦁ Gestion centralisée de fichiers logs (CDRs, Syslog, log4j..) et gestion des alertes (via email,RSS,SNMP)
⦁ Reporting puissant et analytiques (Création de rapports personnalisés et des Dashboards)
⦁ Mise en place de l'outil SPLUNK
Septembre 2017-Aujourd'hui
DEXIA BANQUE- Paris
Consultant Expert SPLIJNK
Implémentation, Configuration et Administration de Splunk
⦁ Maintien en condition opérationnelle de l’infrastructure de sécurité
⦁ Déploiement et industrialisation de cluster Hadoop
⦁ Traitements MapReduce
Novembre 2015-Septembre 2017
SOCIETE GENERALE - Paris
Consultant DATA ENGINEER
Utilisation du BIG DATA pour lutte contre la cyber-criminalité (Phishing, Virus,lngénierie Sociale)
⦁ Administration de la plateforme BIG DATA Splunk: Gestion des indexs, Amélioration de l'interface d'investigation, Optimisation des requêtes, Création des rapports et Dashboard
⦁ Définition des solutions de stockage et la structuration des données.
⦁ Collection des données d'une base de données externe vers l'outil Splunk via dbconnect, forwarders.
⦁ Mise en place de nouvelles régles de sécurité
⦁ Optimisation des requêtes pour réduire le temps de réponse des Dashboards, des Stats
⦁ Proposition des scénarios prédictifs des comportements de fraudeurs et garantir la modélisation statistique des données.
⦁ Mise en place de IBM Security Trusteer Rapport pour lutter contre les chevaux de troie
Avril-Septembre 2015
BNP PARIBAS PERSONAL FINANCE - Paris
Stage de fin d'Etudes
Sujet: Prototypage et Analyse des technologies BigData
⦁ Analyse et Prototypage ELK (Logstash,Elasticsearch,Kibana,shield et marvel)
⦁ Réalisation de la pile de traitement ELK,documentation de la topologie et configurations inputs/filtres/output
⦁ Analyse et modélisation des besoins utilisateurs en recherche,visualisation,reporting
⦁ Collecte des données, Filtrage des données avec logstash et indexation dans Elasticsearch
⦁ Intégration de Spark de la distribution HortonWorks
⦁ Mise en place de L'outil SmartCloud Log Analytics "SCALA" d'IBM
Février-Juin 2014
GROUP INOV- RABAT
Stage de fin d'Etudes
Sujet: Mise en place d'un outil d'intelligence opérationnel au niveau d'un opérateur Telecom
⦁ Etude du besoin de l'opérateur et rédaction du cahier de charges
⦁ Etude des différentes solutions d'intelligence opérationelle
⦁ Gestion centralisée de fichiers logs (CDRs, Syslog, log4j..) et gestion des alertes (via email,RSS,SNMP)
⦁ Reporting puissant et analytiques (Création de rapports personnalisés et des Dashboards)
⦁ Mise en place de l'outil SPLUNK