ELK est une pile logicielle composée de ElasticSearch, Logstash et Kibana.
Expérience professionnelle
EXPERIENCES
CLIENT Chanel
octobre 2022 – aujourd’hui
POSITION Consultant DataOps / Expert ELK / MLOPS
MISSIONS Au sein de l’équipe logmanagement au sein de CHANEL TECH_. Dans une équipe à portée international (6 personnes 3 pays) la mission consistait à mettre à disposition des clients du groupe des outils de log management et D’intelligence artificiel.
• Formation présentation de la plateforme (Dev, support, métiers)
• Mise en place de l’architecture des clusters. (un cluster par continent)
• Administration et support elasticsearch/logstash/kibana/beats.
• Installer / Configurer les serveurs Elastic ,logstash et kibana.via des pipeline DEVOPS ou via azure deops
• Mise en place de l’ILM et gestion des data Stream
• Mise en place de bridge technologique pour acheminé correctement les traces et logs des projets
• Optimisation des environnements d’héritage
• Audits et tests de charge sur les clusters hérités.
• Maintenir à jour la documentation du domaine.
• Mise en place des bonnes pratiques.
• Configuration des output akamai
• Support Splunk.
• Administration et support N3 azure (creation et mco des teraforms et ansibles)
• Mise en place et support des eventhubs
• Mise en place des appinsights
• Développement azure fonctions
• Accompagnement des équipes DEV et OPS pour la mise en production
• Rédaction des documents d'exploitation
• Administration et support service now.
TECHNOLOGIES • ELK, ECE, K8S , Ansible, OpenStack, Terraform, Docker, GIT, GIT CI/CD, MLFLOW, Kubeflow,Chatgpt, openai, Genai,TensorFlow, PyTorch, GPU, Kafka ,Logstash, Filebeat ,Open search ,SSL, TLS,splunk.azure devops,azure function,appinsight
CLIENT Crédit agricole (CAGIP)
Septembre 2021 – Septembre 2022
POSITION Consultant DataOps / Expert ELK / MLOPS
MISSIONS Au sein de l’équipe CLOUDOPS dans le socle natif de CAGIP, dans une équipe à portée nationale (7 personnes 4 ville en France) en mode agile la mission consistait à mettre à disposition des clients du groupe des outils Big Data et Data Science.
• Formation et animation des ateliers techniques (Dev, support, métiers)
• Mise en place de l’architecture des clusters.
• Administration et support ECE.
• Installer / Configurer les serveurs Elastic ,logstash et kibana.via des pipeline DEVOPS ou via ECE
• Mise en place de l’ILM et gestion des data stream
• Optimisation des environnements d’héritage
• Audits et tests de charge sur les clusters hérités.
• Maintenir à jour la documentation du domaine.
• Mise en place des bonnes pratiques.
• Administration et support N3 K8S.
• Mise en place d’une architecture MLOPS (mlflow, kubeflow)
• Utilisation et formation de l’équipe sur la solution MLOPS
• Accompagnement des équipes DEV et OPS pour la mise en production
• Rédaction des documents d'exploitation
• Administration et support confluence/atlassian.
TECHNOLOGIES • ELK, ECE, K8S , Ansible, OpenStack, Terraform, Docker, GIT, GIT CI/CD, MLFLOW, Kubeflow, TensorFlow, PyTorch, GPU, Kafka ,Logstash, Filebeat ,Open search ,SSL, TLS
CLIENT Orange
janvier 2021 Septembre 2021
POSITION Expert Elastic Search / Consultant DataOps
MISSIONS Au sein de la DSI Orange FRANCE,
La mission consistait à mettre à la disposition des projets nationaux et internationaux d’orange des outils Big Data (Hadoop Kafka, ELK…) dans une approche DevOps.
• Mise en place de l’architecture des clusters
• Installer / Configurer les serveurs Elastic via des pipeline DEVOPS.
• Création offres à la carte pour les clients interne à la DSI (déploiement de cluster facturation à l’utilisation)
• Gestion des crises.
• Audit des clusters défaillants
• Création d’une plateforme IAAS
• Migration de diffèrent projet (+100To par projets) :
De Elastic Search V5 à V7
De Elastic Search V5 à Open Distro
De elastic Search V5 à OpenSearch
On premise à GCP
• Optimisation des environnements d’héritage
• Maintenir à jour la documentation du domaine.
• Mise en place des bonnes pratiques.
• Assurer une disponibilité maximale d’ELK, maintenir un niveau de performance élevé et sécuriser les accès aux composants
• Mise en place de Dashboard (kibana) et de la politique machine Learning ELK
• Rédiger et tenir à jour les normes et guides d'utilisations relatifs à son domaine d'expertise
TECHNOLOGIES • ELK, Python, GCP,Open Distro,OpenSearch,OpenStack, Ansible tower, git, SSL, TLS,Go lang, HELM
CLIENT BGL BNP
mars 2020 – Février 2021
POSITION Consultant DataOps
MISSIONS Au sein du département monitoring du de la BGL BNP,
La mission consistait à mettre à la disposition des équipes de Data science et Data Engineering des outils Big Data (Hadoop Kafka, ELK…) dans une approche DevOps.
• Installer / Configurer les serveurs Elastic et l'outillage associé (Logstash, Kibana, Shield, …). Assurer le cycle de vie des différents composants.
• Optimisation des environnements d’héritage
• Maintenir à jour la documentation du domaine.
• Assurer une disponibilité maximale d’ELK, maintenir un niveau de performance élevé et sécuriser les accès aux composants
• Mise en place de Dashboard (kibana) et de la politique machine Learning ELK
•
Faire évoluer les outils et les plate-formes en fonction des besoins projets et des nouvelles technologies à mettre sous contrôle
• Être en support non seulement des équipes d'infrastructure et de production lors des déploiements en test et en production mais aussi aux développeurs sur l'utilisation de l’outil.
• Rédiger et tenir à jour les normes et guides d'utilisations relatifs à son domaine d'expertise
• Collaborer à l'animation d’une communauté d'experts et développeurs et Promouvoir à la diffusion des bonnes pratiques
• Contribuer activement à un projet de mise en place de DEVOPS de la Banque
• Participation à l’élaboration d’un chatbot pour la gestion des incidents.
TECHNOLOGIES • ELK, Python, OpenStack, Ansible tower, git, , PyTorch, GPU, Kafka, Filebeat, SSL, TLS
CLIENT ENEDIS
Octobre 2018 – Mars 2020
POSITION Consultant DataOps
MISSIONS Au sein du pôle LAQ du groupe ENEDIS, dans le projet B4all (équipe de 50 personnes), au sein de l’équipe « Clusters » dédiée à la DataOps pour les différentes BU.
Une équipe de 5 à 7 en Agile Scrum / SAFE
La mission consistait à mettre à la disposition des équipes de Data scientists et Data engineer des outils Big Data (Hadoop Kafka, ELK…) dans une approche DevOps.
• Mise en place des machines (OpenStack, Terraform)
• Installation automatisée de datalabs (Docker, ansible/git, TensorFlow, PyTorch, GPU)
• Installation automatisée de NEO4J (ansible/git)
• Développement des pipelines d'ingestion des données (Kafka, ELK)
• Monitoring (Filebeat, ELK, ControlM)
• Mise en place de la sécurité (TLS sur les différents protocoles neo4j :https,bolt, transaction intra cluster, SSL)
• Mise en place de l’architecture et bonnes pratiques (BigData)
• Accompagnement des équipes DEV pour la mise en production
• Formation et animation des ateliers techniques (Dev, support, métiers)
• Rédaction des documents d'exploitation
• Rédaction des documents d'architecture technique
• Accompagnement des équipes pour la mise en place du support N1 N2 et N3
TECHNOLOGIES • Python, OpenStack, Terraform, Docker, ansible/git, TensorFlow, PyTorch, GPU, Kafka, ELK, Filebeat, ControlM, SSL, TLS
CLIENT Sogeti Lab
Avril 2017 – Août 2018
POSITION Techlead Data Scientist
MISSIONS Le lab de Sogeti est l’entité du groupe qui développe des solutions sur étagères. Il est constitué d’une équipe de 40 personnes qui travaille sur des sujets Data et automation. En méthode Agile et approche DevOps.
Projet #1 : Développement d’un chatbot(Agent conversationnel) avec une équipe de 6 personnes pour la Société Générale
• Recueil du besoin auprès du client (SG)
• Construction du data set (Python)
• Développement du réseau de neurones (LSTM)
• Développement des IHM (User, Admin, Superviseur)
• Conception et développement d’une architecture modulaire (brique de scripting, brique IA…)
• Mise en production en approche DevOps
TECHNOLOGIES • Python, Flask, APIrest, TensorFlow, Django, FastIA, Dialogflow, API.AI, neo4j, git, jenkins
CLIENT Sogeti Lab
Avril 2017 – Août 2018
POSITION Techlead Data Scientist
MISSIONS Projet #2 : Mise à disposition d’un moteur de recherche de données sensibles (médical)
• Construction du data sets (Collecte, traitement, préparation Importation, mise en relation, classification des données)
• Réalisation d’un POC moteur de recherche RDF (Resource Description Framework : le langage de base du Web sémantique qui permet de faire des recherches en graphes sous neo4j)
TECHNOLOGIES • python, sparql, neo4j, scala , kafka streaming
CLIENT Sogeti Lab
Avril 2017 – Août 2018
POSITION Techlead Data Scientist
MISSIONS Projet #3 : Mise en place et gestion d’un cluster hadoop et gestion de flux de données en streaming sous Hortonworks sur Microsoft azure.
• Mise en place des machines (Azure)
• Installation automatisée (blueprint, Ansible, git)
• Sécurisation des flux I/O (TLS)
• Développement de pipelines d'ingestion de données (Kafka)
• Monitoring (ELK)
TECHNOLOGIES • Azure, HDP, Kafka, ELK