Expérience professionnelle
Ingénieur CLOUD AZURE / DEVOPS
AIR FRANCE|Paris|Juil. 2024 – Sep 2025
Contexte : Le projet (DMTC) visait à migrer plusieurs applications depuis
cloud On-premise (OVH) vers Microsoft Azure pour bénéficier de
services managés, améliorer la résilience et réduire les coûts
opérationnels.
Analyse de l'infrastructure existante (code, bases de données, fichiers,
dépendances) pour évaluer les besoins et les dépendances.
Définition et mise en œuvre de l'architecture cible sur Microsoft Azure en
respectant les meilleures pratiques (sécurité, scalabilité, coût).
Développement de fichiers Terraforma pour provisionner des ressources
Azure telles que : Réseau : Virtual Network, Subnets, Network Security
Groups (NSG).
Compute : App Services, Azure Kubernetes Service (AKS), ACR.
Base de données : Azure SQL Database, Cosmos DB, Storage Accounts.
Configuration des états Terraform dans un Azure Blob Storage sécurisé
pour le suivi des infrastructures.
Utilisation d'Azure DevOps et GitHub Actions pour automatiser le
déploiement de l'infrastructure via des pipelines CI/CD.
Mise en place et administration d'un cluster AKS ( Azure Kubernetes
Service) .
Sécurisation du cluster via Azure AD RBAC, Network Policies et Azure
Key Vault.
Créer et gérer des ressources Kub comme les Pods, Services,
Deployments, ConfigMaps, Secrets, etc.
Migration des données et validation de l'intégrité des services après le
déploiement.
Optimisation des performances post-migration et surveillance avec
Azure Monitor et Application Insights.
Collaboration avec les équipes de développement pour adapter les
applications à l'environnement cloud.
Environnement technique : Azure, Ansible, Terraform, Packer, Azure
DevOps, Azure App Services, Azure Kubernetes Service, Git, Bash, shell,
CentOS.
Ingénieur DEVOPS / S R E
SOCIETE GENERALE | Paris | Mai 2020 - Juil. 2024
Contexte : - Mettre en place et industrialisation des pipelines CI/CD pour
les différents projets de l'entité ITIM afin d'assurer le déploiement
automatique des applications sur les environnements DEV, HOMOL et
PROD.
- Mettre en œuvre un POC sur AWS pour démontrer la faisabilité technique
et préparer le terrain pour un déploiement à plus grande échelle.
- Gestion, maintenir et support de la plateforme de prod BIGDATA
(Hortonworks & Cloudera).
Développer des Roles ansible pour l'automatisation la création des
enveloppes (GITHUB, JENKINS, AWX…).
Conception et mise en œuvre des pipelines CI/CD via Jenkins pour
automatiser les étapes de build, tests, packaging, et déploiement.
Configuration et exploitation de SonarQube pour analyser la qualité du
code, détecter les vulnérabilités et appliquer des règles de sécurité.
Gestion des artefacts applicatifs via Nexus Repository.
Automatisation des déploiements sur les différents environnements en
développant des playbooks Ansible pour uniformiser les processus et
réduire les délais d'intervention.
Écriture de Playbook Ansible & scripts Shell pour automatiser les tâches
d'exploitation et les processus de maintenance (sauvegardes, monitoring,
etc.).
Refonte et développement de workflows GitHub Actions en remplaçant
les fonctionnalités Jenkins pour gérer le build, les tests unitaires et
fonctionnels, le packaging, ainsi que le déploiement continu.
Mise en place d'un monitoring avancé ELK pour superviser les pipelines
GitHub Actions et Jenkins.
POC DevOps AWS : Mise en place d'un environnement AWS sécurisé dans
le cadre de la migration d'applications vers le AWS.
Mise en place d'infrastructures IaC avec Terraform (VPC, EC2, S3, RDS,
ALB, IAM )
Migration d'une application pilote spark/scala vers AWS, incluant
l'adaptation des configurations et l'optimisation des ressources cloud.
Création et gestion d'une pipeline CI/CD via Github Action pour le
déploiement automatisé de l'applications conteneurisées sur EKS.
Intégration des outils de surveillance CloudWatch pour assurer la
disponibilité, les performances et la gestion des alertes sur les
environnements de production.
Analyse des coûts et des performances du POC, avec la présentation des
résultats et des recommandations pour l'industrialisation.
Build & Run ( Platforme BIGDATA CLOUDERA ):
Effectuer le Morning-Check quotidien et Communiquer sur Alertes.
Superviser et monitorer l'infrastructure de prod ( KAFKA, HDFS, ELASTIC
, COUCHEBASE …. ).
Traitement des incidents de niveau 2 et 3 (pannes de nœuds, perte de
blocs HDFS, saturation des queues YARN, …)
Analyse des goulets d'étranglement et tuning des configurations
(mémoire, CPU, partitions, etc.) pour améliorer les temps de traitement et
la scalabilité.
Astreintes mensuelles sur des chaines critiques prod.
Gestion et création des fiches Control M .
Mise en production (MEP) des projets/applications.
Attribution des autorisations et des niveaux de permissions aux
différents utilisateurs des technologies utilisées .
Mise en place des collectes de données via TOM.
Mise en place un système de monitoring, de supervision et d'alerting
ELK, pour surveiller les métriques des clusters (latence, throughput,
utilisation des ressources).
Analyse proactive des logs système et des tâches Spark ou Hadoop pour
prévenir les incidents.
Installation et déploiement du cluster COUCHBASE via Playbooks /
Roles ansible.
Mise en place du connecteur Elasticsearch Couchbase afin d'assurer la
réplication des données en temps réel
Configuration des XDCR pour la synchronisation entre Couchbase et
Elasticsearch
Environnement Technique : Linux, GitHub, GitHub Actions, Jenkins,
SonarQube, Nexus, Ansible AWX, Shell, Docker, Kubernetes, ELK,
Terraform, Cloudera, Hadoop, Ranger, Control-M, Kafka, Ambari, Hdfs,
couchbase , Nginx HDFS, Yarn , AWS, EKS , CloudWatch
Ingénieur Devops & Cloud AWS
OLCYA | Paris | Janv. 2020 - Juin 2020
Contexte: L'objectif du projet ScaleOne est de concevoir et d'implémenter
un système d'auto-scaling sur AWS capable d'ajuster automatiquement
les ressources en fonction de la charge applicative tout en optimisant les
coûts opérationnels.
Analyse des besoins pour gérer les variations de charge applicative lors
des périodes de pics de trafic.
Création d'images customisées AMI avec Packer intégrant les prérequis
logiciels (Java, python, etc.).
Automatisation du déploiement des clusters avec Ansible, comprenant
l'installation des composants HDFS, YARN, Spark et Kafka.
Mise en place d'infrastructures IaC avec Terraform (VPC, EC2, S3, RDS,
ALB, IAM ) avec des groupes Auto Scaling pour une montée en charge
dynamique.
Application Load Balancer (ALB) pour la répartition du trafic.
Intégration d'Amazon RDS pour la base de données et S3 pour le
stockage des ressources statiques.
Mise en place de politiques d'auto-scaling basées sur des métriques
CloudWatch (CPU, mémoire, etc.).
Utiliser des outils comme Apache JMeter pour simuler des charges
massives.
Ajuster les seuils et les tailles minimales/maximales d'instances si
nécessaire.
Déploiement de la stack ELK pour centraliser et analyser les logs du
cluster HDP.
Collecte des logs de scaling (AWS Auto Scaling, CloudWatch) et des logs
applicatifs via Filebeat et Logstash.
Visualisation en temps réel des événements de scaling dans Kibana
(nombre d'instances actives, délais de scaling).
Environnement Technique: AWS (EC2, Auto Scaling Groups, S3,
CloudWatch, ALB), Hortonworks Data Platform (HDFS, YARN, Spark,
Kafka), ELK (Elasticsearch, Logstash, Kibana, Filebeat), Packer, Ansible,
Terraform, Apache JMeter
Data Engineer
ORANGE BUSINESS SERVICES | Paris | Janv. 2018 - Janv. 2020
Contexte: Maintenir une infrastructure Big Data ( Hortonworks & CDP )
robuste, évolutive et sécurisée pour supporter des volumes massifs de
données (plusieurs pétaoctets) tout en répondant aux besoins d'analyse en
temps réel des équipes métiers.
Analyse des besoins pour gérer les variations de charge applicative lors
des périodes de pics de trafic.
Accompagnement à l'upgrade de version Spark à l'aide de Playbook
Ansible.
Résolution d'incident sur la plateforme (mauvais paramétrage dev,
mauvaise utilisation de queue Yarn...).
Gestion d'incidents tous niveaux sur les clusters Hadoop.
Automatisation des tâches (Scripting, Ansible).
Résolution d'incident sur l'intégration de flux externes.
Gestion des entrées LDAP de la partie BigData.
Capitalisation de la connaissance de l'équipe sur la technologie Data.
Développement et déploiement des nouveaux services Spark / Hadoop
(monitoring, sécurité...).
Automatisation des déploiements mutualisés ou projet par projet avec
Ansible.
Support aux projets client qui utilisent cette technologie (clusters
importants de plus de 50 nœuds cluster partagé entre projets client).
Accompagnement client pour la mise en place de nouveaux cas d'usage
utilisant ces technologies.
Automatisation des JOB SPARK avec Oozie (Workflow, Coordinateur).
Techlead ELK : Concevoir et déployer une solution centralisée basée sur la
stack ELK (Elasticsearch, Logstash, Kibana) pour collecter, analyser et
visualiser les données de logs et métriques, tout en améliorant la visibilité
opérationnelle et la détection des anomalies.
Environnement Technique : RedHat, Centos, Hadoop, Ambari, HDFS,
YARN, Spark, Hive, Elasticsearch, Logstash, Kibana, SHELL, XPACK,
AWS
Data Engineer
STARTUP | Paris | Août 2016 - Janv. 2018
Contexte: Développer une solution intelligente innovante qui fait matcher
et qualifie les CV avec les appels d'offre.
Participation à l'architecture de la solution.
Mise en place et configuration du cluster hadoop.
Mise en place et configuration du cluster couchbase.
Mise en place et configuration du cluster elasticsearch & opensearch.
Mise en place d'un environnement de développement Spark avec Scala.
Développement d'un algorithme IA pour l'analyse des CV.
Ingestion des évènements dans KAFKA.
Automatisation des déploiement et planification d...