EXPÉRIENCES PROFESSIONNELLES
Mars 2020 à ce jour : ACG ********
Janvier 2022 à ce Jour Enedis
Titre : Architecte Cyber sécurité & Security Champion
- Participation à la mise en place des politiques de sécurité informatique
- Prendre en charge et suivre les alertes de sécurité
- Faire évoluer les règles de sécurité des systèmes d'information
- Gérer au quotidien la sécurisation de l'infrastructure : Analyse de vulnérabilité, suivi des
vulnérabilités, incidents de sécurité
- Apporter un appui technique sur les projets de sécurisation des systèmes d'informations
- Contribution projets : Accompagnement de la sécurité dans les projets
- Sensibilisation et formation des développeurs
- Rédaction des rapports d'activités
Janvier 2020 à ce jour ACG ********
Titre : Consultant Senior Cybersécurité & Chef de projet
Mission :
- Gestion et pilotage des projets Cybersécurité
- Chef de projet AMOA / AMOE
- Relecture et validation des dossiers d’architecture technique (DAT)
- Mise en place d’un programme Cybersécurité (ISO 2700x & NIST)
- Management des risques selon la norme ISO 27005
- Audits des cadres légaux et normatifs liés à la sécurité de l’information (ISO 27001 et autres normes
de la famille ISO 2700X, ISO 22301, PCI DSS, etc ...)
- Rédaction de Politique et des procédures de sécurité des systèmes d'information - PSSI (ISO 27002)
- Membre du projet mise en place d’un Systèmes de management de la sécurité de l'information -
SMSI (ISO 27001)
- Assurer et implémentation des mesures de sécurité dans les projets
- Reporting & Elaboration des tableaux de bord de sécurité KPIs
Octobre 2019 à ce jour ACG ********
Titre : Consultant Senior Azure Cloud & Data Scientist
Mission :
- Animation des formations Microsoft : Azure Data Engineer et Data Scientist
- Assurer des prestations de conseil : Mettre en œuvre des solutions de stockage de données,
conception de solutions de traitement des données, gérer les solutions de traitement des
données
- Configurer Azure Active Directory pour les charges de travail
- Configurer la gestion des identités privilégiées Azure AD
- Implémenter la sécurité des serveurs
- Configurer la sécurité des conteneurs
- Implémenter la sécurité du gestionnaire de ressources Azure
- Configurer les politiques de sécurité pour gérer les données
- Configurer la sécurité pour l'infrastructure de données
- Configurer le cryptage pour les données au repos
- Configurer et gérer les secrets dans coffre-fort Azure Key Vault
De Mars 2017 à Septembre 2019 Evolt SARL
Titre : Consultant Senior Azure Data Scientist
Mission :
- Sélectionnez et Configurer l'environnement de développement
- Quantifier la problématique
- Transformer les données brutes en ensembles de données utilisables
- Effectuer une analyse exploratoire des données (EDA)
- Nettoyer et transformer les données
- Effectuer l'extraction des fonctionnalités
- Effectuer la sélection des fonctionnalités
- Identifier les déséquilibres de données
- Entraîner les modèles
- Évaluer les performances des modèles
De 2013 à Février 2017 Luxar Consulting
Titre : Consultant Senior Microsoft Azure Data Engineer
Mission :
- Mettre en œuvre des solutions de stockage de données
- Conception de solutions de traitement des données
- Gérer les solutions de traitement des données
- Développer les solutions de traitement des données
- Surveiller et optimiser les solutions de données
- Concevoir les solutions de stockage de données Azure
- Conception pour la sécurité et la conformité des données
De Décembre 2010 à mai 2013 DEVOTEAM Services
Titre : Architecte Logiciel - Expert .Net
Mission :
- Analyser le besoin des clients Parad
- Concevoir et écrire de nouveaux modules pour le logiciel Parad
- Intégrer les produits logiciels existants et assurer que les plates-formes hétérogènes
fonctionnent ensemble
- Création des spécifications techniques
- Rédaction de la documentation opérationnelle avec les auteurs techniques
- Maintenir l'intégrité et la sécurité du logiciel Parad en surveillant et en corrigeant les défauts
logiciels
- Veille des nouvelles technologies pour améliorer les performances
- Auditer la sécurité des différentes couches du logiciel
De 2007 à Novembre 2010 SSII
Titre : Ingénieur Étude et Développement
Mission :
- Gestion des projets Informatique
- Consulting et audit de sécurité
- Management des équipes projet
- Développement de logiciels pour le compte des différents départements
Missions réalisées :
− Refonte de l'architecture du cloud Azure
● Orchestration des politiques Azures pour assurer L'intégrité de l'infrastructure cloud Azure
● Implémentation de Key Vault pour protéger les clés de chiffrement et les autres secrets utilisés par les
services et applications cloud
● Renforcement de la sécurité des données Azure
● Monitoring des rapports DDoS en collaboration avec le support Microsoft Azure
− Modélisation predictive pour une assurance - Détection de comportement anormaux / fraudes
● Récupération et remplacement des valeurs inconnues
● Augmentation des prédicateurs
● Correction de la différence dans la balance entre les catégories
● Exploration des données à l'aide d'azure notebooks et Excel
● Réduction de la dimensionnalité utilisant LDA - Linear discriminant analysis
● Sélection du modèle le plus performant en utilisant Azure AutoML, azure Databricks notebooks, Python
and Spark
● Déploiement du modèle de scoring
− Optimisation du coût du cloud Azure
● Cette analyse a été effectuée pour réduire les coûts du cloud Azure
● Étude et analyse des besoins du client
● Élaboration des recommandations et opportunité pour réduire le coût des ressources
● Implémentation des recommandations après validation et ajustement - réduction de 15% du coût
− Identification des facteurs de risques - Modélisation prédictive pour une assurance
● Modélisation statistique pour identifier les facteurs de risques pouvant affecter les nouveaux adhérents
● Collecte et nettoyage des donnés :
● Augmentation one-hot des dates et prédicateurs catégoriques, formatage et préparation des différentes
variables, utilisant azure Databricks notebooks et azure machine learning studio
● Analyse exploratoire des données,
● Identification des corrélations probables et des points d'optimisation des prédicateurs
● Réduction de la dimensionnalité pour éliminer les variables non influentes pour réduire les perturbations
dans modèle
● Identification du modèle statistique optimal en utilisant Azure Auto ML et Azure Machine learning service
avec Azure Databricks notebooks exécuté sur un cluster Spark sur Cloud Azure
● Tuning des hypers paramètres en utilisant Azure Hyper Drive
● Création du modèle de scoring et déploiement en tant que web service près pour la consommation
● Sécurisation du modèle déployé et gestion des droits d'accès
− Modélisation prédictive des produits potentiels pouvant intéresser les clients en se basant sur
son panier pour le compte du département marketing d'une plateforme e-commerce
● 18% d'augmentation de la valeur du panier moyen et 30% d'augmentation sur le retour sur
investissement ROI après le déploiement du nouveau système de recommandation de produits
● Préparation et nettoyage des données utilisant Pandas data frames et Jupyter notebooks
● Exploration des données et augmentations des variables
● Test de plusieurs modèles statistique Azure Machine Learning Service - Experiments data visualisation
● Réduction des variables PCA analyse de composantes principales
● Sélection du modèle optimal Azure Machine Learning SDK
● Itération en utilisant L'historique des achats du client
● Déploiement du modèle
● A/B Testing des différents modèles en production
− Clustering des profils consommateurs par panier d'achat pour le compte du département
marketing d'une plateforme e-commerce
● Traitement et préparation des donnés d'achats
● Modélisation et choix du nombre optimal de clusters
● A/B testing des hyper paramètres dans l'environnement en production
− Migration du Pipeline Data d'une banque vers Databricks Delta
Migration du pipeline de données vers Apache Spark et Databricks Delta sous le system de fichiers DBFS
DataBricks File system
● Remplacement de l'architecture Lambda par Databricks Delta
● Remplacement du streaming Apache spark - Batch / Interactif processing par Stream Processing mis à jour
en continu au fur et à mesure de l’arrivée des données.
− Ingestion et transformation des données réparties d'une banque vers des tables SGBD Sql Server
● Création du pipeline d'ingestion de données depuis des fichiers de logs vers fichiers azure blob storage puis
vers Sql Server en utilisant Azure Data Factory, databricks notebooks et Python
● Création de pipeline de nettoyage de données utilisant Spark et Databircks
● Analyse et représentations graphiques faites en utilisant azure Databricks notebooks
● ingestion d'une activité de transformation et d'agrégation de données Databricks Notebook dans le pipeline
ADF
− Migration de base de données SQL Server vers Azure SQL Database
● Migration de base de données SQL Server vers Azure SQL Database
● Optimisation des performances de transfert de données pendant la migration
● Migration de l'environnement de dev et de test vers azure sql database à l’aide de l'outil Data migration
assistant.
● Migration des bases de données Sql Server de l'environnement de production en utilisant la réplication
transactionnelle
● Résolution des problèmes de compatibilité de migration de la base de données
− Développem...