Acg - Consultant cybersécurité IAM
Ref : 200528C001-
75005 PARIS
-
Consultant cybersécurité, Consultant fonctionnel, Consultant technique, Data Scientist (41 ans)
-
Freelance
EXPÉRIENCES PROFESSIONNELLES
Janvier 2020 à ce jour ACG ********
Titre : Consultant Senior Cybersécurité & Chef de projet
Mission :
- Gestion et pilotage des projets Cybersécurité ;
- Chef de projet AMOA / AMOE
- Relecture et validation des dossiers d’architecture technique (DAT)
- Mise en place d’un programme Cybersécurité (ISO 2700x & NIST);
- Management des risques selon la norme ISO 27005 ;
- Audits des cadres légaux et normatifs liés à la sécurité de l’information (ISO 27001 et autres normes
de la famille ISO 2700X, ISO 22301, PCI DSS, etc ...)
- Rédaction de Politique et des procédures de sécurité des systèmes d'information - PSSI (ISO 27002);
- Membre du projet mise en place d’un Systèmes de management de la sécurité de l'information -
SMSI (ISO 27001) ;
- Assurer et implémentation des mesures de sécurité dans les projets ;
- Reporting & Elaboration des tableaux de bord de sécurité KPIs ;
Octobre 2019 à ce jour ACG ********
Titre : Consultant Senior Azure Cloud & Data Scientist
Mission :
- Animation des formations Microsoft : Azure Data Engineer et Data Scientist
- Assurer des prestations de conseil : Mettre en œuvre des solutions de stockage de données,
conception de solutions de traitement des données, gérer les solutions de traitement des
données
- Configurer Azure Active Directory pour les charges de travail
- Configurer la gestion des identités privilégiées Azure AD
- Implémenter la sécurité des serveurs
- Configurer la sécurité des conteneurs
- Implémenter la sécurité du gestionnaire de ressources Azure
- Configurer les politiques de sécurité pour gérer les données
- Configurer la sécurité pour l'infrastructure de données
- Configurer le cryptage pour les données au repos
- Configurer et gérer les secrets dans coffre-fort Azure Key Vault
De Mars 2017 à Septembre 2019 Evolt SARL
Titre : Consultant Senior Azure Data Scientist
Mission :
- Sélectionnez et Configurer l'environnement de développement
- Quantifier la problématique
- Transformer les données brutes en ensembles de données utilisables
- Effectuer une analyse exploratoire des données (EDA)
- Nettoyer et transformer les données
- Effectuer l'extraction des fonctionnalités
- Effectuer la sélection des fonctionnalités
- Identifier les déséquilibres de données
- Entraîner les modèles
- Évaluer les performances des modèles
De 2013 à Février 2017 Luxar Consulting
Titre : Consultant Senior Microsoft Azure Data Engineer
Mission :
- Mettre en œuvre des solutions de stockage de données
- Conception de solutions de traitement des données
- Gérer les solutions de traitement des données
- Développer les solutions de traitement des données
- Surveiller et optimiser les solutions de données
- Concevoir les solutions de stockage de données Azure
- Conception pour la sécurité et la conformité des données
De Décembre 2010 à mai 2013 DEVOTEAM Services
Titre : Architecte Logiciel - Expert .Net
Mission :
- Analyser le besoin des clients Parad
- Concevoir et écrire de nouveaux modules pour le logiciel Parad
- Intégrer les produits logiciels existants et assurer que les plates-formes hétérogènes
fonctionnent ensemble
- Création des spécifications techniques
- Rédaction de la documentation opérationnelle avec les auteurs techniques
- Maintenir l'intégrité et la sécurité du logiciel Parad en surveillant et en corrigeant les défauts
logiciels
- Veille des nouvelles technologies pour améliorer les performances
- Auditer la sécurité des différentes couches du logiciel
De 2007 à Novembre 2010 SSII
Titre : Ingénieur Étude et Développement
Mission :
- Gestion des projets Informatique ;
- Consulting et audit de sécurité ;
- Management des équipes projet;
- Développement de logiciels pour le compte des différents départements
Missions réalisées :
− Refonte de l'architecture du cloud Azure
● Orchestration des politiques Azures pour assurer L'intégrité de l'infrastructure cloud Azure
● Implémentation de Key Vault pour protéger les clés de chiffrement et les autres secrets utilisés par les
services et applications cloud
● Renforcement de la sécurité des données Azure
● Monitoring des rapports DDoS en collaboration avec le support Microsoft Azure
− Modélisation predictive pour une assurance - Détection de comportement anormaux / fraudes
● Récupération et remplacement des valeurs inconnues
● Augmentation des prédicateurs
● Correction de la différence dans la balance entre les catégories
● Exploration des données à l'aide d'azure notebooks et Excel
● Réduction de la dimensionnalité utilisant LDA - Linear discriminant analysis
● Sélection du modèle le plus performant en utilisant Azure AutoML, azure Databricks notebooks, Python
and Spark
● Déploiement du modèle de scoring
− Optimisation du coût du cloud Azure
● Cette analyse a été effectuée pour réduire les coûts du cloud Azure
● Étude et analyse des besoins du client
● Élaboration des recommandations et opportunité pour réduire le coût des ressources
● Implémentation des recommandations après validation et ajustement - réduction de 15% du coût
− Identification des facteurs de risques - Modélisation prédictive pour une assurance
● Modélisation statistique pour identifier les facteurs de risques pouvant affecter les nouveaux adhérents
● Collecte et nettoyage des donnés :
● Augmentation one-hot des dates et prédicateurs catégoriques, formatage et préparation des différentes
variables, utilisant azure Databricks notebooks et azure machine learning studio
● Analyse exploratoire des données,
● Identification des corrélations probables et des points d'optimisation des prédicateurs
● Réduction de la dimensionnalité pour éliminer les variables non influentes pour réduire les perturbations
dans modèle
● Identification du modèle statistique optimal en utilisant Azure Auto ML et Azure Machine learning service
avec Azure Databricks notebooks exécuté sur un cluster Spark sur Cloud Azure
● Tuning des hypers paramètres en utilisant Azure Hyper Drive
● Création du modèle de scoring et déploiement en tant que web service près pour la consommation
● Sécurisation du modèle déployé et gestion des droits d'accès
− Modélisation prédictive des produits potentiels pouvant intéresser les clients en se basant sur
son panier pour le compte du département marketing d'une plateforme e-commerce
● 18% d'augmentation de la valeur du panier moyen et 30% d'augmentation sur le retour sur
investissement ROI après le déploiement du nouveau système de recommandation de produits
● Préparation et nettoyage des données utilisant Pandas data frames et Jupyter notebooks
● Exploration des données et augmentations des variables
● Test de plusieurs modèles statistique Azure Machine Learning Service - Experiments data visualisation
● Réduction des variables PCA analyse de composantes principales
● Sélection du modèle optimal Azure Machine Learning SDK
● Itération en utilisant L'historique des achats du client
● Déploiement du modèle
● A/B Testing des différents modèles en production
− Clustering des profils consommateurs par panier d'achat pour le compte du département
marketing d'une plateforme e-commerce
● Traitement et préparation des donnés d'achats
● Modélisation et choix du nombre optimal de clusters
● A/B testing des hyper paramètres dans l'environnement en production
− Migration du Pipeline Data d'une banque vers Databricks Delta
Migration du pipeline de données vers Apache Spark et Databricks Delta sous le system de fichiers DBFS
DataBricks File system
● Remplacement de l'architecture Lambda par Databricks Delta
● Remplacement du streaming Apache spark - Batch / Interactif processing par Stream Processing mis à jour
en continu au fur et à mesure de l’arrivée des données.
− Ingestion et transformation des données réparties d'une banque vers des tables SGBD Sql Server
● Création du pipeline d'ingestion de données depuis des fichiers de logs vers fichiers azure blob storage puis
vers Sql Server en utilisant Azure Data Factory, databricks notebooks et Python
● Création de pipeline de nettoyage de données utilisant Spark et Databircks
● Analyse et représentations graphiques faites en utilisant azure Databricks notebooks
● ingestion d'une activité de transformation et d'agrégation de données Databricks Notebook dans le pipeline
ADF
− Migration de base de données SQL Server vers Azure SQL Database
● Migration de base de données SQL Server vers Azure SQL Database
● Optimisation des performances de transfert de données pendant la migration
● Migration de l'environnement de dev et de test vers azure sql database à l’aide de l'outil Data migration
assistant.
● Migration des bases de données Sql Server de l'environnement de production en utilisant la réplication
transactionnelle
● Résolution des problèmes de compatibilité de migration de la base de données
− Développement du logiciel de gestion des risques et plans de continuités PARAD
● Langage : ASP.NET / C# / Framework 3.5
● SGBD : SQL SERVER 2008
● 24% d'optimisation du temps de réponse du module gestion de crise pour avoir un accès rapide à l’annuaire
de crise, diffuser rapidement les alertes via email et SMS et suivre les actions à exécuter
● Correction des erreurs dans le code Javascript du diagramme de Gantt dans le module formalisation des
plans de continuité d'activité
● Augmentation de l'intuitivité de l'interface utilisateur du module gestion de scénarios de sinistre et
déduction de cascade d’impacts
● Création du module "tableau de bord et restitutions" en intégrant la visibilité sur l’avancement du plan, des
missions, des recommandations et des plans d’action ainsi que les résultats de tests d’audit
● Développement du module Exécution / Test des plans de continuité dont les interfaces Gestion de scénarios
de sinistre et déduction de la cascade d’impacts, suivi de l’exécution des actions du plan et édition du
compte-rendu.
● Compatibilité de PARAD avec les navigateurs Firefox et Internet Explorer
● Analyse et correction des bugs
− Gestion des demandes des partenaires
● TYPE : Application Web
● LANGAGE: ASP.NET - C# - Framework 3.5
● SGBD : SQL SERVER 2008
● Développement de l'application de gestion des demandes partenaires de l'ONHYM qui a pour objectif
d'augmenter la visibilité sur l'avancement des contrats d'exploitation, d'optimiser le temps de réponse de
la division partenariat et de maximiser la profitabilité long terme du partenaire:
● Développement de l'application
● Formatage et Importation des données à la disposition de la division
● Formation et assistance des utilisateurs dans la saisie des données depuis les contrats et documents
Industrialisation du Workflow des factures au sein de la division des achats,
● TYPE : Application Web
● LANGAGE: PHP
● SGBD : MYSQL
● Analyse et étude du besoin
● Réalisation des maquettes et validation besoin
● Travaux d'Intégration et paramétrage de la solution open source CUTEFLOW
● Réalisation du manuel d'utilisation de l'application
− Gestion de l’activité des CFM
● Analyse, Conception et Développement de l'application
● Type : Application Web
● Langage : ASP.NET - C# - Framework 3.5
● SGBD : SQL SERVER 2008
● Développement des modules:
- Gestion du personnel,
- Gestion des commandes,
- Mouvements du personnel,
- Gestion des opérations dans les chantiers,
- Gestion des outils de forage utilisés,
- Générateur des états Word.
Compétences en Sécurité de l’information
- Gestion et pilotage des projets ;
- Chef de projet AMOA / AMOE
- Évaluation et mise en conformité RGPD ;
- Accompagnement à la mise en place d’un SMSI selon la norme ISO 27001 et d’un plan de continuité
d’activités selon la norme ISO 22301 ;
- Evaluer et sélectionner les mesures de sécurité appropriées conforme aux bonnes pratiques ISO 27002 ;
- Analyse et gestion des risques liés à la sécurité de l’information conformément à l’ISO 27005 ;
- Rédaction de la politique générale et des politiques de domaines de la sécurité (gestion des identités et
contrôle d’accès, gestion des vulnérabilités techniques, classification, sauvegarde, antivirus, …) ;
- Rédaction des dossiers d’architecture ;
- Gestion des projets IAM ;
- Pilotage du processus de gestion des vulnérabilités ;
- Relecture et validation des dossiers d'architecture technique (DAT) ;
- Expertise en sécurité fonctionnelle et organisationnelle ;
- Assistance dans l’élaboration des procédures de sécurité opérationnelle ;
- Sécurité Cloud « AWS & Azure » ;
- Expertise sécurité SCADA ;
- Elaboration des tableaux de bord de sécurité de l’information KPIs ;
- Former et sensibiliser les utilisateurs à la Sécurité de l’information ;
Compétences Techniques
IAM : CyberArk et McAfee
Systèmes d’exploitation : Linux, HP-UX et Windows Server
Gestion des projets : ITIL v3
SGBD : Mysql Server, SQL Seveur
Virtualisation : VMware ESXi : vSphère, Vcenter server, KVM
Chiffrement : BitLocker et Symantec,
Réseaux : LAN, MAN, WAN, VLAN, VPN
Serveur de messagerie : Microsoft Exchange
Secteur d’expertise : Bancaire, télécom, Industriel
Formation & Certifications
• PCI DSS
• PECB ISO/IEC 27001 Lead Implementer
• PECB ISO/IEC 27005 Risk Manager
• RGPD
• ITIL V3
• CyberArck
• Cobit 5
• Prince 2