Souhaib - Consultant technique UNIX
Ref : 200924A001-
92110 CLICHY
-
Consultant technique, DevOps (30 ans)
-
Freelance
EXPERIENCES PROFESSIONNELLES
Nov. 2019 –
En cours
ACOSS (Agence Centrale des Organismes de Sécurité Sociale) / MOE Big
Data-Paris
Consultant Big Data Ops (mission réalisée pour le compte de GFI)
Au sein de l’équipe MOE Big Data en charge du projet DSN et Agirc Arrco qui a pour but de collecter et
traiter des données DSN (données sociales nominatives), alimenter HBase et Hive, et calculer les réductions
de cotisation des entreprises et des individus :
● Déploiement des applications Big Data via HAdeploy.
● Utilisation des dockers pour la phase des tests des applications.
● Automatisation des déploiements via Jenkins.
● Choix des configurations hardware des serveurs.
● Rédaction du document d’architecture technique DAT.
● Migration de données d’un cluster Cloudera vers un cluster hortonworks.
● Administration des clusters (confidentialité, sécurité et gestion des ressources).
Environnement technique : HDP 3.1, HAdeploy, hbase, hive , Jenkins , docker, bash, Ansible,
Kerberos..
Avril. 2019 –
Octobre 2019
7 mois
ACOSS (Agence Centrale des Organismes de Sécurité Sociale) / (Sousdirection de l’Architecture Technique)
Consultant Administrateur/Architecte Big Data (mission réalisée pour le compte de Gfi)
Au sein de la sous-direction de l’architecture technique qui met à disposition les plateformes
Hadoop pour les équipes MOE :
● Mise en place de deux clusters HDP 3.1 et HDF 3.3.1 via Ansible/Blueprint.
● Audit technique des environnements déjà mis en place.
● Mise en place d’une stratégie de rollback sur les logs d’audits.
● Configuration et tunning de différents composants Hadoop.
● Commission/ décommision des noeuds physiques.
● Snapchot des machines virtuelles via VSphere.
● Support des incidents sur le stack Hortonworks HDP, HDF.
● Chiffrement sur HDFS avec Ranger KMS.
● Sécurisation de la solution Nifi sur HDF (authentification, autorisation).
● Patch Zeppelin et test de Notebook.
● Développement de workflows Nifi (pour tester les performances serveurs). Environnement
technique : Hortonworks HDP/HDF, Ranger KMS, Kerberos/LDAP, Ansible, Zeppelin, Hive LLAP,
Nifi, Centos 7, Vsphere.
Mars 2018 –
Mars 2019
1 ans
Gfi
Consultant Big Data (Stage de fin d’étude puis CDI à partir de Septembre 2019)
Au sein de l’équipe Big Data Gfi qui était en charge de la mise en place d’un système d’exploitation de
données :
● Scripting python pour relever les métriques systèmes.
● Montage d’un cluster sur le Cloud privé via Open Nebula.
● Installation Cloudera, Hortonworks via ansible.
● Mise en place et Administration d’un cluster Elasticsearch dédié aux logs et
métriques.
● Développement de pipeline d’alimentation d’elasticsearch via python (ETL)
● Benchmarking du cluster via des Teragen et des Terasort.
● Visualisation de la donnée via Kibana.
Environnement technique : Cloudera, Kibana, python, Elasticsearch, Open Nebula.
Janv. 2017 –
Mars 2017
3 mois
SETEC IS
Dans le cadre d’un projet de fin d’étude, j’étais en charge de la réalisation d’un Benchmark des outils du
marché pour la mise en place d’une plateforme Big Data pour la collecte et l’analyse des données dans le
domaine du numérique éducatif pour des usages innovants
● Recueil des besoins et à la spécification des traitements à mettre en œuvre.
● Benchmark des solutions disponibles sur le marché (Google Analytics, AT Internet/XiTi,PiWik
par ex.)Environnement technique : Google Analytics, RStudio.
COMPRETENCES
Compétences Techniques
Programmation Python, Java, Script Shell, Yaml
Web HTML/CSS, XML, JavaScript, PHP
Big Data Hadoop/HDFS/Yarn Kafka
Spark, Spark Streaming, Spark SQL
Cloud AWS (certification en cours)
Base de données SQL : PostgresSql, Oracle, Mysql
NoSQL : HBase, Hive, Elasticsearch, MongoDB
Devops/Containerisation Ansible, Docker, Kubernetes
IDE Visual Studio, RStudio, PyCharm, Eclipse, Intellij
Versionning Git
OS Linux (Redhat, Ubuntu, Debian, Fedora, CentOS), OS X, Windows
Méthologie projet Agile/Scrum
Autres outils Google Analytics, Open Project
SIDE PROJECTS
Hadoop
Administrateur
Certifié HDP ( Hortonworks Data Platform )
AWS-Solution-Archite
ct
Certification en cours
FORMATIONS
2018 Diplôme d’ingénieur en Réseaux et Télécoms
Ecole d’ingénieur Sup Galilée – Université paris 13
2016 Master 1 Réseaux et Télécoms
Université Lille1 sciences et technologies
2015 Licence appliquée en réseaux et systèmes des télécommunications
RST – Réseaux et systèmes des télécommunications
Institut supérieur des études technologiques en communications – Tunis
LANGUES
Arabe, Français, Anglais, néerlandais