Hamdi - Dataops / Devops
Ref : 181012A002-
Domicile
78800 HOUILLES
-
Profil
Ingénieur de production, DevOps (35 ans)
-
StatutFreelance
-
Tarif Journalier MoyenVoir le tarif

-
Admin Big Data- Unédicoctobre 2022 - aujourd'hui
Contexte
CDP, Ansible, shell, JIRA, Bitbucket, Docker, CDSW
Chez Unedic, j'étais dans une équipe de deux ingénieurs BigData et un architecte BigData au sein de l'entité DATA.
Mon rôle était de Contribuer aux projets techniques d’évolutions de la CDP, ingestion des flux et mise en place de la supervision des machines, composants CDP, automatisation de la migration…
Réalisation
Mettre en place des pipelines DATA (réplication depuis API, BD…).
Gestion des users sur le cluster BigData
Travailler en étroite collaboration avec l'équipe DE, sous l'impulsion du chef de projets.
MCO du cluster Big Data et support N3.
Animation des sujets DATAHUB en mode agile. -
DATAOPS- OVHCloudoctobre 2021 - septembre 2022
Contexte
HDP, Ansible, shell, JIRA, STASH, GIT, ICINGA, python
Chez OVHCloud, j'étais dans une équipe de 6 Dataops au sein de l'entité GIS-DATA.
Mon rôle était de Contribuer aux projets techniques d’évolutions de la stack DATAHUB, réplications des données et mise en place de la supervision des machines, composants Hadoop…
Réalisation
Mettre en place des pipelines DATA (réplication depuis API, BD…).
Gestion des users sur le cluster bigdata
Travailler en étroite collaboration avec l'équipe BI, sous l'impulsion du chef de projets.
MCO du cluster Big Data et support N3.
Animation des sujets DATAHUB en mode agile. -
Administrateur Big Data
Covéa-Franceoctobre 2020 - septembre 2021Contexte
HDP, Ansible, shell, Kanban, JIRA, Talend, CTR-M, CFT
Chez Covéa, j'étais dans une équipe de 4 administrateurs BigData au sein de l'entité CoveaTech.
Mon rôle était de contribuer aux projets techniques d’évolutions de la stack DATAHUB, ELK et de faire le suivi et la coordination entre plusieurs équipes anglophones et francophones.
Réalisation
Intégration des applications en mode DevOps dans un contexte Big Data (Jenkins, Ansible,shell).
Automatisation des envois de fichiers.
Coordonner avec plusieurs autres entités et équipes pour faire avancer les projets et pour suivre les incidents et les problèmes.
Maintien en condition opérationnelle les applications et le cluster Big Data.
Gestion des projets (kanban, JIRA), suivi et gestion des incidents et des projets. -
Ingénieur de production Big Data
Orange France Paris-Francejanvier 2018 - juin 2019Contexte
HDP, shell, Kanban, CTR-M, CFT
Chez Orange France, j'étais dans une équipe de vingt personnes au sein de l'entité DTSI.
Le projet consistait à intégrer une équipe DATA pour administrer et maintenir en condition opérationnelle le cluster Big Data.
Réalisation
Mise en place et administration du cluster Big Data (Cloudera, shell).
Intégration des composants Hadoop : Hive Llap, spark2, des datanodes…
Automatisation des envoies de fichiers.
Intégration des applications en mode DevOps dans un contexte Big Data (Jenkins, Ansible).
Gestion des projets (kanban), suivi et gestion des incidents et des projets. -
Ingénieur de production
BNP Parisbas Paris-Franceaoût 2016 - décembre 2017Contexte
CFT, Shell, Autosys, Linux, AIX, Windows server
À la BNPP et au sein de l'entité ITG, j'étais dans une équipe de dix personnes, le projet consistait à investiguer techniquement pour trouver une solution pérenne aux problèmes, aussi, j'ai effectué l'automatisation des tâches de production avec Autosys, CFT et Shell.
Réalisation
Gestion de problèmes (AIX, linux et Windows server).
Suivi et intégration applicative de la production (Autosys, Shell).
Gestion de flux CFT et de cryptage PGP. -
Ingénieur des systèmes
OLFEO Paris-Francejanvier 2014 - juillet 2016Contexte
CFT, Shell, Autosys, Linux, AIX, Windows server
Chez Olfeo, j'étais dans une équipe de cinq personnes, mon rôle consiste à étudier l’architecture des clients avant le déploiement de la solution de sécurité Olfeo.
Réalisation
Déploiement des solutions de sécurité Olfeo.
Accompagnement et Suivi des incidents des clients avec une investigation fonctionnelle et technique.
Participation à la base de connaissance de l’équipe support. -
PFE Maîtrise-UVSQ Paris-Francefévrier 2013 - juillet 2013
Contexte
Linux, Puppet, Shell
Etude et analyse des solutions de déploiement automatique et gestion automatique d’un parc informatique
Réalisation
Étude des solutions Open source (Puppet, Clonezilla,CFEngine, Chief).
Implémentation et paramétrage de l’environnement.
Préparation des machines clientes et scripts d’automatisation.
Déploiement de l’infrastructure Puppet sous Linux. -
PFE -ISITCOM Paris-Francefévrier 2012 - juillet 2012
Contexte
Linux, IPS, C++, réseaux et sécurité
Mise en place d’un IPS avec une interface graphique en fonction de l’architecture des réseaux.
Réalisation
Administration Réseaux Informatique.
Mise en place d’un IPS (Intrusion Prevention System).
Création d’une interface homme machine pour IPS sous LINUX avec QT Creator, C++).
-
M2 Ingénierie des réseaux et des Systèmes (IRS) :
Université de Versailles St-Quentin-En-Yvelines (UVSQ) Versailles2014 -
M1 Informatique :
Université de Versailles St-Quentin-En-Yvelines (UVSQ) Versailles2013 -
Licence appliquée en Technologie des Réseaux Informatiques:
Institut Supérieur d’Informatique et des Technologies de COMmunication(ISITCOM) Tunisie (mention assez bien)2012 -
Bac S : Sousse-Tunisie
2009
Synthèse des compétences
Compétences
Techniques • BIG DATA Hadoop (CDP), CDSW
• SCRIPTING Shell, DOS
• AUTHENTIFICATION Kerberos
• SYSTEMES Linux, RedHat, Windows server, Ansible
• BASES DE DONNEES
MYSQL, PostgreSQL
• PRODUCTION INFORMATIQUE
Autosys, CFT, Control-M, Jenkins, GIT, ELK, Docker
• SUPERVISION Nagios, Zabbix
• RESEAUX ET SECURITES IPS, VPN, proxy, LDAP, SNMP, Active Directory, Iptables, VLAN, LAN, WAN
Secteur d’activités Assurance
Automobile IT Energie Finance Banque
Santé Télécom Transport Media Industrie Luxe