EXPÉRIENCES PROFESSIONNELLES
Consultant Senior en Big Data
Umanis (leader Français en Data) Chez EDF
Principales responsabilités
Définition de l'architecture technique
Conception et développement du processus d’automatisation
de l’intégration des différents flux dans le Data Lake.
Maintien en conditions opérationnelles des chaines de
traitements.
Déploiement des scripts sous forme de workflows et
Amélioration de la performance des traitements existants.
Rédaction de la documentation et transfert de compétences
pour les membres de l’équipe.
Formateur BigData
Auto Formateur
01/2017 – Present
Chez : SQLI, LaPoste, ,EDF
Principales responsabilités
Réalisation de supports de formation á destination d’équipes
professionnelles.
Conduite de formations pour des clients professionnels.
Informaticien Développeur
Socio Logiciels (leader français de l’analyse de
données statistiques et de la modélisation)
09/2012 – 08/2016
Principales responsabilités
Mise en place d’un cluster hadoop.
Développement de l’outil de Reporting sur le web.
Gestion et traitement de bases de données, Création de tableau
de bord
Définition de l'architecture technique
Informaticien développeur BI & BigData - Socio Logiciels (leader français de l’analyse de données statistiques et de la modélisation)
CDI depuis octobre 2012 - Paris
Développement d’applications web et de l’outil de Reporting sur le web.
Reporting VBA (réalisation de courbes et d’histogrammes ; optimisation de calcul ; rapports PowerPoint ou Excel correspondants).
Gestion et traitement de bases de données, Création de tableau de bord.
Mise en place d’un cluster hadoop (Pig, Spark, Hive ,Sqoop).
Développement des jobs MapReduce.
Développement des scripts Pig et Hive
Intégration de données avec sqoop.
Modalisation et alimentations des bases de données.
Clients : Renault, PSA, Orange, l’Institut des mamans, les instituts de sondages CSA et LH2,…
Stage Big Data - Laboratoire de recherche de Polytech’ Tours (Stage en collaboration avec Cyres sous la direction de Patrick Martineau)
Stage de fin d’études - mars à août 2012 -Tours
Étude de l’optimisation de l’accès aux données dans un système distribué.
Mise en place d’Apache Hadoop avec le système distribué HDFS et le Framework MapReduce (multi-node cluster) sous linux.
Développement des jobs MapReduce.
Développement des Sqoop Jobs.
Formation
Master II en Informatique, Université de Tours, France, 2012
Master I et II en Réseaux et Sécurité Informatique, Université Badji Mokhtar d’Annaba (UBMA), Algérie, 2011
Licence en Intelligence Artificielle, Université Badji Mokhtar d’Annaba (UBMA), Algérie, 2009
Bac Scientifique en Sciences Exactes, Annaba (Algérie), 2006
Compétences Informatiques
Langages de programmation : C#.net, VBA, JAVA, Python
Organisation et structuration des informations : SGBD : MySQL, SQL Serveur, Access, No SQL
Gestion de projet : Méthodologie de Développement agile, Devis, Management.
BigData: Hadoop, Map Reduce, Hive, Pig, Cluster Hadoop, Spark, MongoDB, Sqoop.
Distribution Hadoop: Cloudera, hortonworks, Talend BigData.
Développement Web : Asp.net, JQuery.
Microsoft BI: SQL Server 2012 (SSIS, SSAS, SSRS),Qlikview
COMPÉTENCES LINGUISTIQUES
Arabe
Anglais
technique
Allemand