Khalil - Data Analyst BIG DATA
Ref : 220215M003-
92270 BOIS-COLOMBES
-
Data Analyst, Data Scientist (34 ans)
-
Freelance
Expérience professionnelle
Mars 2018- Novembre 2020 : Data Engineer chez ZENIKA – Paris
Juin - Nov 2020 : Mission chez EDF, Secteur Energie
Au sein d'une équipe Scrum de 10 personnes, j’ai participé à la création d’une solution de
centralisation de données dans un cluster Hadoop (HDP 2.5.3).
● Développement des jobs Spark Streaming permettant l’analyse des fichiers consommés par
Kafka et de stocker les données résultantes dans HBase
● Débogage et refactorisation des jobs Spark/Scala et mise en place de la stratégie de test
(Scalatest / HBaseTestingUtility)
● Implémentation de l'offre EDF DevOps côté cluster Hadoop avec Jenkins et Ansible
● Refonte de l'ensemble des services Spring Boot et de l'application web AngularJS
● Mise en place d’une stratégie de récupération de l’historique des données d'Oracle vers
HBase/Elastisearch avec Nifi
ENVIRONNEMENT TECHNIQUE : Scala, Spark, Kafka, Nifi, Oozie, Elasticsearch , Java 8, Spring 1.4,
AngularJS, Jenkins, Ansible, Git
Jan - Juin 2019 : Mission chez Oui SNCF, Secteur Transport
● Conception et Mise en place d’un nouveau Datalake respectant les nouvelles normes RGPD
● Migration des projets existants vers ce nouveau place
● Optimisation des jobs spark
● Monitoring, ordonnancement des workflow HADOOP
● Calcul et Restitution des indicateurs marketing via des APIs REST
ENVIRONNEMENT TECHNIQUE : Spark, Scala, Python, Maven, HDFS, Hbase, Hive, Airflow, NIFI,
Spring Boot, Angular 2, Jenkins, Ansible, Git.
Mars- Dec 2018 : Mission chez BNP PARISBAS, Secteur Bancaire
Dans le cadre d'une refonte générale du système d'information pour l'ensemble des filiales de BNP
Paribas au Maghreb et en Afrique de l'Ouest, le programme consiste à mettre en place une
plateforme Big Data pour remplacer l'ensemble des systèmes de synthèse existant pour
l'ensemble des métiers (Finance, Risque, Conformité, Retail …)
● Cadrage technique et fonctionnels
● Ingestion dans le DataLake des différents flux de données depuis les
systèmes existants ( Atlas 2, SAB ...)
● Génération des modèles intermédiaires nécessaires à la Reprise et
l’enrichissement des traitements Finance et Risque
● Reprise et enrichissement des traitements Finance et Risque
● Modélisation des différents indicateurs Finance et risques
● Optimisation des différents traitements et calculs des indicateurs
● Restitution des indicateurs via des APIs REST
ENVIRONNEMENT TECHNIQUE : Spark, Scala, Python, Maven, HDFS, Parquet, Hive, Spring Boot,
Angular 2, Jenkins, Git
Octobre 2016- Mars 2018 : Développeur Big Data Chez Neolusis - Paris
Mission chez Enedis, Secteur Energie – Nanterre
Conception et mise en place d’une plate-forme Big Data pour analyser les recharges des véhicules
électriques.
●Ingestion des événements de charge à partir des superviseurs dans les bornes de recharge
(kafka)
●Stockage des événements de charge (HDFS)
●Algorithme de simulation des différents niveaux de pilotage des recharges des véhicules
électriques(Spark)
●Modélisation de chaque niveau de pilotage dans des tables à accès SQL (Hive)
●Restitution visuelle des différents niveaux de recharge (Tableau Software)
ENVIRONNEMENT TECHNIQUE : Spark, Scala, Python, Sbt, HDFS, Avro, NIFI, Kafka, Hive, Hbase,
Spring Boot, Jenkins , Ansible, Git, Tableau Software
Formations
En Cours : Préparation de la certification AWS Certified Cloud Practitioner
Udemy
2021 : Développeur Blockchain
Alyra
Dec 2016 : Formation Spark avec Hadoop pour Développeurs de Cloudera
Xebia
Nov 2016 : Certificat Hadoop 101
Big Data University
Aôut 2016 : Certificat Introduction to Apache Spark
edX, University of California, Berkley
Janv 2016 : Certificat Fondamentaux pour le Big Data
FUN, Institut Mines-Télécom
2014-2016 : Master 2 MIAGE : SD « Sciences de la décision » - BIG DATA
Université de Nice Sophia-Antipolis
BIG DATA, Machine Learning, Hadoop, Spark, NoSQL database, Statistiques, Business
Intelligence
Compétences
Langages de programmation : Scala, Java, Python, R
Big Data : Spark, Hadoop, ElasticSearch, Kafka, Flume, Sqoop, ELK
Base de données : Hive, Hbase, MongoDB, MySQL
Blockchain: : Smart contrat, Solidity, DeFi
Data Vis : Tableau Software
Machine Learning : Apprentissage supervisé et non supervisé
Web : PHP, JavaScript, AngularJS, HTML5,CSS3
Méthodologie : Agile (Scrum)
Linguistiques : Arabe, Français : Bilingue // Anglais : Technique