EXPERIENCES, STAGES et PROJETS
2015: (Janvier-Aujourd'hui ) Ingénieur Big Data pour CDISCOUNT, Equipe Big Data Neotech Solutions
Projet Data Sharing Marque Labs : Le projet Data Sharing a pour objectif de diffuser régulièrement aux fournisseurs des rapports personnalisés et /ou les données sources associées.
Pour se faire, les données sont colléctés sur la plateforme Big Data et mises à la disposition d'un outil de visualisation
et de diffusion de rapports.La solution de visualisation retenue est Qlikview et la solution de diffusion des rapports est
Nprinting, une extension de Qlikview.
La plateforme Big Data est alimentée à partir de flux Talend et Scripts Hive et Pig(technologie Hadoop)
orchestrés par Dollar Universe sur le Serveur LDC-ETL07.
Les informations sont restituées via des rapports Qlikview, exportés et diffusés via Nprinting au format Excel
(les rapports intégrant des graphiques) et CSV (données sources).
Projet Historisation des Prix à CDISCOUNT: Le projet Pricing à pour objectif de voir l'evolution des prix dans le
temps à CDISCOUNT et de pouvoir le comparer avec la concurrence.
Developpement Jobs Talend pour exporter le calendrier des prix , les données workit et les données contrôle
de gestion dans la plateforme Big Data.
Croiser ces données avec les ventes et créer une table agrégation dans Hive pour la restitution des données
( outis de restitution QlikView).
Projet Refonte EF36 : L'objectif du projet est de remplacé le module EF36 par un developpement ETL afin d'extraire 84 tables dans des Bases Oracle vers la plateforme Big Data de CDISCOUNT.
Developpement Jobs Talend pour l'extraction de 84 tables vers la plateforme Big Data de CDISCOUNT , la facturation des produits plus de 30 kilo et l'alimentation de la DataWarhouse(DWH) de CDISCOUNT.
Corriger des Bugs Mantis sur la Logistique.
2014: (Mars-Aout) : Stage Ingénieur Big Data : Corexpert, Lyon
Mettre en place une nouvelle architecture de collecte, stockage et de traitement Statistique.
Développer des Batchs de traitement Hadoop/MapReduce.
Mise en place d'un cluster Amazon Web Service (Elastic MapReduce).
Veille technologie en Big Data et les Bases de données NoSQL.
COMPETENCES INFORMATIQUES
Outils BI : SAS Base (version 9.3), Business Object, QlikVew
ETL : Talend, Datastage
Langages de programmation : SQL, PL/SQL, Shell, JAVA, C, Python, R, Weka
Environnement de Développement : Oracle, Matlab, Eclipse, VBA, SQL-Server
Système d’exploitation : Linux, Unix, Windows
Bureautique : Microsoft Visio, Office, Access
Big Data : Hadoop/MapReduce, NoSQL, Hive, Pig, Cascading, AWS
DIPLOMES ET FORMATIONS
2015:( 8 Avril au 10 Avril) Formation Talend Data Integration , MICROPOLE INSTITUT
2014 : Diplôme de Master 2 Informatique ECD (Extraction des Connaissances à partir des données) à
L’Université Lyon 2
2012 : Diplôme Master Mathématique Fondamentale et Protection de l'information à l’Université Paris 13