Lamine - Consultant technique SCALA
Ref : 180224A001-
78955 CARRIÈRES-SOUS-POISSY
-
Consultant technique (31 ans)
-
Freelance
MISSIONS ET STAGES EFFECTUEES UMANIS
FREELANCE
BIG DATA ENGINEER
Période : de Novembre 2018 – Juin 2021
2 ans 8 mois
Projet : Au sein du groupe EDF, projet de réalisation d’un outillage de déploiement permettant de
standardiser les processus de déploiement des applications en environnement BIG DATA reposant sur
les outillages DevOps, Tests unitair es des composants de la suite HortonWorks après des montées de
version.
Tâches et responsabilités :
Définition de l’architecture
Automatisation des déploiements d’applications Big Data
Collecte des besoins commanditaires
Développement
Montée de version de cluster HDP de 2.5.3 vers 2.6.5
Tests unitaires des composants du cluster après la montée de version.
Support de niveau 3 et suivi des incidents Big Data
Environnement technique : HDP 2.5.3, 2.6.5 (Kafka, Spark, HBAse, Knox,Hive … ), Scala, Java,
Gitlab, Jenkins, Ansible, … etc
UMANIS
BIG DATA ENGINEER chez BNP Paribas
Période : d’Octobre 2018 – Novembre 2018
2 mois
Projet : Projet de Centralisation des données produites par le processus métiers du SI front et back
office des clients professionnels et Entreprises.
Tâches et responsabilités :
Définition de l’architecture
Environnement technique : Apache Kafka, Apache Flink, Ansible
Consultant BIG DATA chez EDF Période
: De Juin2017 –Aujourd’hui Projet:Projet de Centralisation des données produites par le processus métiers du SI front et back
office des clients professionnels et Entreprises. Tâches et responsabilités:
Définition de l’architecture
Développement de chaînes d’automatisation de transfert de données à partir d’un data lake sur un cluster Haddop vers une base relationnelle
Développement de chaînes de traitement de données sur ODI: Création de mappings et packages
Réalisation de tests de performances et optimisation des développements
Assistance à la recette
Suivi de l’avancement des sprints
Déploiement et suivi dans la production
Environnement technique :
Apache Kafka, Apache Spark, Scala, Hive, Sqoop, HBase , Oracle , Oozie, Shell , Java, Scala 2/4
MIND 7 CONSULTING DEVELOPPEUR BIG DATA chez Colissimo Durée de la mission : 7mois Période : D’Octobre 2016 –Mai
2017Projet:Capture transformation et diffusion d’un large volume d’évènements colis en temps réel. Développeur Big Data dans une
équipe chargée de la conception et de la réalisation d’un projet dont le but principal est de diffuser des événements colis aux partenaires concernés Tâches et responsabilités :
Capture des événements colis via un topic Kafka
Implémentation des règles de filtrages et de sélection des événements à diffuser
Mapping de ces événements
Stockage des ces événements en format avro/binaire
Mise à disposition des donnes grâce à une api play
Supervision du flux d’événements en indexant les événements capturés,transformés et/ou stockés avec Elastic Search
Réalisation d’une IHM de supervision avec « d3 js»
Méthodologie agile
Environnement technique :
Apache Kafka, Apache Spark,Cassandra,Elastic Search,Play FrameWork , Scala
ORANGE
Stage Big Data/ Business Intelligence
Durée de la mission : 6 mois Période:
Avril –Septembre 2016
Projet:Extraction transformation et Visualisation en temps réel d’un large volume de données. Développeur Big Data dans une équipe c
hargée de concevoir et de réaliser une architecture Big Data dont le but est de pouvoir générer des rapports et des tableaux de bords en temps réel sur des données opérationnelles d’Orange Money.
Tâches et responsabilités :
Evaluation de l’architecture et des briques principales le constituant
étude et comparaison de différents outilsBig Data (Cassandra,Mongo DB,Striim .. etc)
établissement d’un flux de donnée temps réel de la base de donnée opérationnelle (MySQL,Oracle) à la base de donnée historique (Cassandra)
extraction des données opérationnelles pour les produiure dans un topic kafka grâce à un data extractors
Transformation du flux de données consommé via Spark Streaming
Environnement technique :Apache Kafka, Apache Spark , Cassandra , Pentaho , Striim , Maxwell NEDJMA TELECOM (ALGERIE)
Stage développeur
Web Durée de la mission : 5mois
Période:2014
Projet:Développement d’une IHM pour dématérialiser la gestion du planning des salariés
Tâches et responsabilités :
Collecte des spécifications fonctionnelles
Diagramme UML
Développement Java
Environnement technique :
Eclipse, Java (EE), Design patterns, UML, MySQL
DIPLÔMES ET FORMATIONS
POINTS FORTS DU CV
❑ Développement Big Data
❑ Développement IT
❑ Business Intelligence
Diplômes
Master 2 Business Intelligence,2015 -2016,Université de Lorraine
Master 1 Informatique2014-2015, Université de Lorraine OINTS FORTS DU CV
Licence Informatique ,spécialité Système d’Information et Technologie Web,20112014 : Université Djillali Liabes -Sidi Bel Abbes, ALGERIE
Développement Big Data
DéveloppementIT
Business Intelligence
Gestion de projet
COMPÉTENCES Technologies
maîtrisées BIG DATA:Apache Spark , Apache Kafka , Apache Cassandra , Elastic Search ,sbt , Oracle Golden Gate Business Intelligence: Talend , Qlikview, PentahoBases de Données: MySQL, Oracle,PostGreSQL
Développement: Environnements : CPLEX, Matlab, RStudio, Eclipse, Jupyter Frameworks : JAVA SE/EE, .Net, Symfony
Langages de programmation :Scala, java,Python , R , CQL,SAS,SQL PL,C, C#, Matlab
Outils de bureautique: Maitrise du pack MS office
Gestion de Projet:Méthode Agile “Scrum”
Français: Langue maternelle
Anglais : Compétences Professionnelle
Csertifications
Functionnal Programming Principle In Scala par Ecole Polytechnique de l’université de Lausanne. Certificat disponible à : ********
Distributed Machine Learning with Apache Spark par l’université de Berkeley,sur edX. Certificat disponible à: tps://courses.edx.org/certificates/62d70e8f7c684f1f8f3dc0dc1b33a773