Entreprises, SSII, DSI

Trouvez en quelques heures les meilleurs intervenants pour vos projets.

Retour Ajouter ce CV à ma sélection Demander sa disponibilité
Photo Mohamed Aziz
Mohamed Aziz - Développeur APACHE SPARK CV n°181210H001
  • Profil Développeur - 26 ans
  • Domicile 92700 COLOMBES
  • Domaines d'expertise Banque de détail, Banque d'investissement, Bases de données
Compétences techniques
APACHE HADOOP
APACHE HBASE
APACHE HIVE
APACHE KAFKA
APACHE SPARK
APACHE ZOOKEEPER
Angular
ANSIBLE
APACHE STORM
API TWITTER
Études et formations

FORMATIONS

Juin 2016 Obtention de diplôme d’ingénieur en informatique. Mention bien.
École nationale des sciences de l’informatique, Tunisie.

Juin 2013 Admission au concours Tunisien d’entrée aux écoles d’ingénieurs. Section Math-Physique. Institut Préparatoire aux Études d’Ingénieurs de Tunis.

Juin 2011 Baccalauréat scientifique section mathématiques. Mention très bien.
Lycée Pilote Kairouan, Tunisie.

Réalisations
• Développement de plusieurs Producers Kafka pour le transfert des flux GPS et capteurs vers des topics Kafka.
• Archivage des données en parallèle dans HDFS à l’aide d’un connecteur utilisant l’API Java HDFS et un Coordinateur/Workflow Oozie.
• Développement de jobs Spark Streaming alimentant des indexes Elasticsearch depuis Kafka (Geolocalisation, Diagnostic, TimeSeries).
• Développement d’un module de scoring pour la partie analyse de la maintenance prédictive, le module repose sur un référentiel HDFS et sera utilisé dans le job Spark de diagnostic.
• Création des Dashboards avec Kibana (Map, Visualiation des time series, etc).
Environnement
Scala, Java, Spark, Kafka, HDFS, Elasticsearch, Oozie, Git, Jenkins.

Expériences professionnelles

Client « TRT / Thales Research and Technologies » – Développeur BIG DATA : de 08/2017 à 10/2018 (15 mois)
Contexte
Développement d’une plateforme d’analyse et de monitoring en temps réel de l’activité d’un parc de véhicules dans l’optique d’améliorer le processus de maintenance prédictive.
L’application repose sur la consommation des données de géolocalisation GPS ainsi que des capteurs placés sur les véhicules pour la collecte de données sur l'état et le diagnostic de ces derniers.
L’implémentation est basée sur une architecture streaming via Kafka et Spark Streaming, le job alimente un indexe Elasticsearch qui sera visualisé avec Kibana.
Réalisations
• Développement de plusieurs Producers Kafka pour le transfert des flux GPS et capteurs vers des topics Kafka.
• Archivage des données en parallèle dans HDFS à l’aide d’un connecteur utilisant l’API Java HDFS et un Coordinateur/Workflow Oozie.
• Développement de jobs Spark Streaming alimentant des indexes Elasticsearch depuis Kafka (Geolocalisation, Diagnostic, TimeSeries).
• Développement d’un module de scoring pour la partie analyse de la maintenance prédictive, le module repose sur un référentiel HDFS et sera utilisé dans le job Spark de diagnostic.
• Création des Dashboards avec Kibana (Map, Visualiation des time series, etc).
Environnement
Scala, Java, Spark, Kafka, HDFS, Elasticsearch, Oozie, Git, Jenkins.

Lansrod , « AirPlane performance » , de 07/2016 à 07/2017 (12 mois)
Contexte
Réalisation d’une application permettant d’étudier la performance des compagnies aériennes commerciales.
Réalisation
• Acquisition des données : développement d’un module qui consomme une API REST open source qui alimente les données dans un topic Kafka.
• Dévelopement d’un job Spark Streaming qui consomme le topic kafka, applique des règles de gestion et de normalisation et stocke les données dans des tables Hive au format Parquet.
• Analyse des données Hive via Spark et indexation des résultat dans ElasticSearch.

Environnement
Kafka, HDFS, Spark, Scala, Hive, Jenkins, Gitlab, ElasticSearch.

Stage de fin d’études, Talan Tunisie : de 02/2016 à 06/2016 (04 mois)

Projet : Plateforme pour la gestion des risques liés aux OPCVM.

Contexte
Conception et développement d’une application web java EE qui consiste à gérer les risques financiers liés aux actifs composant le portefeuille des OPCVM «Organismes de Placements Collectifs en valeurs mobilières» par le calcul des ratios.
Réalisation
• Récupération des données de marchés à partir d’un fournisseur de données financières.
• Développement d’un module Spring Boot pour le calcul et la gestion des ratios.
• Développement des interfaces graphiques Angular.

Environnement
Spring Boot, Angular, Hibernate, IBM DB2.

Retour Ajouter ce CV à ma sélection Demander sa disponibilité