Migration du Back end d’une application legacy (Oracle + Informatica) de gestion de
profitabilité client vers un DATALAKE
Conception de l’architecture technique de la solution
Analyse et compréhension fonctionnelle du métier
Import des données référentiels à partir de la BD Oracle vers la Lake
Ingestion des fichiers sources et normalisation des données
Processing et traitement des données avec SPARK
Développement des tests BDD
Stockage des données sur HDFS
Automatisation des jobs avec Oozie
Industrialisation et intégration dans les environnements de DEV et UAT
Monitoring techniques et fonctionnels sur Kibana
Mise en place d’un pipeline de tracking permettant l’interception des événements, des
actions et des préférences des utilisateurs d’une application Web.
Personnalisation des événements et définitions des types (recherche, consultation,
clicks etc…)
Collecte, enrichissement et ingestion des données dans un cluster Hadoop
Traitement des données par la création des requêtes et la définition des KPIs
Automatisation du flux de traitement pour optimiser le temps de traitement
Création de dashboard qui offre une vue globale sur l’engagement des utilisateurs,
suivant différents axes d’analyse (sessions, annonces consultées, préférences clients..)
Définition des segments clients pour construire un moteur fr recommandation.
Elaboration et mise en place d’un moteur clickstream de classification et de prédiction
des événements faits par les utilisateurs du portail Web d’une compagnie aérienne en
utilisant les technologies Big Data et Machine Learning.
- Extraction des données : Google Tag Manager, Apache Kafka
- Intégration et stockage des données : HDFS, Apache Flume, Kafka, Hive Spark
- Automatisation du processus : Apache Nifi
- Restitution et analyse des données : Apache Zeppelin, Qlik Sense, Python, R,
PySpark
Création d’une base de données géographique qui couvre le réseau routier en
Tunisie et diffusion des informations sur le Web. Cet outil sert à avertir les utilisateurs
des zones dangereuses.