EXPERIENCE PROFESSIONNELLE
Depuis juin 2021 à ce Jour (ITMATCHED ,Start-up)
Poste : CTO (Directeur technique)
Projet : Conception et implémentation d’une plateforme de qualification des CVs basé sur l’intelligence
artificielle
Description des activités et des responsabilités :
Etudes et conception de l’architecture technique de la solution
Management de l’équipe technique de12 personnes (développeurs,
architectes, devops, data engineer, data scientistes, systèmes et cloud)
Pilotage et gestion du projet sur toutes les phases (suivi des développements,
évolutions, gestion des bugs..etc )
Encadrement, accompagnement et formation d'équipes techniques et fonctionnelles
Réalisation et suivi de budget. Suivi des relations et négociations avec les prestataires
Préparation du plan de lancement de produit sur le marché en collaboration avec
l’équipe commerciale et marketing
Participation aux Comités de Direction Métiers, MOE&MOA, Support
Environnement technique :
AWS, HDP, NodeJs, Angular, Couchbase,Java,Python, HDFS, zookeeper, Jenkins,Git Hadoop,
spring boot,ElasticSearch , Spark/Scala, Docker,AKS,Vmware,S3
Septembre 2018 au avril 2021 (Société Générale - SGCIB)
Poste : Architecte technique Bigdata & Cloud
Projet : Migration du Data Lake On Premise vers Cloud Azure (programme moveToCloud)
Description des activités et des responsabilités :
Responsable du domaine technique data management
Accompagnent sur les choix technique et validation du dossier d’architecture
technique
Audit et accompagnement des programmes de transformation dans leur phase
d’amorçage et d’accélération
Conception et implémentation d'une solution de réplication massive de données
multi-coud
Automatisation/digitalisation de processus opérationnels et de gouvernance pour
l'amélioration de l'expérience utilisateur
Construction du plan de réversibilité
Environnement technique On Premise :
HDP 2.6.5, kerberos, HBase, Kafka, JAVA, HDFS, Spark, zookeeper, Oozie, Hadoop KMS,
spring boot,ElasticSearch , Spark/Scala, Docker
Environnement technique Azure :
AAD, AADDS, EventHub, ADLS gen2, AKS, HDInsight, Synapse, CosmosDB, Azure SQL
database, expressRoute, PrivateLink, Camunda, spring boot, Python,
Depuis Mars 2016 au juin 2018 MEDIAPOST
Poste : Architecte et Leader Technique de la Plateforme DMP (Data Management Platform)
Projet : Mise en place d’une Plateforme DMP (Data Management Platform) pour le ciblage
Marketing (Online/Offline) et publicité comportementale temps réel, (CRM onboarding)
Description des activités et des responsabilités :
Rédaction des spécifications techniques détaillées à partir des spécifications
fonctionnelles
Conception et validation de dossier d’architecture technique (DAT) de la nouvelle
platforme Big Data
Mise en place de l’architecture réactive Big Data pour la plateforme DMP (150
Nœuds)
Pilotage des développements analytique et temps réel
Implémentation des interfaces de retargeting (batch, real time, RTB)
Mise en place d’un moteur de segmentation sémantique DAP (Scala,Spark
MLLIB,R,Deep Learning) pour l’analyse et segmentation des comportements
web.
Mise en place d’un cluster ELK ElastiSearch + Kibana (17 Nœuds) pour le
comptage temps réel et l’analyse des comportements sur les retours des
campagnes marketing
Formation et accompagnement des développeurs sur la nouvelle plateforme
Environnement technique :
Hadoop Claudera, Spark, Scala, Redhat, NoSql(Couchbase), Kafka,Talend,R,
Mesos/DCOS, Elasticsearch, Logstash, Kibana, Jenkins, Docker, Marathon,Ansible, Git
Aout 2015 au Février 2016 (Groupe La Poste)
Poste : Architecte DataLake (Big Data)
Projet : Mise en place d’un DataLake Groupe La Poste : (BNum,BSCC et PPC)
(Client 360, Moteur de recommandation)
Description des activités et des responsabilités :
Etudes des 60 sources de données issue des différentes entités du Groupe
Accompagnent sur les choix technique et validation du dossier d’architecture
technique (DAT) Big Data
POC de validation technique sur un cluster de 20 nœuds
(Kafka,Spark,Couchebase,Cloudera)
Accompagnement au déploiement de l’architecture cible
Mise en place d’une algorithme de rapprochement et d’analyse des données
(Client 360) (Kafka,Spark,Scala,Hadoop ,Nosql)
Développement d’un moteur de recommandation basé sur des algorithmes
prédictifs (Scala/spark Mlib,R)
Requêtage de data et Reporting (Elasticsearch, Kibana)
Environnement technique :
Hadoop Claudera, Spark,Redhat, NoSql (Couchbase),Kafka,,Talend, Elasticsearch,
Kibana, R, Mesos/DCOS,Unix,Jenkins, Docker, Marathon,Ansible
Janvier 2015 à Juillet 2015 (MEDIAPOST/Cabestan)
Poste : Chef De Projet et Lead Technique
Projet : Mise en place d’un Moteur EI (Moteur d’envoi intelligent) pour un outil de gestion des
campagnes marketing multi-canal
Description des activités et des responsabilités :
Mise en place d’une architecture Big Data d’un cluster de 15 nœuds
Piloter le projet de développement et les déploiements
Participer à la mise en place de la solution technique
Interface d’ingestion / Talend/Kafka
Interface d’analyse (SPARK Streaming, Spark Batch,Spark SQL)
Implémentation des algorithmes prédictifs pour l’analyse de comportements et
ciblage intelligent sur les campagnes marketing (Scala/spark
Mlib,hadoop,cassandra)
Stockage et requêtage de data (Hadoop,ELK,)
Environnement technique :
Hadoop, Spark,Scala, NoSql(cassandra), (Hortonworks),Kafka,,Talend,,R, Elasticsearch,
Logstash, Kibana,Git,Sbt, YARN, Zookeeper,Unix
Mai 2014 à Janvier 2015 (EDIS Consulting)
Poste : Ingénieur BigData
Projet : Analyse sémantique des données issu des réseaux sociaux (Facebook, Tweeter)
Description des activités et des responsabilités :
Installation d'un cluster MapR sur 7 VM
Implimentation des jobs d’ingestion des données avec
Traitement et analyse des données avec Spark et Pig,
Requêtage de données avec Impala et Spark Sql
Reporting avec Tableau Software
Environnement technique :
Talend Big Data, Hadoop(MapR), MapReduce ,Pig,Hive, HQL,Tableau software Spark,.
De Juillet 2012 – Avril 2014 : SOCOTEC
Poste : Consultant Décisionnel Talend
Projet : ATLAS : Migration de l’ERP Saysage (ERP client) vers SAGE X3 pour SOCOTEC France et
SOCOTEC International (450 Agences).
Contexte fonctionnel :
Migration du référentielle (clients, fournisseurs, utilisateurs, Sites …)
Migration de la comptabilité depuis sage 100 et Sysage vers Sage X3
Migration des données de production (prévisionnelle de vente) (affaires, ventes,
échéances, demandes de services, demandes interventions, planification)
Migration de la Paie META4 Vers Sage X3
Description des activités et des responsabilités :
Rédaction des spécifications techniques détaillées à partir des spécifications
fonctionnelles.
Préparation des environnements de reprise,
Conception et développement des 100 Flux Talend pour la reprise des données.
Tests d’intégration.
Développement des interfaces d'alimentation entre META4 (pour la Paie),
SAGE100
(pour la Compta) et l’ERP Saysage (données clients, fournisseurs, Affaires,
Lignes de Ventes, Demandes d’intervention, etc…) avec SAGE X3.
Environnement technique :
Talend Entreprise 5.1, ERP Sage X3, Meta4, Sage 100, Oracle 11 g ,PL/SQL, Windows
Server 2008 R2 ,AIX
Résultats / Performances mesurées
Livraison de la solution ‘in Time‘
Migration de toute la comptabilité SOCOTEC sur Sage X3.
Migrations de tous le référentielle sur Sage X3
Migration de la production de 250 /400 agences sur Sage X3 ( le reste des
agences en cours de migration)
Octobre 2011 – Juin 2012: Groupe Accor
Poste : Consultant BI
Contexte du projet :
Développement des Flux d’alimentation et de reporting pour le service de facturation
Mission :
Rédaction des spécifications technique
Maintenance et évolution des flux SSIS existant
Développement des nouveaux flux SSIS pour alimenter le Cube de
facturation
Développer les rapports et Dashboard sur Tableau software et SSRS
Environnement technique :
Microsoft SSIS, SSRS, Tableau Software, Sql Server 2008
De Avril 2011 à Septembre 2011 : NUMERICABLE-COMPLETEL
Poste : INGENIEUR BI
Contexte fonctionnel :
Migration BO 6.5 vers XI3.1
Alimentation de datawarehouse
Description des activités et des responsabilités :
Migration et test des rapports, univers et connexions
Transformation des scripts VB des rapports BO 6.5 en java BOXI3.1 pour
automatiser la publication des rapports suivant un fichier de paramétrage
Développement de rapports BO via Desktop Intelligence et Infoview dans
le cadre de nouveaux projets ou d’évolutions de rapports existants
Modélisation et réalisation d’univers BO via le Designer.
Environnement technique :
Business Objects 6.5 et XI 3.1 , DataStage v 8.0.1 , Oracle 10 g , SQL Server 2008
DB2 ,JAVA , Eclipse , Cvs
Aout 2008 – Aout 2010 : Ministère de l’intérieur - Algérie
Poste : DBA Oracle
Contexte fonctionnel :
Projet national des passeports biométriques
Description des activités et des responsabilités :
Installation et configuration des serveurs Oracle 9i et 10g fonctionnelles
Gestion de la sécurité
Développement des scripts de sauvegardes et de restauration des BDs
Optimisation des bases de données et des requêtes
Résultats / Performances mesurées
Création et Administration d’une base de données distribuée de 2 Tera su...