Fatima-Zahra - CERTIFIED SCRUM PRODUCT OWNER

Ref : 190423M001
Email vérifié
Photo de Fatima-Zahra, CERTIFIED SCRUM PRODUCT OWNER
Compétences
APACHE HADOOP
APACHE HIVE
APACHE HBASE
SPRING TOOL SUITE
JUnit
Expériences professionnelles
  • Expérience professionnelle

    Ingenico Juillet 2019 - Poste actuel
    Data Engineer – Tech Lead
    Au sein du leader mondial des solutions de paiement, l'objectif du projet est de fournir des rapports des transactions
    commerciales en temps réel aux clients finaux.
    DOMAINE D’INTERVENTION :
    Streaming dataflow :
    • Transaction consumers
    o Conception et développement d'un consumer de transactions provenant du e-commerce
    o Réception de la notification de transaction au format Avro, désérialisation à l'aide du Schema registry et création
    du document de paiement
    o Provisioning lookup : enrichissement des transactions par les données du provisioning
    o Order lookup : rattachement du paiement à la commande
    o Payment lookup : mise à jour du paiement existant - tables MaprDB au format Json
    o Payment log : logger l'opération dans une table MaprDB
    o Gestion des failure des lookup : log exploité par l'équipe monitoring (GRAFANA)
    o Monitoring des jobs : utilisation du monitoring Spark pour prélever les temps d'exécution et les nombres de transactions
    o Refactoring et tuning des performances
    o Création et envoie de l'output notification vers une stream Kafka
    Export vers Elastic :
    o A réception de la notification raffinement des documents du paiement et de la commande
    o Envoie du document encodé en Base64 à la stream output
    o Envoie du document vers ElasticSearch
    • Provisioning Consumers :
    o Flattening des structures client reçus et persistance dans la table de provisioning
    o Envoie du provisioning data change notification
    o Enrichissement par des Ids externes et persistance des entrées de provisioning lookup
    o Création des vues spécifiques aux structures de provisioning
    • Evolution des fonctionnalités, support et maintien des composants sur les plateformesde PROD, PPROD, INTEGRATION
    • Déploiement en Pré-production et suivi du déploiement en Production
    Batch dataflow :
    • Relink Order : Création de la pipeline de rattachement des transactions au commandes
    • Migration des reçus : Developpement d'un job batch pour migrer les reçus vers MaprDB
    • Migration x-channel : Migration des données des divers client de la base des données Oracle vers MaprDB

    Stack technique :
    Spark Streaming 2.3, 2.4 - Dataset, Rdd, Dataframe, Spark Batch
    Scala 2.11.8, Scala Tests
    ElasticSearch, Kafka, Grafana, Avro, Schema Registry, Mapr,
    DevOps : MCS, Jenkins, Maven, Pat, Maprapp, Gitlab, Bitbucket, Sonar
    Outils : Intellij, Gitbash, PostMan, MobaXterm
    Méthode Agile : SCRUM, Effectif projet : 14, System Increment Planning, Sprint Planning, Grooming, Sprint Retro, Demo
    REFERENCE PROJET
    REFERENCE PROJET
    Effectif équipe : PO 1p, architecte Big Data1p, Quality Analystes 3p, 3 techs lead, 6 développeurs
    Fréquence de mise en Prod : 6semaines.
    Anglais : Courant – Equipes Offshore et Nearshore

    Crédit Agricole Coorporate Investment Bank Juin 2017 - Poste actuel
    Data Engineer
    Au sein de l'IT du Market Risk, l'objectif du projet est de développer des rapports permettant d'expliquer les variations des indicateurs boursiers de Cacib pour être conforme à la norme FRTB.
    DOMAINE D’INTERVENTION :
    ETL Spark 2.3 dans un cluster HDP (2.6, Kerberized) :
     Participation à la modélisation
     Développement des pipelines de traitement optimisé en utilisant le Framework SPARK(API DATAFRAME)
     Consolider, normalisation et agrégation des différents indicateurs de risques
     Développement de nouveaux modules
     Rédaction de tests unitaires
     Persistance des résultats dans des tables Hive partitionnées au format orc et dans HBASE permettant l’alimentation des applications data depuis les sources de données du groupe.
     Recette et résolution de bugs
     Création de la Roadmap des mises en production
     Présentation du produit aux clients
     Rédaction des spécifications techniques & fonctionnelles

    Mise en place d'une Data Access Layer :
     Restituer des indicateurs de risque au format CSV via une API REST basée sur Spring Boot.
    ETL Kafka + Spark Streaming :
     Développement d’un job ETL Spark Streaming lancé à la demande grâce à Kafka

    Configuration Usine d'intégration continue :
     Migrer de SVN vers Gitlab en gardant l'historique des commits.
     Configurer de Jenkins pour lancer des builds on Gitlab Push en utilisant les Webhooks et un déploiement sur demande
    de l'artefact sur Nexus en utilisant Maven.
     Mettre en place des Pipelines Jenkins.
    Stack technique : Spark, Hive, Hdfs, HBase, Java, Spring Boot, Lombock, Junit
    DevOps : Ambari, Jenkins, Maven, MasterDeploy, Ansible, Control-m
    Outils : Intellij, Gitbash, PostMan, MobaXterm, Zepplin, Sonar
    Méthode Agile : SAFE.
    Effectif projet : +200p réparti sur 3 Streams (+50p)
    Effectif équipe : PO 3p, architecte Big Data 3p, code designer 4p, Business Analyst 3p, Developpeur 6p
    Fréquence de mise en Prod : 3semaines.

    Conseil Général de Seine et Marne CG77 Juillet 2016 - Juin 2017
    Ingénieur Recherche et développement
    L'objectif du projet est de développer une application permettant de gérer les archives du Département des Archives de Seine et Marne CG77.
    DOMAINE D’INTERVENTION :
    Mise en place, administration et monitoring d'un cluster HDFS de stockage des archives en utilisant la distribution ClOUDERA.
     Développement d'une bibliothèque JAVA 7 qui permet de :
     Stocker les archives sous une arborescence spécifique dans HDFS et dans FS.
     Garantir l'authenticité des archives en stockant le Hash.
     Récupération et suppression des archives.
     Sécurisation du cluster à l'aide du Proxy NGINX et d'une authentification HTTP et du Firewall APF
     Monitorer le Cluster en utilisant l'API Cloudera Manager.
     Recette et résolution de bugs
     Présentation du produit aux clients
     Rédaction des spécifications techniques & fonctionnelles
    Technologies : Java7, Junit, Mock, HDFS, Cloudera Manager, Cloudera Manager API, NGINX, APF.
    Outils : Intellij, Putty, FileZilla, Gitlab, Jira, SourceTree, Sonar, Jenkins, Maven.

    Projet Agile : Méthode Scrum.
    Effectif : 10.
    Equipe agile : Developpeurs 3p, Scrum Master 1p, Product Owner 1p, Tech Lead 1p.
    Durée Sprint : 2 semaines.
    Ministère du Travail / Santé Février 2016 - Juillet 2016
    Consultant décisionnel
    DOMAINE D’INTERVENTION :
     Développement des rapports publiés par le ministère de la santé concernant les praticiens de la santé
     Migration Oracle vers PostgresSQL
     Développements des rapports statistiques sur les Conventions Collectives. Outils : SSAS, SSRS, SSIS

    LYDEC Juillet 2015 - Août 2015
    Assistant auditeur SI
    DOMAINE D’INTERVENTION :
     Association Activités/Applications.
     Diagnostic des applications utilisées par le service SUPPORT de la Direction des Systèmes d'Information de LYDEC .
     Proposition des solutions améliorant l'utilisation des outils SI.

    START UP SAYOO Juillet 2014 - Août 2014
    Stagiaire Consultant SI
    DOMAINE D’INTERVENTION :
     Création d'un système d'information décisionnel.
     Outils : SQL Server, Talend Open Studio

Études et formations
  • Compétences techniques

    Méthodes Design Patterns, UML
    Langages JAVA 8, PYTHON, SCALA
    Framework APACHE SPARK 2.3 (SPARK SQL , SPARK CORE, SPARK STREAMING), Maven, Spring Boot 2.1
    Distribution Hortonworks 2.6, Cloudera
    Hadoop Hive, HBase, HDFS, Beeline, Ambari, Zepplin
    Messaging System Kafka
    SGBDR Oracle, Mysql, Postgres, SQL Server
    Outils Git (SourceTree, GitKraken, Git Bash), GitFlow, shell-script, Postman
    IDE Intellij, Eclipse, Visual studio
    DevOps Jenkins, Sonar, Ansible, Master Deploy, Control-m
    Méthodologie AGILE Scrum, SAFE, TDD, BDD, DDD
    Systèmes UNIX, Windows
    Anglais Courant

    Compétences fonctionnelles
    Finance de marché : Analyse de risque (PnL, VaR et indicateurs de risques génériques) sur les produits de taux (swap, options, futures, FRA…). Evaluation d’une action ( Analyse fondamentale, PBR, PER, PEG, Book to Bill, RSI…)

    Formation
    2013 - 2016 Diplôme d’ingénieur en informatique de l’Institut National des Sciences Appliquées Centre Val De Loire

    2011 - 2013 Classes Préparatoires MP

    2010 - 2011 Baccalauréat option mathématiques (Mention Très bien)

D'autres freelances
Consultant JAVA

Ces profils pourraient vous intéresser !
CV Développeur TALEND
Boussad

Développeur TALEND

  • RUEIL-MALMAISON
TALEND SQL ORACLE SQL SERVER JAVA
Disponible
CV Architecte JAVA
Hatem

Architecte JAVA

  • PUTEAUX
JAVA J2EE LINUX ORACLE SQL
Disponible
CV Développeur C++
Camille

Développeur C++

  • MÉRÉVILLE
C++ PYTHON JAVASCRIPT SQL C# ASSEMBLEUR PHP .NET JAVA
Disponible
CV Développeur JAVA full remote
Contact

Développeur JAVA full remote

  • LYON
JAVA SQL ORACLE Angular
Disponible
CV Tech lead
Fabien

Tech lead

  • GRATENTOUR
JAVA SPRING SQL SAFE HIBERNATE LINUX
Disponible
CV Développeur DevOps
Rida

Développeur DevOps

  • DUNKERQUE
C++ JAVA C# CI/CD REACT.JS Angular SQL PL SQL .NET J2EE
Disponible
CV Analyste développeur moyen de paiement CASHPOOLER
Yacine

Analyste développeur moyen de paiement CASHPOOLER

  • PARIS
ORACLE SQL AGILE SQL SERVER UNIX WINDOWS LINUX JAVA
Disponible
CV Développements logiciels
Loic

Développements logiciels

  • SAINTE-MARIE
PHP SYMFONY PHP LARAVEL WINDEV JAVA
Disponible
CV Architecte JAVA
Fabien

Architecte JAVA

  • ORLÉANS
JAVA J2EE REST Spring Boot SOA APACHE KAFKA POSTGRESQL AGILE DOCKER CASSANDRA
Disponible
CV Développeur full stack JAVA
Abdallah

Développeur full stack JAVA

  • SADA
JAVA J2EE Spring Boot API RESTful REACT.JS ORACLE SQL PHP JAVASCRIPT LINUX
Disponible