Projet : Dans le cadre du Projet QYLOA (Query Your Loans), outil de consolidation
quotidien et d'interrogation des encours de financements France et international destiné
aux utilisateurs Front, Middle et Back Office des lignes métiers Financements :
â— Analyse des besoins
â— Rédaction des spécifications techniques
â— Estimation de la charge de développement
â— Élaboration des plannings avec les différents interlocuteurs
â— Participation à la modélisation et à l’enrichissement du DataWarehouse
â— Conception de flux d’alimentation des nouvelles tables de fait et de dimension sous
PowerCenter
â— Remplacement des procédures stockées alimentant le DataWarehouse des financements par
des flux PowerCenter
â— Enrichissement du Framework Cognos
â— Développement de rapports prédéfinis sous Cognos 8.4 et 10
â— Mise en œuvre des plans de test et de non-régression
Assistance à la maîtrise d’ouvrage
Gestion des produits assurance des emprunteurs
Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG ainsi que
l’implémentation des cas d’usages de reporting pour les actuaires
Tâches :
Gestion de projet:
Réfèrent technique
Encadrement des développeurs
Définition des normes de développement
Animation des cérémonies agiles
Priorisation des sujets et création des indicateurs agiles
Data Engineering:
Développement des couches d’ingestion et de transformation dans le Datalake
Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
Réalisation des jobs Spark en JAVA
Orchestration des jobs avec Oozie (bundles, coordinator et workflow)
Réalisation de la pipeline GITLAB CI
Implémentation d’un plugin de tests unitaires pour les Hive Query Language (HQL)
Projet : – Gestion des produits assurance des emprunteurs
Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG
et implémentation des cas d’usage de reporting pour les actuaires
â— Encadrer les développeurs et définition des normes de développements
â— Réalisation de la pipeline GITLAB
â— Réalisation des jobs Spark en JAVA
â— Développement des couches d’ingestion et de transformation dans le datalake
â— Encadrer les développeurs de l'équipe
â— Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
â— Implémentation d’un plugin de tests unitaires pour les scripts HQL
â— Orchestration des jobs avec oozie (bundles, coordinator et workflow
â— Animation des cérémonies agiles
â— Priorisation des sujets et création des indicateurs agiles
â— Réfèrent technique
Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business Lake / Serving
Lake pour les utilisateurs finaux
Tâches :
Gestion de projet:
Encadrement des développeurs
Définition des normes de développement
Data Engineering:
Réalisation des jobs Spark Scala
Ingestion des données avec des moteurs réalisés avec Apache Spark en Scala et Python
Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, JSON, fichier à
position fixe
Participation à la migration de Hortonworks vers Cloudera Data Platform
Réalisation des tests unitaires avec ScalaTest et Spark Testing Base
Réalisation de la pipeline GITLAB CI
Création des Datasets et Pipelines avec Dataiku
Participation à un POC pour le passage vers du cloud public sur GCP
Projet : Équipe agile divisée en 2 squads - Équipe pilotage.
Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business
Lake et Serving Lake pour les utilisateurs finaux.
â— Encadrer les développeurs et définition des normes de développements
Réalisation de la pipeline GITLAB CI et suivi de la migration de HDP vers CDP
â— Réalisation des jobs Spark scala
â— Poc pour le passage vers du cloud public sur GCP
â— Ingestion avec des moteurs réalisés avec Apache Spark en scala et python.
â— Encadrer les développeurs de l'équipe
â— Réalisation des tests unitaires avec ScalaTest et Spark Testing Base.
â— Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, json, fichier à
position fixe...
â— Participation à la migration de Hortonworks vers Cloudera Data Platform
â— Création des Datasets et Pipeline avec Dataiku
â— Réfèrent technique
Projet : BASYLIQ (Base de synthèse de Liquidité) – Transformation Legacy en Datalake
de la partie taux et change : Calculs des métriques VAN/EVE, GAP, Position de change et
STX Encours…
â— Réalisation des jobs Spark scala en mode patch en utilisant la couche de persistance
Dataframe.
â— Création des externals tables en Parquet et Avro.
â— Participation à la mise en place de la nouvelle architecture BIG DATA
â— CI/CD gestion des déploiements (maven, jenkins et Ansible)
â— Réfèrent technique
â— Création des cubes dans Rafal (Cluster d’une base analytique clickhouse)
â— Support à la Production
â— Animation des ateliers projets
â— Réalisation des tests unitaires
â— Implémentation des pipelines data avec Databricks pour expérimenter Delta Lake (ACID)
â— Optimisation des jobs Spark
Projet : montée de version Informatica Powercenter et PowerExchange 9.1 vers 9.6.1
ORGANISATION :
1 Directeur de projet / 1 chef de projet
â–¡ 1 Expert et 1 consultants Informatica
â–¡ Contexte : Sensible
â— Participation aux ateliers projets
â— Etude de l’existant
â— Réalisation et tests unitaires
â— Préparation du processus de migration
â— Support pour la recette Utilisateur/Métier
â— Correction des anomalies
â— Rédaction des livrables
â— Reporting auprès du chef de projet (activité, alertes, risques)
Projet : Au sein du département Fonctionnement et Reporting d’AXA BANQUE,
maintenance applicative de toute la chaine d’alimentation PowerCenter et des scripts
Shell.
ORGANISATION :
â–¡ 1 Manager (MOE)
â–¡ 2 consultants Informatica PowerCenter
â–¡ Méthodologies mises en œuvre : Cycle en V
â–¡ Contexte : Sensible
â— Analyse des demandes ponctuelles et récurrentes provenant des différents comités métier :
Distribution, Banque et Épargne bancaire, Crédit, Banque privée et Clientèle directe
â— Chiffrage des demandes d’évolution (analyse d’impacts…)
â— Développement et enrichissement des flux PowerCenter (ODS, Entrepôt de données, DWH)
â— Développement de requêtes d’extraction de données en SQL
â— Suivi et traitement des anomalies (retour qualifications) et des demandes d’évolution (spécifiées par les métiers)
â— Analyse et optimisation des temps de traitements PowerCenter : analyse de la fluctuation des
temps de traitement
â— Mise en œuvre des plans de test et de non-régression
â— Gestion et suivi des workflows, mise en production et suivi de production
â— Support applicatif
Projet : - Gestion de risques bancaires par la
mise en place d’une base de reporting fournissant des indicateurs de pilotage internes et
réglementaires (LCR/NSFR, Sensibilité de la VAN, Position de Change, Marge Nette
d’intérêt).
ORGANISATION :
â–¡ Agilité à l’échelle
â–¡ Plusieurs Features Teams
â–¡ FT Taux et Change composé de plus de 15 Membres (Inde et Paris)
â–¡ Communication en Anglais
â–¡ Contexte : Sensible
â— Réalisation des composants informatica, Shell et PL/SQL
â— Optimisations informatica: Partitionning, Session GRID, Pushdown
â— Reporting SAP BI4 (Webi, Univers)
â— Assistance MOA et homologation métier
â— Assistance technique Equipe Paris & Inde
â—ÂÂ...