Architecte Système
EDF
janvier 2025 - aujourd'hui
Logo de EDF
Architecte solutionsArchitecte solutions
EDF · FreelanceEDF · Freelance
janv. 2025 - aujourd’hui · 1 an 1 moisDe janv. 2025 à aujourd’hui · 1 an 1 mois
Île-de-France, FranceÎle-de-France, France
• IPaaS self-service « WebMethods » : mise en place d’une plateforme self-service pour centraliser l𠆞nsemble des flux d’intégration de données entre les modèles de données d et ses filières afin d’homogénéiser et de standardiser les outils et les processus d'intégration de données au sein de IPN.
- Emergence et cadrage du besoin (contexte, périmètre, dépendances, objectifs, planification) de l’offre de service.
- Conception de l𠆚rchitecture au niveau fonctionnelle, applicative (Cloud et On Premise).
• DIING : Référentiels de Données d'Intérêt pour l'Ingénierie Nucléaire Généralisée.
- Elaboration des scénarios d𠆚rchitecture de consommation des données DIING.
- Modélisation des flux de données en collaboration avec les équipes opérationnelles (direction des achats globale G’ et Données d'Intérêt pour l'Ingénierie Nucléaire Généralisée 𠆍IING’).
- Mapping et transformation de données.
• Interfaçage entre PLED et Kafka.
- Etude de faisabilité de découplage des applications utilisant la Plateforme d’échange de données ‘PLED’ pour répondre aux problèmes d’interruption des services en utilisant Kafka.
Réalisation:
- Conception d𠆚rchitecture fonctionnelle, applicative et technique.
- Cadrage des besoins
- Intégration des données avec WebMethods, API, Plateforme d'échange de données EDF.
- Prise en compte des contraintes de cybersécurité et de RGPD dans les architectures.
- Rédaction et présentation de la solution à la design autorité.
- Participation et Organisation des ateliers de travail avec les différents partenaires.
- Définition et collecte des besoins en données métiers.
- Définition des patterns d’intégration de données.
- Conception des modèles de données métiers.
architecte solutions
GRDF
août 2023 - décembre 2024
Plateforme d’intelligence artificielle « Dataiku DSS » :
- Mise place d’une plateforme DataLab IA «Dataiku DSS» On-premise et sur le Cloud AWS pour les
besoins d’industrialisation critiques.
- Construction des cartographies de l𠆞nsemble des flux et fonctionnalités de la plateforme IA.
• Plateforme de données Analytics (PDA) avec Snowflake dans le Cloud AWS :
- Mise place d’une plateforme data Analytics permettant dueillir tous les projets BI & Data Analytics de GRDF dans un environnement sécurisé et gouverné afin de mieux valoriser et expoiter le patrimoine de données de l𠆞ntreprise, plateforme construite avec Snowflake.
• New ROC : Master Data Management – Mise en place du Référentiel des Organisations de GRDF:
Afin d’uniformiser les données des organisations, GRDF souhaite la mise en place d’un nouveau Référentiel unique pour répondre aux enjeux de GRDF en termes de qualités de données.
- Mise place d’une plateforme Master Data Management avec Semarchy on premise.
• Proof Of Concept - POC:
- Réalisation des POC d’étude et de faisabilité des solutions (Starburst /Trino)
Réalisation:
- Conception d𠆚rchitecture fonctionnelle, applicative et technique.
- Suivi des projets à enjeux data dans l’élaboration et les phases de réalisation des architectures applicatives.
- Intégration des données avec Kafka, Informatica, ETL.
- Prise en compte des contraintes cybersécurité et de RGPD dans les architectures.
- Rédaction du document Application Solution Design (ASD).
- Cartographie (solutions, des données, modèles et les flux d’échanges).
- Participation aux revues d𠆚rchitecture.
- Application et respect des patterns, normes, bonnes pratiques.
AWS, VMware, Data Mesh, MongoDB, Kafka, Semarchy, Dataiku DSS, Snowflake, Airflow, BDT, Informatica, ETL, API, Trino, Drawio, Archimate, Apache Superset
Ingénieur Data
BNP Paribas
janvier 2021 - aujourd'hui
Projets:
&bull Traçabilité fraude
&bull Agrégateur des interactions
&bull V360 (Streaming Corporate et Retail)
&bull REST APIs
&bull Monitoring d&rsquoapplication
&bull Move to Cloud
Réalisations:
&bull Traçabilité : Projet visant à tracer les actions des utilisateurs pour améliorer l&rsquoefficacité de la lutte contre la fraude.
Mise en place de l&rsquoapplication Ingestion permettant de collecter, stocker et exposer des traces produites par les différentes applications métiers.
Développement d&rsquoun Transformer permettant aux différentes applications de s&rsquoaccoster pour les intégrer leurs événements dans Base Trace.
Maintenance évolutive et corrective des jobs Spark.
Développement des jobs Spark d&rsquohistorisation des événements de traçabilité dans le Cos :
&bull Octa vers COS, HDFS vers COS, Cassandra vers COS, Cassandra vers Elastic
&bull Agrégateur des interactions :
Développement d&rsquoune application de collecte des interactions des Voix entrantes des clients avec la banque, afin d&rsquoavoir une vision unifiée et centralisée permettant de reconstruire l&rsquohistorique des échanges des clients avec la BNP pour mieux connaitre et satisfaire le client.
Développement d&rsquoune API/Swagger de restitution des interactions d&rsquoun client.
&bull V360 (Corporate et Retail): Connaissance Client
Développement d&rsquoun consumer et d&rsquoun Producer Kafka en Akka Stream pour consolider et router les données Relation Client vers d&rsquoautres Topics Kafka.
Rationalisation et enrichissement des données Référentiel Personnes pour offrir un accès et une recherche simple à la donnée d'un client
Maintenance évolutive et corrective des jobs Spark.
Mise en place de nouveaux Endpoint API/Swagger pour l&rsquoenrichissement de la connaissance client
Analyse et conception de réduction de l&rsquoimpact Mainframe en vue d&rsquoéconomiser des mips.
&bull REST APIs INPI
Développement d&rsquoune API d&rsquoenrichissement des KPI à partir de l&rsquoAPI INPI et persistance des résultats dans Datahub.
&bull Move to Cloud
Migration des applications existantes vers Cloud IBM dMZR.
&bull Monitoring et Alerting application avec Splunk
Scala, Java, Spring Boot, Spark, Kafka, MongoDB, Cassandra, RxJava, REST APIs Swagger, Docker, Kubernetes, CI/CD, IBM Cloud dMZR, Jenkins, Git, Helm, C3P0, Vault.
Ingénieur Data
STET
août 2018 - décembre 2020
Projets:
&bull Instant Payment (virement bancaire en temps réel)
&bull STET-CORE (Systèmes Technologiques d'Echange et de Traitement - (Compensation REtail))
Réalisations :
Mise en place d&rsquoune nouvelle application SWIP (Single Window for Instant Payment) offrant une accessibilité européenne et permettant aux banques d&rsquoéchanger des instant Payments et des opérations bancaire en moins de 10 secondes.
Contrôle de Cohérence et calcul des positions des banques.
Analyse, conception, développement, tests, maintenance évolutive et corrective des anomalies et incidents
Réalisation des Tests sur l&rsquoenvironnement AWS
Implémentation de nouvelles règles règlementaire SIPS (module de la compensation)
Rétro-documentation des applications Cassandra
Scala, Java, Spark , Spark Streaming, Kafka Streams, Cassandra, SQL, DataStax Entreprise, XML, Json, AWS, Git, Maven, Confluence, Jira, Jenkins, Java, Db2, Linux
Développeur Big Data
EDF
janvier 2018 - aujourd'hui
Projet: (SI commerce pour le Marché de masse )
&bull Intégration de données dans le datalake: développement de nouvelles chaines d&rsquointégration des flux de données.
Hive, HDFS, NIFI, Oozie, Hortonworks, Kerberos, Jenkins, Git, Jira
Développeur Big Data &ndash Java
Orange
mars 2016 - mars 2017
Uses cases :
&bull PAD-SVA (Plateforme d&rsquoanalyse décisionnelle des services à valeur ajoutée): mise à disposition de rapport et tableaux de bords sur l&rsquoaudience des services à fin d&rsquoobtenir des indicateurs sur l&rsquoutilisation des SVA, analyse de l&rsquoévolution des demandes des utilisateurs et production automatique de données statistiques.
&bull LBF (Live Box Foudroyée): mise en place de deux sous-dispositifs permettant de:
&bull Prévenir le client en cas d&rsquoalerte orage pour éviter le foudroiement de sa LiveBox, en lui préconisant de l&rsquoéteindre.
&bull Détecter en proactif le foudroiement des LiveBox et de proposer au client, après validation, un échange automatique de sa LiveBox.
&bull RCA (Root Cause Analysis): mise en place d&rsquoune solution industrielle permettant de détecter et d&rsquoalarmer des dérangements collectifs du réseau structurant d&rsquoorange à fin de gagner, d&rsquoaméliorer les interventions et de gagner des appels à la hotline.
Réalisations :
Développement d&rsquoapplication sur un cluster Hadoop Hortonworks 2.3 en utilisant Mapreduce, Spark, Hive, Hbase, Pig et Oozie,
Création des tables, fichiers HDFS et alimentation des tables Hive
Migration des uses de HDP 2.2 vers HDP 2.3,
Industrialisation des solutions en Java,
Vérification et validation des données issues des traitements,
Maintenances correctives et évolutives,
Packaging et test des installations des applications dans différents environnements,
Création et modification des scripts d&rsquoindustrialisation des applications,
Suivi de production LBF.
Hadoop, Hive, Pig, Spark, Mapreduce, Hbase, Oozie, Hortonworks , Yarn, Hue, SQL, Java, Maven, SVN,
Data Analyst
SFR
janvier 2013 - décembre 2015
&bull Projet : Rationalisation et paramétrage des offres
Pour faire face à la concurrence, SFR a décidé d&rsquooptimiser ses offres et de mettre en place un dispositif permettant de traiter sereinement les flux d...