Data Engineer SPARK / SCALA
Ref : 210112C003-
ASAP
-
94 - Charenton-le-Pont
-
12 mois (renouvelables)
-
Data Scientist
Compétences requises
Description de la mission
Nous recherchons un Data Engineer SPARK / SCALA sur Charenton-le-Pont pour une mission de 12 mois renouvelables.
Contexte de la mission :
• Une réglementation bancaire mondiale de plus en plus exigeante mêlant vision comptable, prudentielle et risque,
• Un contexte économique assez instable impliquant une adaptation constante des décisions de gestion,
• Une évolution vers une culture centrée sur la Data et s'appuyant sur les nouvelles technologies autour du Big Data
Dans ce contexte, notre client a lancé le programme GASPARD qui se déroulera sur 4 ans (2020 / 2024) et sera suivi au niveau du CDG. Ce programme s'articule autour des 4 principaux chantiers ci-dessous :
• Mise en place d'une assiette comptable certifiée & unique sur l'ensemble du périmètre servant de référence pour les calculateurs et reportings Finance et Risques
• Décommissionnement de Matisse EPM (base de données actuelle des inventaires Finance) et capitalisation sur le Datalake Finance & Risk
• Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka)
• Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence
Objectifs de la mission :
La mission, au sein de l’équipe «Datalake Finance», sera de prendre part aux développements rendus nécessaires par le projet "GASPARD", stream Assiette comptable de référence - Certification ; tout en étant garant de la pérennité et la non régression de l’outillage déjà en place. Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec les acteurs métiers.
Nous demandons :
• Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos)
• A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée)
• Expérience de travail dans un environnement Agile; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban)
• Autonomie et rigueur
Description :
• Maîtriser l'utilisation avancée des données et réaliser des projets décisionnels, datamining, et data management
• Assurer le développement et l'industrialisation des applications utilisant une grosse volumétrie
• Analyser les besoins clients
• Approche analytique, statistique ou encore en "Machine Learning"
• Concevoir et réaliser des solutions Big Data (Collecte, transforme, analyse et visualise des données sur une large volumétrie avec un niveau de performance élevé)
Anglais indispensable.
Démarrage prévu pour le 18 janvier 2021.
Contexte de la mission :
• Une réglementation bancaire mondiale de plus en plus exigeante mêlant vision comptable, prudentielle et risque,
• Un contexte économique assez instable impliquant une adaptation constante des décisions de gestion,
• Une évolution vers une culture centrée sur la Data et s'appuyant sur les nouvelles technologies autour du Big Data
Dans ce contexte, notre client a lancé le programme GASPARD qui se déroulera sur 4 ans (2020 / 2024) et sera suivi au niveau du CDG. Ce programme s'articule autour des 4 principaux chantiers ci-dessous :
• Mise en place d'une assiette comptable certifiée & unique sur l'ensemble du périmètre servant de référence pour les calculateurs et reportings Finance et Risques
• Décommissionnement de Matisse EPM (base de données actuelle des inventaires Finance) et capitalisation sur le Datalake Finance & Risk
• Mise en place d'une nouvelle plateforme globale de suivi des contrôles et de gestion des corrections (en se basant sur le streaming évènementiel type Kafka)
• Optimisation et rationalisation du SI Finance (prudentiel notamment) basé sur cette assiette comptable de référence
Objectifs de la mission :
La mission, au sein de l’équipe «Datalake Finance», sera de prendre part aux développements rendus nécessaires par le projet "GASPARD", stream Assiette comptable de référence - Certification ; tout en étant garant de la pérennité et la non régression de l’outillage déjà en place. Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec les acteurs métiers.
Nous demandons :
• Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos)
• A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée)
• Expérience de travail dans un environnement Agile; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban)
• Autonomie et rigueur
Description :
• Maîtriser l'utilisation avancée des données et réaliser des projets décisionnels, datamining, et data management
• Assurer le développement et l'industrialisation des applications utilisant une grosse volumétrie
• Analyser les besoins clients
• Approche analytique, statistique ou encore en "Machine Learning"
• Concevoir et réaliser des solutions Big Data (Collecte, transforme, analyse et visualise des données sur une large volumétrie avec un niveau de performance élevé)
Anglais indispensable.
Démarrage prévu pour le 18 janvier 2021.