CV/Mission de Data Analyst APACHE ZEPPELIN freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions d'Idir,
Data Analyst APACHE ZEPPELIN habitant la Seine-Saint-Denis (93)

Expériences professionnelles

BNP Paribas: de 01/2021 à ce jour
Ingénieur Data
Projets:
• Traçabilité fraude
• Agrégateur des interactions
• V360 (Streaming Corporate et Retail)
• REST APIs
• Monitoring d’application
• Move to Cloud

Réalisations:
• Traçabilité : Projet visant à tracer les actions des utilisateurs pour améliorer l’efficacité de la lutte contre la fraude.

Mise en place de l’application Ingestion permettant de collecter, stocker et exposer des traces produites par les différentes applications métiers.
Développement d’un Transformer permettant aux différentes applications de s’accoster pour les intégrer leurs événements dans Base Trace.
Maintenance évolutive et corrective des jobs Spark.
Développement des jobs Spark d’historisation des événements de traçabilité dans le Cos :
• Octa vers COS, HDFS vers COS, Cassandra vers COS, Cassandra vers Elastic

• Agrégateur des interactions :
Développement d’une application de collecte des interactions des Voix entrantes des clients avec la banque, afin d’avoir une vision unifiée et centralisée permettant de reconstruire l’historique des échanges des clients avec la BNP pour mieux connaitre et satisfaire le client.
Développement d’une API/Swagger de restitution des interactions d’un client.

• V360 (Corporate et Retail): Connaissance Client
Développement d’un consumer et d’un Producer Kafka en Akka Stream pour consolider et router les données Relation Client vers d’autres Topics Kafka.
Rationalisation et enrichissement des données Référentiel Personnes pour offrir un accès et une recherche simple à la donnée d'un client
Maintenance évolutive et corrective des jobs Spark.
Mise en place de nouveaux Endpoint API/Swagger pour l’enrichissement de la connaissance client
Analyse et conception de réduction de l’impact Mainframe en vue d’économiser des mips.

• REST APIs INPI
Développement d’une API d’enrichissement des KPI à partir de l’API INPI et persistance des résultats dans Datahub.

• Move to Cloud
Migration des applications existantes vers Cloud IBM dMZR.

• Monitoring et Alerting application avec Splunk

Environnement technique : Scala, Java, Spring Boot, Spark, Kafka, MongoDB, Cassandra, RxJava, REST APIs Swagger, Docker, Kubernetes, CI/CD, IBM Cloud dMZR, Jenkins, Git, Helm, C3P0, Vault.

STET de 08/2018 à 12/2020
Ingénieur Data
Projets:
• Instant Payment (virement bancaire en temps réel)
• STET-CORE (Systèmes Technologiques d'Echange et de Traitement - (Compensation REtail))

Réalisations :
Mise en place d’une nouvelle application SWIP (Single Window for Instant Payment) offrant une accessibilité européenne et permettant aux banques d’échanger des instant Payments et des opérations bancaire en moins de 10 secondes.
Contrôle de Cohérence et calcul des positions des banques.
Analyse, conception, développement, tests, maintenance évolutive et corrective des anomalies et incidents
Réalisation des Tests sur l’environnement AWS
Implémentation de nouvelles règles règlementaire SIPS (module de la compensation)
Rétro-documentation des applications Cassandra

Environnement technique: Scala, Java, Spark , Spark Streaming, Kafka Streams, Cassandra, SQL, DataStax Entreprise, XML, Json, AWS, Git, Maven, Confluence, Jira, Jenkins, Java, Db2, Linux

EDF de 01/2018 à ce jour
Fonction : Développeur Big Data
Projet: (SI commerce pour le Marché de masse )
• Intégration de données dans le datalake: développement de nouvelles chaines d’intégration des flux de données.
Environnement technique: Hive, HDFS, NIFI, Oozie, Hortonworks, Kerberos, Jenkins, Git, Jira

Mobivia (Norauto, Midas, Eliocity) de 05/2017 à 11/2017
Fonction : Développeur Big Data
Projet :
• Projet Mobivia (Norauto, Midas, Eliocity) : Industrialisation des compagnes de marketing relationnel multi-canal (Canal SMS, Email, Print ..) pour informer les clients dans leurs besoins d’entretien de leur véhicule.

• Projet L’Occitane: Intégration et alimentation des données Neolane (marketing et commerciale) dans un data lake

Réalisations :
Création des scripts Hql «Hive »
Intégration des données dans le DataLake
Calcul de KPI commerciale
Rétro Ingénierie des scripts Saas R en Spark pour calcule de KPI.
Environnement technique: Spark, Scala, Hive, HDFS, SQL, Apache Zeppelin

Orange de 03/2016 à 03/2017
Fonction : Développeur Big Data – Java
Uses cases :
• PAD-SVA (Plateforme d’analyse décisionnelle des services à valeur ajoutée): mise à disposition de rapport et tableaux de bords sur l’audience des services à fin d’obtenir des indicateurs sur l’utilisation des SVA, analyse de l’évolution des demandes des utilisateurs et production automatique de données statistiques.
• LBF (Live Box Foudroyée): mise en place de deux sous-dispositifs permettant de:
• Prévenir le client en cas d’alerte orage pour éviter le foudroiement de sa LiveBox, en lui préconisant de l’éteindre.
• Détecter en proactif le foudroiement des LiveBox et de proposer au client, après validation, un échange automatique de sa LiveBox.
• RCA (Root Cause Analysis): mise en place d’une solution industrielle permettant de détecter et d’alarmer des dérangements collectifs du réseau structurant d’orange à fin de gagner, d’améliorer les interventions et de gagner des appels à la hotline.

Réalisations :
Développement d’application sur un cluster Hadoop Hortonworks 2.3 en utilisant Mapreduce, Spark, Hive, Hbase, Pig et Oozie,
Création des tables, fichiers HDFS et alimentation des tables Hive
Migration des uses de HDP 2.2 vers HDP 2.3,
Industrialisation des solutions en Java,
Vérification et validation des données issues des traitements,
Maintenances correctives et évolutives,
Packaging et test des installations des applications dans différents environnements,
Création et modification des scripts d’industrialisation des applications,
Suivi de production LBF.

Environnement technique: Hadoop, Hive, Pig, Spark, Mapreduce, Hbase, Oozie, Hortonworks , Yarn, Hue, SQL, Java, Maven, SVN,

SFR de 01/2013 à 12/2015
Fonction : Data Analyst
• Projet : Rationalisation et paramétrage des offres
Pour faire face à la concurrence, SFR a décidé d’optimiser ses offres et de mettre en place un dispositif permettant de traiter sereinement les flux des demandes et des données nécessitant des rattachements ou détachement en masse des produits.

Réalisations :
Compréhension et traduction du besoin en spécifications techniques.
Conception et mise Œuvre des scripts:
− Détection des différentes sources de données à prendre en compte (tables, logs..) et écriture de toutes les requêtes SQL de ciblage répondants aux critères du besoin,
− Collection, extraction, filtrage, transformation et structuration des données, en tenant compte

o des règles de gestion des systèmes et des contraintes techniques (bande passante réseau, .),
− Détermination des volumes et les listes des contrats impactés pour chaque besoin,
− Tests unitaires,
− Génération des requêtes SQL de mise à jour.
− Réalisation du traitement de mise à jour avec traçabilité et analyse des rejets,
Coordonner l’ensemble des actions précédentes,
Mise en place des reportings hebdomadaires et préparation des réunions.
Réalisation des outils d’extraction et de formatage de données (Java/JDBC).
Analyse des incidents dus à la désynchronisation entre SSA et planification de mise en cohérence
Mise en conformité ORIAN et SABO (serveur Abonné).
Mise à jour de l’ensemble des données des SSA.
Environnement technique: Java, JDBC, SQL, Unix, Shell, DB2, Oracle

FEEL EUROPE GROUP de 05/2012 à 12/2012
Fonction : CRM Microsoft Dynamics
Projet : NRE - Nouveau référentiel CRM d’entreprise
• Afin de soutenir sa croissance, la direction du groupe a confié à son département R&D le projet de remplacement de son CRM vieillissant par un CRM plus adaptée à ses besoins (prospection, gestion des affaires, gestion des carrières, recrutement et ressource humaine).

Réalisations :
Modification des formulaires CRM et création des vues en implémentant des workflows,
Création et Modification des fichiers XML des dépendances des données des différentes entités.
Développement des procédures stockées en Transact-SQL pour l’automatisation des tâches redondantes (exemple envoie automatique des courriers électroniques aux différents interlocuteurs commerciaux)
Environnement technique : Transact-SQL, SQL SERVEUR 2008, Microsoft Dynamics CRM, SQL, XML

SOCIETE GENERALE de 11/2011 à 03/2012
Fonction : Réalisateur
Projet : Mise à jour du Référentiel descriptif des organisations interne de l’ensemble du groupe Société Générale pour permettre aux applications composant ce Système Information de partager la même vision de l’organisation.
Réalisations :
Mise à jour du Référentiel des entités de structures RES et ERECA en utilisant l’outil OSR,
Requêtage dans Oracle,
Contrôle et veille au bon fonctionnement des applications Intranet,
Réalisation et réécriture des automates existants.
Environnement technique : SQL, Oracle, PL/SQL, OSR, ERECA.

CR...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data Analyst APACHE ZEPPELIN, Missions Data Analyst APACHE ZEPPELIN, Data Analyst APACHE ZEPPELIN freelance

Les nouvelles missions de Data Analyst APACHE ZEPPELIN

Release Manager

MAVEN JIRA SONAR GUIDEWIRE
ASAP
72 - Le Mans
3 mois
Voir la mission

Ingénieur Système & Infrastructure

LINUX APACHE WINDOWS ENTERPRISE ARCHITECT SECURITE
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur Java J2EE (H/F) en full remote

JAVA SQL GIT APACHE KAFKA Kubernetes
ASAP
69 - LYON
24 mois
Voir la mission

Intégrateur technique applicatif Windows

LINUX WINDOWS VMWARE APACHE ORACLE
ASAP
93 - NOISY-LE-GRAND
36 mois
Voir la mission

Ingénieur système Linux N3 confirmé H/F (5ans XP minimum)

UNIX LINUX APACHE TOMCAT POSTGRESQL
ASAP
69 - LYON
12 mois
Voir la mission

ADMINISTRATEUR SYSTEMES ET RESEAUX SUPPORT

LINUX APACHE ACTIVE DIRECTORY REDHAT WORDPRESS
ASAP
59 - VILLENEUVE-D'ASCQ
12 mois
Voir la mission

Administrateur Middleware (Secteur de l'énergie)

LINUX APACHE WEBLOGIC SCRIPT SHELL TOMCAT
ASAP
75 - PARIS
12 mois
Voir la mission

Ingénieur de production N2 MQ

WEBSPHERE MQ APACHE KAFKA RabbitMQ
ASAP
06 - VALBONNE
6 mois
Voir la mission

Expert Dynatrace F/H

SQL LINUX DYNATRACE APACHE TOMCAT
ASAP
92 - NANTERRE
12 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data Analyst APACHE ZEPPELIN disponibles

CV Data Scientist DATA
Ahlem

Data Scientist DATA

  • LA PLAINE-SAINT-DENIS
DATA SQL Microsoft Power BI PYTHON APACHE SPARK EXCEL SAS BI AZURE TALEND
Disponible
CV Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Mohamed

Architecte Big Data / Expert Cloud AWS/GCP/Azure

  • PALAISEAU
JAVA APACHE HADOOP DATA SCALA APACHE SPARK APACHE KAFKA BIG DATA AMAZON WEB SERVICES PYTHON AZURE
Disponible
CV Consultant Data Analyste  Certifié Microsoft | Formateur Microsoft Power BI
Jules

Consultant Data Analyste Certifié Microsoft | Formateur Microsoft Power BI

  • CERGY
Microsoft Power BI PL SQL
Disponible
CV Consultant technique Cloudera
Falaye

Consultant technique Cloudera

  • HERBLAY
Cloudera APACHE HADOOP APACHE SPARK APACHE HIVE ATLAS KERBEROS ANSIBLE GIT APACHE HBASE COUCHBASE
CV Data Protection Officer PYTHON
Houda

Data Protection Officer PYTHON

  • NANTERRE
PYTHON SAS APACHE SPARK Microsoft Power BI SSAS SSIS SSRS SQL SERVER SQL MYSQL
CV Développeur BIG DATA
Thierry

Développeur BIG DATA

  • SAINT-CYR-L'ÉCOLE
SCALA APACHE SPARK BIG DATA
CV Développeur JAVA
Yufeng

Développeur JAVA

  • PARIS
BIG DATA ELASTICSEARCH JAVA DEVOPS
CV Senior Data Engineer
Idir

Senior Data Engineer

  • NOISY LE GRAND
APACHE SPARK APACHE KAFKA APACHE HADOOP SCALA MONGODB Spring Boot SQL JAVA CASSANDRA Kubernetes
CV Data Scientist/Engineer PYTHON
Koçay

Data Scientist/Engineer PYTHON

  • LA GARENNE-COLOMBES
PYTHON AZURE BIG DATA
CV Développeur SQL
Haifa

Développeur SQL

  • PARIS
SQL SCALA
Je trouve mon freelance