CV/Mission de Data Analyst APACHE ZEPPELIN freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions d'Idir,
Data Analyst APACHE ZEPPELIN habitant la Seine-Saint-Denis (93)

Architecte Système
EDF
janvier 2025 - aujourd'hui
Logo de EDF
Architecte solutionsArchitecte solutions
EDF · FreelanceEDF · Freelance
janv. 2025 - aujourd’hui · 1 an 1 moisDe janv. 2025 à aujourd’hui · 1 an 1 mois
Île-de-France, FranceÎle-de-France, France
• IPaaS self-service « WebMethods » : mise en place d’une plateforme self-service pour centraliser l𠆞nsemble des flux d’intégration de données entre les modèles de données d� et ses filières afin d’homogénéiser et de standardiser les outils et les processus d'intégration de données au sein de IPN.
- Emergence et cadrage du besoin (contexte, périmètre, dépendances, objectifs, planification) de l’offre de service.
- Conception de l𠆚rchitecture au niveau fonctionnelle, applicative (Cloud et On Premise).

• DIING : Référentiels de Données d'Intérêt pour l'Ingénierie Nucléaire Généralisée.
- Elaboration des scénarios d𠆚rchitecture de consommation des données DIING.
- Modélisation des flux de données en collaboration avec les équipes opérationnelles (direction des achats globale �G’ et Données d'Intérêt pour l'Ingénierie Nucléaire Généralisée 𠆍IING’).
- Mapping et transformation de données.

• Interfaçage entre PLED et Kafka.
- Etude de faisabilité de découplage des applications utilisant la Plateforme d’échange de données ‘PLED’ pour répondre aux problèmes d’interruption des services en utilisant Kafka.

Réalisation:

- Conception d𠆚rchitecture fonctionnelle, applicative et technique.
- Cadrage des besoins
- Intégration des données avec WebMethods, API, Plateforme d'échange de données EDF.
- Prise en compte des contraintes de cybersécurité et de RGPD dans les architectures.
- Rédaction et présentation de la solution à la design autorité.
- Participation et Organisation des ateliers de travail avec les différents partenaires.
- Définition et collecte des besoins en données métiers.
- Définition des patterns d’intégration de données.
- Conception des modèles de données métiers.

architecte solutions
GRDF
août 2023 - décembre 2024
Plateforme d’intelligence artificielle « Dataiku DSS » :
- Mise place d’une plateforme DataLab IA «Dataiku DSS» On-premise et sur le Cloud AWS pour les
besoins d’industrialisation critiques.
- Construction des cartographies de l𠆞nsemble des flux et fonctionnalités de la plateforme IA.

• Plateforme de données Analytics (PDA) avec Snowflake dans le Cloud AWS :
- Mise place d’une plateforme data Analytics permettant d�ueillir tous les projets BI & Data Analytics de GRDF dans un environnement sécurisé et gouverné afin de mieux valoriser et expoiter le patrimoine de données de l𠆞ntreprise, plateforme construite avec Snowflake.

• New ROC : Master Data Management – Mise en place du Référentiel des Organisations de GRDF:
Afin d’uniformiser les données des organisations, GRDF souhaite la mise en place d’un nouveau Référentiel unique pour répondre aux enjeux de GRDF en termes de qualités de données.
- Mise place d’une plateforme Master Data Management avec Semarchy on premise.

• Proof Of Concept - POC:
- Réalisation des POC d’étude et de faisabilité des solutions (Starburst /Trino)

Réalisation:
- Conception d𠆚rchitecture fonctionnelle, applicative et technique.
- Suivi des projets à enjeux data dans l’élaboration et les phases de réalisation des architectures applicatives.
- Intégration des données avec Kafka, Informatica, ETL.
- Prise en compte des contraintes cybersécurité et de RGPD dans les architectures.
- Rédaction du document Application Solution Design (ASD).
- Cartographie (solutions, des données, modèles et les flux d’échanges).
- Participation aux revues d𠆚rchitecture.
- Application et respect des patterns, normes, bonnes pratiques.
AWS, VMware, Data Mesh, MongoDB, Kafka, Semarchy, Dataiku DSS, Snowflake, Airflow, BDT, Informatica, ETL, API, Trino, Drawio, Archimate, Apache Superset

Ingénieur Data
BNP Paribas
janvier 2021 - aujourd'hui
Projets:
&bull Traçabilité fraude
&bull Agrégateur des interactions
&bull V360 (Streaming Corporate et Retail)
&bull REST APIs
&bull Monitoring d&rsquoapplication
&bull Move to Cloud

Réalisations:
&bull Traçabilité : Projet visant à tracer les actions des utilisateurs pour améliorer l&rsquoefficacité de la lutte contre la fraude.

Mise en place de l&rsquoapplication Ingestion permettant de collecter, stocker et exposer des traces produites par les différentes applications métiers.
Développement d&rsquoun Transformer permettant aux différentes applications de s&rsquoaccoster pour les intégrer leurs événements dans Base Trace.
Maintenance évolutive et corrective des jobs Spark.
Développement des jobs Spark d&rsquohistorisation des événements de traçabilité dans le Cos :
&bull Octa vers COS, HDFS vers COS, Cassandra vers COS, Cassandra vers Elastic

&bull Agrégateur des interactions :
Développement d&rsquoune application de collecte des interactions des Voix entrantes des clients avec la banque, afin d&rsquoavoir une vision unifiée et centralisée permettant de reconstruire l&rsquohistorique des échanges des clients avec la BNP pour mieux connaitre et satisfaire le client.
Développement d&rsquoune API/Swagger de restitution des interactions d&rsquoun client.

&bull V360 (Corporate et Retail): Connaissance Client
Développement d&rsquoun consumer et d&rsquoun Producer Kafka en Akka Stream pour consolider et router les données Relation Client vers d&rsquoautres Topics Kafka.
Rationalisation et enrichissement des données Référentiel Personnes pour offrir un accès et une recherche simple à la donnée d'un client
Maintenance évolutive et corrective des jobs Spark.
Mise en place de nouveaux Endpoint API/Swagger pour l&rsquoenrichissement de la connaissance client
Analyse et conception de réduction de l&rsquoimpact Mainframe en vue d&rsquoéconomiser des mips.

&bull REST APIs INPI
Développement d&rsquoune API d&rsquoenrichissement des KPI à partir de l&rsquoAPI INPI et persistance des résultats dans Datahub.

&bull Move to Cloud
Migration des applications existantes vers Cloud IBM dMZR.

&bull Monitoring et Alerting application avec Splunk
Scala, Java, Spring Boot, Spark, Kafka, MongoDB, Cassandra, RxJava, REST APIs Swagger, Docker, Kubernetes, CI/CD, IBM Cloud dMZR, Jenkins, Git, Helm, C3P0, Vault.

Ingénieur Data
STET
août 2018 - décembre 2020
Projets:
&bull Instant Payment (virement bancaire en temps réel)
&bull STET-CORE (Systèmes Technologiques d'Echange et de Traitement - (Compensation REtail))

Réalisations :
Mise en place d&rsquoune nouvelle application SWIP (Single Window for Instant Payment) offrant une accessibilité européenne et permettant aux banques d&rsquoéchanger des instant Payments et des opérations bancaire en moins de 10 secondes.
Contrôle de Cohérence et calcul des positions des banques.
Analyse, conception, développement, tests, maintenance évolutive et corrective des anomalies et incidents
Réalisation des Tests sur l&rsquoenvironnement AWS
Implémentation de nouvelles règles règlementaire SIPS (module de la compensation)
Rétro-documentation des applications Cassandra
Scala, Java, Spark , Spark Streaming, Kafka Streams, Cassandra, SQL, DataStax Entreprise, XML, Json, AWS, Git, Maven, Confluence, Jira, Jenkins, Java, Db2, Linux

Développeur Big Data
EDF
janvier 2018 - aujourd'hui
Projet: (SI commerce pour le Marché de masse )
&bull Intégration de données dans le datalake: développement de nouvelles chaines d&rsquointégration des flux de données.
Hive, HDFS, NIFI, Oozie, Hortonworks, Kerberos, Jenkins, Git, Jira

Développeur Big Data &ndash Java
Orange
mars 2016 - mars 2017
Uses cases :
&bull PAD-SVA (Plateforme d&rsquoanalyse décisionnelle des services à valeur ajoutée): mise à disposition de rapport et tableaux de bords sur l&rsquoaudience des services à fin d&rsquoobtenir des indicateurs sur l&rsquoutilisation des SVA, analyse de l&rsquoévolution des demandes des utilisateurs et production automatique de données statistiques.
&bull LBF (Live Box Foudroyée): mise en place de deux sous-dispositifs permettant de:
&bull Prévenir le client en cas d&rsquoalerte orage pour éviter le foudroiement de sa LiveBox, en lui préconisant de l&rsquoéteindre.
&bull Détecter en proactif le foudroiement des LiveBox et de proposer au client, après validation, un échange automatique de sa LiveBox.
&bull RCA (Root Cause Analysis): mise en place d&rsquoune solution industrielle permettant de détecter et d&rsquoalarmer des dérangements collectifs du réseau structurant d&rsquoorange à fin de gagner, d&rsquoaméliorer les interventions et de gagner des appels à la hotline.

Réalisations :
Développement d&rsquoapplication sur un cluster Hadoop Hortonworks 2.3 en utilisant Mapreduce, Spark, Hive, Hbase, Pig et Oozie,
Création des tables, fichiers HDFS et alimentation des tables Hive
Migration des uses de HDP 2.2 vers HDP 2.3,
Industrialisation des solutions en Java,
Vérification et validation des données issues des traitements,
Maintenances correctives et évolutives,
Packaging et test des installations des applications dans différents environnements,
Création et modification des scripts d&rsquoindustrialisation des applications,
Suivi de production LBF.
Hadoop, Hive, Pig, Spark, Mapreduce, Hbase, Oozie, Hortonworks , Yarn, Hue, SQL, Java, Maven, SVN,

Data Analyst
SFR
janvier 2013 - décembre 2015
&bull Projet : Rationalisation et paramétrage des offres
Pour faire face à la concurrence, SFR a décidé d&rsquooptimiser ses offres et de mettre en place un dispositif permettant de traiter sereinement les flux d...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Data Analyst APACHE ZEPPELIN, Missions Data Analyst APACHE ZEPPELIN, Data Analyst APACHE ZEPPELIN freelance

Les nouvelles missions de Data Analyst APACHE ZEPPELIN

Ingénieur de production connaissances ANSIBLE

JBoss Ansible J2EE Tomcat
04/05/2026
94 - CHARENTON
12 mois
Voir la mission

Ingénieur de Production OPS

Linux Windows CI/CD Jenkins Apache
04/05/2026
75 - PARIS
6 mois
Voir la mission

Consultant Junior/confirmé DataScience DataEng.

SQL Python Apache Spark Microsoft Power BI Google Cloud Platform
ASAP
75 - PARIS
6 mois
Voir la mission

Team Leader Data engineering

Python Talend Apache Spark Snowflake Power BI
ASAP
33 - BORDEAUX
12 mois
Voir la mission

Développeur Java / J2EE

Java Eclipse Maven Spring REST
ASAP
75 - PARIS
12 mois
Voir la mission

Recherche formateur freelance – APACHE JMETER (2 jours) – Bruxelles – Décembre

JMeter
ASAP
75 - PARIS
2 jours ouvrés
Voir la mission

Ingénieur de Production Applicative

Tomcat
04/05/2026
75 - PARIS
6 mois
Voir la mission

Ingénieur OPS

Linux Windows Apache Tomcat
ASAP
21 - Dijon
9 mois
Voir la mission

Administrateur Système Middleware/F5

F5 VTOM Java Tomcat Linux
ASAP
79 - Niort
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Data Analyst APACHE ZEPPELIN disponibles

CV Data Analyst
Adnane

Data Analyst

  • PARIS
Apache Spark SQL Microsoft Power BI Python Data Excel Big Data Jira Tableau Software Google Cloud Platform
Disponible
CV Consultant technique plateforme Big Data
Falaye

Consultant technique plateforme Big Data

  • HERBLAY
Cloudera Apache Hadoop Apache Spark Apache Hive Atlas Kerberos Ansible Git Apache HBase Couchbase
Disponible
CV Consultant Data Analyste  Certifié Microsoft | Formateur Microsoft Power BI
Jules

Consultant Data Analyste Certifié Microsoft | Formateur Microsoft Power BI

  • CERGY
Microsoft Power BI PL/SQL
Disponible
CV Architecte Solutions & architecte Système
Idir

Architecte Solutions & architecte Système

  • NOISY LE GRAND
REST Enterprise Architect Apache Kafka Apache Spark Apache Hadoop SQL Language Modeling DevOps ArchiMate Python
Disponible
CV Assistant à maîtrise d'ouvrage SAS
Philippe

Assistant à maîtrise d'ouvrage SAS

  • PARIS
SAS Oracle
CV Chef de projet  DATA
Mohamed

Chef de projet DATA

  • BUSSY-SAINT-GEORGES
SQL Project Management Office ITIL Windows Big Data Agile SAP BI Oracle SQL Server Business Objects
CV Consultant Data
Farouk

Consultant Data

  • COLOMBES
Elasticsearch SQL Kibana Docker Linux Apache Lucene C# Azure Google Cloud Platform Apache Kafka
CV Data Engineer
Jamila

Data Engineer

  • COLOMBES
Apache Spark PySpark Scala Python Big Data Apache Hadoop Google Cloud Platform
CV Data Engineer / Full Stack
Aniss

Data Engineer / Full Stack

  • MAISONS-LAFFITTE
Apache Spark Python Scala SQL Cloud AWS Docker React.js Rust Airflow Kubernetes
CV Architecte WEBSPHERE
Vincent

Architecte WEBSPHERE

  • Luzarches
WebSphere Sun Solaris Unix AIX Unix Solaris VMware SVN VLAN Windows Server 2008 VMware vSphere VMware vCloud Suite
Je trouve mon freelance