CV/Mission de Développeur Cloudera freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Nidhal,
Développeur Cloudera habitant les Hauts-de-Seine (92)

EXPERIENCE PROFESSIONNELLE

CNAV | Expert Talend – Architecte BI
Sept 2022 – Aujourd'hui
Accompagnement et conseil de l’équipe Data Factory –
Architecture, modélisation et ingestion de données.
❖ COPROD
• Optimiser le processus de la production et la qualité
de service
Introduction aux notions de la BI Agile.
Introduction aux notions d’ingestion massive.
Mise en place d’une stratégie d’ingestion de
données en couche.
Implémentation des jobs assurant la synchronisation
de l’entrepôt de données.
Implémentation des vues matérialisées pour assurer
l’exposition des données à la visualisation.
❖ FIABILISATION
• Optimiser le processus de fiabilisation de la carrière
Organisation du Backlog produit à fin de réduire les
éventuelles dépendances.
Mise en place de la Matrice Bus de Données.
Modélisation des différents objet à charger.
Implémentation des jobs Talend assurant le
chargement des différents objets à travers les
différentes couches.
❖ TRANSVERSE
• Mise en place d’un cycle de développement Talend.
• Migration depuis SVN vers GitLab.
• Travaux d’optimisation sur les chaines d’ingestion Big
Data.
• Formation des équipes: Agilité, BI, Data Vault, Talend
Dimension du projet
8 personnes
Termes Métiers
Domaine, Produit de données,
Reservoire, Carrière,
Fiabilisation, RGCU, etc...
Socle technique
TAC, Cloudera V6, Hadoop,
Oracle, PostgreSQL, SVN, Git,
ELT/ETL, Hive, Spark, Parquet,
EDWH, Indexima, PowerBI ,
etc…

Minitubes | Tech Lead Data Analytics
Mai 2022 – Août 2022
• Définition de la roadmaps et accompagnement sur
la mise en œuvre d’une stratégie data agile.
• Etude comparative des différents choix technologiques
tout en prenant en compte les cas business, le type de
données sources, le budget, les compétences.
• Proposition et validations des unités d’œuvres et work
package de mise œuvre dans le cadre de la phase
d’ingestion de données.
• Mise en place d’un scénario d’intégration de données.
Dimension du projet
3 mois – 4 personnes
Termes Métiers
Domaine Facturation, Domaine
Opération, Process, etc...
Socle technique
Talend Cloud, Snowflake, Git,
Remote Engine, ELT/ETL, Azure,
etc...

BNP Real Estate| Consultant Data – Expert Talend
Juin 2021 – Avr 2022
L'équipe RESEARCH a besoin d’acquérir le maximum de données
statistiques immobilières dans les pays ou BNPRE commercialise
des produits, le croisement des données permet de créer de
l’intelligence et de faire des analyses de marché approfondies.
❖ Partie Projet IRD:
➢ Mise en place d'un cycle de vie de développement
• Implémentation d'un SDLC facilitant le travail
collaboratif et les revues de code croisées.
• Assurer la formation de l'équipe sur le Workflow de
développement proposé.
• Mise en place d'un tableau KANBAN pour assurer une
gestion visuelle plus détaillée.
➢ Mise en place d'un système d'automatisation du processus
d'alimentation à travers un Framework de métadonnées
• Modélisation d'un entrepôt de données de deux
couches.
• Implémentation des jobs Talend assurant le suivi des
exécutions.
• Implémentation des jobs d’intégration de données
respectant les règles de gestion.
• Implémentation d'une mécanique de gestion de rejets et
de notification.
• Accompagner les membres de l’équipe sur la mise en
place des connecteurs d'intégration via des service web
REST.
➢ Mise à disposition et modélisation des données pour le
Reporting
• Animation des réunions de grooming pour assurer la
bonne compréhension du besoin.
• Implémentation du Data Module.
• Participation au développement des rapports
analytiques.
Dimension du projet
12 mois – 6 personnes
Termes Métiers
Location, Offre, Investissement,
etc...
Termes techniques
tExtractXmlField, tRESTClient, Git,
etc...
Outils techniques
Talend Open Studio, GitEye,
GitLab, Putty, WinSCP, SQL
Server, etc...

Fnac-Darty| Tech Lead Talend
Fév 2021 – Juin 2021
Mise en place de l'entrepôt de données Fnac-Darty
❖ Partie Projet - EAGLE
• Rédaction et préparation de la
stratégie d'alimentation.
• Conception et développement de Template de
développement des jobs Talend en mode ELT.
• Accompagner les juniors sur les difficultés rencontrés.
• Mise en place des algorithmes de Hash pour la
création des SK pour paralléliser les traitements sur les
différentes couches d'intégration.
Dimension du projet
5 mois – 7 personnes
Termes Métiers
Ref magasin, Ref produit, ligne
de vente, etc...
Termes techniques
tExtractXmlField, ELT, Raw Data
Layer, Business Data LAyer,
DWH, etc...
Outils techniques
Talend Big Data Real Time,
Talend Administration
Center, Teradata, Putty,
WinSCP.

PeopleSpheres| Team Lead Talend – Smart connecteurs
Juil 2019 - Janv 2021
Mise en place et maintien des synchronisations des
données avec les fournisseurs de services.
❖ Partie smart connecteur:
➢ Agrume : Implémentation d’un connecteur d’intégration des
collaborateurs | 10 Flux
• Collaboration étroite avec le responsable des opérations
pour assurer l’affinement de besoin.la répartition de
charge.
• Paramétrage du socle peopleSpheres pour assurer la
synchronisation des données avec le partenaire.
• Planification des itérations, rédaction des user stories,
estimation et négociation des délais.
• Analyse des APIs et Implémentation des flux Talend
sortants et entrants.
• Planification de la phase QA et UAT avec les parties
prenantes internes après avoir validé techniquement le
code en revue croisée.
• Mise en production, et planification des flux.
➢ eDocSign : Implémentation d’un connecteur de gestion de
signature électronique. | 6 Flux
• Préparation des jeux de données et analyse du besoin.
• Planification et préparation des itérations.
• Mise en place des comportements attendus (BDD:
Behavior Driven Development) avec le chef de projet
fonctionnel.
• Implémentations des flux Talend assurant la transition
des données.
• Validation de PV d’UAT (User Acceptance Test) interne.
Dimension du projet
19 mois – 8 personnes
Termes Métiers
Onboarding, TurnOver, Bilan
Social, Gestion des talents,
Gestion des déponses, etc...
Termes techniques
tJsonWrite, tRESTClient,
tHttpRequest, tREST, tKeyStore,
DynamicSchema , Xslt, XML,
JRXML, etc...
Outils techniques
Talend Studio 7.0.1, Talend
Cloud Management Console,
Talend Data Preparation, Git,
PgAdmin Filezilla, Putty, WinSCP.
➢ Flatchr : Implémentation d’un connecteur de recrutement | 4 Flux
• Rédaction des user stories et validation du workflow
fonctionnel.
• Paramétrage et préparation de la plateforme
peopleSpheres pour intégrer le nouveau partenaire.
• Implémentation des flux de synchronisation des données.
• Préparation des cahiers de recette.
• Déploiement et planification des flux.
➢ eDocSign : Implémentation d’un connecteur de gestion de
signature électronique. | 6 Flux
• Préparation des jeux de données et analyse du besoin.
• Planification et préparation des itérations.
• Mise en place des comportements attendus
(BDD: Behavior Driven Development) avec le chef de
projet fonctionnel.
• Implémentations des flux Talend assurant la transition
des données.
• Validation de PV d’UAT (User Acceptance Test) interne.
➢ « Caisse des Dépôts »: Implémentation d’un connecteur de
génération documentaire | 2 Flux
• Recueil du besoin suite au Kick-off.
• Validation du Template des sources de données.
• Implémentation des flux Talend assurant la génération,
des CV pdf, des différents collaborateurs.
• Validation des livrables avec le client.
• Mise en production et planification du connecteur.
➢ Badgeuse : Implémentation d’une synchronisation de données de
géolocalisation| 6 Flux
• Etude des APIs et préparation de données.
• Implémentation des jobs Talend.
• Préparation des fichiers de configuration du connecteur.
• Déploiement et planification du connecteur.
➢ e2Time : Implémentation d’une synchronisation de données de
pointage | 3 Flux
• Paramétrage du socle pour accueillir le module e2Time.
• Implémentation des Joblets génériques assurant
la synchronisation partielle des données utilisateurs.
• Implémentation des jobs Talend.
• Validation des livrables.
• Mise en production et planification des flux.
❖ Partie architecture et administration
• Réalisation d’un audit pour assurer la conformité
de l’architecture existante aux recommandations
Talend.
• Préparation et proposition d’un DAT à l’issue des
outputs de l’audit.
• Mise en place d’un SDLC pour faciliter le partage,
la standardisation et la réutilisation de code source.
• Passage à une architecture cloud hybride en mettant
en place des moteurs d’exécution distant (Remote
Engine).
• Etude et proposition d’une nouvelle architecture se
basant sur la notion CDC (Change Data Capture) pour
éviter un envoi massif de données (Incremental Load).

JCDecaux| Consultant SeniorData Services
Mars 2018 – Juillet 2019
Mise en place et maintien des flux de gestion de
données JCDécaux France
❖ Partie Projet
• Conception et développement des routes Camel pour
assurer le suivi temps réel de l’état des panneaux
publicitaires, des réseaux et des interventions.
• Paramétrage des consommateurs Kafka pour assurer
la répartition de charge.
• Mise en place des algorithmes de Hash pour réduire
la durée de traitement des messages consommés.
• Implémentation d’un algorithme de gestion des rejets.
• Conception et développement des jobs pour la data
tiering ( Historisation des tables sous le système de
fichier de MapR ).
❖ Partie MCO
• Développement et déploiement des patchs correctifs
de PROD.
• Conception, développement des jobs de reprise de
données.
• Conception des univers BO avec IDT (Information
Design Tool).
• Implémentation des évolution sur les rapports Tableau
❖ Partie SLDC et process
• Installation des briques ES...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Développeur Cloudera, Missions Développeur Cloudera, Développeur Cloudera freelance

Les nouvelles missions de Développeur Cloudera

Développeur Big data senior sur Paris

SQL DATASTAGE COGNOS BIG DATA
ASAP
Paris
6 mois
Voir la mission

Développeur Datastage px

SQL SERVER DATASTAGE PYTHON SQL
ASAP
Paris
6 mois
Voir la mission

Développeur cognos sur paris

SQL SERVER PYTHON BIG DATA SQL
ASAP
Paris
6 mois
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

Consultant Big data Hadoop

APACHE SCRIPT SHELL APACHE HADOOP
ASAP
94 - FONTENAY-SOUS-BOIS
6 mois
Voir la mission

Ingénieur Data

SQL COGNOS DATASTAGE PX Microsoft Power BI
ASAP
75 - PARIS
12 mois
Voir la mission

Consultant Décisionnel BI - Big Data : Cloudera (Dev & Admin)

SQL DATASTAGE PX COGNOS BI BIG DATA PYTHON
ASAP
69 - LYON
6 mois
Voir la mission

Ingénieur BIG DATA

BIG DATA
ASAP
44 - Nantes
3 mois
Voir la mission

Développement et administration Big Data - Profil expérimenté

SQL DATASTAGE TALEND PYSPARK
ASAP
Lyon
218 jours ouvrés
Voir la mission

Devops BIG DATA / BI

DEVOPS BIG DATA
ASAP
92 - Issy Les Moulineaux
3 mois
Voir la mission
Je trouve ma mission

Les profils de Développeur Cloudera ont postulé à :

Développeur Big Data / Data Engineer H/F

DATA PYTHON APACHE HADOOP SCALA APACHE SPARK
ASAP
Paris
36 mois
Voir la mission

Data Engineer F/H

SQL PYTHON AZURE Snowflake PYSPARK
ASAP
59
12 mois
Voir la mission

DATA ENGINEER

JAVA APACHE SPARK APACHE HADOOP
ASAP
Télétravail
36 mois
Voir la mission

Consultant Formateur

BI BIG DATA APACHE SPARK Microsoft Power BI BI MICROSOFT
ASAP
Télétravail
5 jours ouvrés
Voir la mission

Data architect

DATA FULL STACK Google Cloud Platform Snowflake
ASAP
Télétravail
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Développeur Cloudera disponibles

CV Architecte ORACLE
Jean-Luc

Architecte ORACLE

  • ROISSY-EN-BRIE
ORACLE APACHE SPARK APACHE KAFKA UNIX SYSTEMES EMBARQUES APACHE HADOOP APACHE HIVE
CV Expert Bigdata/DevOps
Michel

Expert Bigdata/DevOps

  • Vigneux de Bretagne
BIG DATA Kubernetes APACHE KAFKA LINUX APACHE HADOOP ELK Cloudera PYTHON MYSQL POSTGRESQL
CV Data engineer
Elyes

Data engineer

  • VILLEURBANNE
PYSPARK AZURE PYTHON BIG DATA DATA SQL
CV Chef de projet BIG DATA
Jean Pierre

Chef de projet BIG DATA

  • Lieusaint
BIG DATA DATAWAREHOUSE ENTERPRISE ARCHITECT JAVA PYTHON
CV Consultant Expert Talend (DI/ESB/MDM/BIGDATA)
Maher

Consultant Expert Talend (DI/ESB/MDM/BIGDATA)

  • Paris
PL SQL TALEND APACHE HADOOP TALEND MDM JDBC JAVA BIG DATA APACHE SPARK
Bientôt disponible
CV tech lead data science
Khalil

tech lead data science

  • Montrouge
Data science BIG DATA PYTHON MICROSOFT BI APACHE HADOOP APACHE SPARK DOCKER APACHE HIVE SCRUM AZURE
Bientôt disponible
CV Data Engineer / Cloud Engineer (Pyspark/Azure)
Ken

Data Engineer / Cloud Engineer (Pyspark/Azure)

  • SACY-LE-PETIT
PYSPARK APACHE SPARK SCALA PYTHON AZURE
Bientôt disponible
CV Data Engineer
Trong Hieu

Data Engineer

  • ANTONY
Cloud AWS PYTHON BIG DATA DOCKER SQL APACHE HADOOP AZURE PYSPARK MONGODB Data science
Disponible
CV Consultant Data
Boubaker

Consultant Data

  • PARIS
PYTHON APACHE HADOOP APACHE SPARK APACHE KAFKA JAVA SQL Cloud AWS LINUX SCALA Data science
Disponible
CV Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Mohamed

Architecte Big Data / Expert Cloud AWS/GCP/Azure

  • PALAISEAU
JAVA APACHE HADOOP DATA SCALA APACHE SPARK APACHE KAFKA BIG DATA AMAZON WEB SERVICES PYTHON AZURE
Disponible
Je trouve mon freelance