CV/Mission de Consultant big data hadoop freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Didier,
Consultant big data hadoop habitant le Rhône (69)

EXPÉRIENCES PROFESSIONNELLES

Depuis juin 2023

GL Events et Sanofi/Institut Pasteur
Data Manager Architecte de solutions de données - Lyon France
Projets :
1.Propositions d’une architecture de solutions applicatives
2.Mise en place d’un référentiel client unique
3.Pilotages des projets de data intégration et data migration dans différentes solutions applicatives
Environnements technologiques : CRM Salesforce, MuleSoft, Snowflake, SAP, Jira, Google Cloud
Platform, Visio

Banque Nationale du Canada – Montréal QC
Architecte de données – Migration des données des entreprises
Depuis mars 2022
Projet : Bâtir la nouvelle plateforme numérique entreprise en s'assurant de créer les liens nécessaires avec la base centralisée de clients de la banque (Master Client Profile) afin de pouvoir consommer et partager les informations clients avec celle-ci. Conception, réalisation, mapping, documentation, architecture de données
Technicité : Architecture, analyses, conception, mapping, réalisation, modélisation, support
Environnements : Microsoft Azure Databricks, MSQL Server Management, Power BI, Agile, Confluence, Jira, Snowflake, python

GardaWorld / TI – Montréal QC
Consultant – Architecte BI – Refonte du Système des TI et migration des données
Depuis octobre 2021
Projet : Refonte du Système des TI et migration des données production des rapports avec Power BI pour la Direction d’Affaires
Environnements : Microsoft SQL Server Management, Power BI, Agile, Confluence, Jira
Desjardins / TI – Montréal QC
Consultant – Analyste Programmeur Concepteur ETL – Automatisation des campagnes marketing

Juillet 2020-octobre 2021
Projet : Direction des Solutions Intelligence d’Affaires, Communication Membres et Clients
Conception et réalisations des ETL, pour envois automatisés des campagnes marketing via canaux
postaux et courriels
Environnements : SAS Marketing Automation, SAS EG, SAS Grid, Denodo, Microsoft SQL Server
Management, IBM DB2, Linux, Jira, Confluence, HPSM, ordonnanceur Control-M,
DataStage
Pratt & Whitney Canada / TI – Montréal QC

Consultant – Spécialiste en Gestion des Données
Juillet 2019-juillet 2020
Project 1 : Data Management Advanced - Business glossary, Data quality, Data profiling, Data lineage,
Data exploration, Data preparation, Business rule validation, Visualization and Reporting

UBISOFT Montréal – Laboratoire de Recherches / TI – Montréal QC
Analyste Développeur Intelligence D’affaires – Big Data
novembre 2018-juillet 2019
Mission : Au sein de l’équipe spécialisée multidisciplinaire (ingénierie des données, analyse de données,
science des données), j’ai la charge de produire des analyses basées sur le comportement des joueurs,
tout au long du cycle de vie du jeu (du développement jusqu’aux opérations).
Technicité :
• Analyser les données du jeu, les besoins utilisateurs et participer au design de la télémétrie
• Concevoir et d’implanter l’extraction, la transformation et le chargement (ETL) des données
• Développer le modèle de données et mettre en place l’entrepôt de données
• Assurer la bonne performance des programmes ETL et supporter les opérations en cas de
panne
• Participer à la définition des standards et de rédiger la documentation technique
• Toutes autres tâches connexes
Environnements : Data Lake, Hadoop, Apache Hive, Cloudera Impala, HortonWorks, Apache Spark,
Python 3, DataFlow, Tableau, Airflow (AirBnB)

Caisse De Dépôt Et Placement Du Québec / TI – Montréal QC
Analyste Développeur Intelligence D’affaires – Consultant FX Innovation
septembre 2018 à novembre 2018
Mission : Mise en place d’un environnement de Lac de données (Data Lake) pour le stockage dans le
Cloud (Informatique Nuagique), et alimentation via Apache Nifi des données financières de type
Bloomberg.
Technicité :
• Codage en langages Shell, SQL, NoSQL et Python 3
• Développement et configurations pour Apache Nifi, Amazon Web Services (S3, EC2,
Lambda, Athena, Glue, API Gateway, DynamoDB)
Environnements : Informatique Nuagique (Cloud Computing), ETL Apache Nifi, Amazon Web Services,
Python 3, SparkSQL

Banque Laurentienne Du Canada / TI – Montréal QC
Analyste Programmeur Sas – Consultant CGI
avril 2017 à septembre 2018
Mission : Expert SAS, supporte les différentes lignes d'affaires de la Banque quant à la mise en place de
stratégies de révision des pratiques d'affaires pour les produits actuels et futurs. Participation active à la
conception de stratégies et d'analyses en relation et en lien avec le RPCFAT (Règlement sur le recyclage
des produits de la criminalité et le financement des activités terroristes) pour les différents portefeuilles de
la Banque et de ses filiales
Technicité :
• Développement pour SAS Anti-Money Laundering et SAS Social Network Analysis
• Codage en langages Shell, SQL et SAS (SAS ECM Entreprise Case Management)
Environnements : Unix, KSH, TOAD, SAS (DIS, ECM, Foundation, WRS, EG, AML)

Pôle Emploi Division Métrologie - France
Analyste Développeur Hadoop Big Data – Consultant Sopra-Stéria
juillet 2016 à janvier 2017
Mission : « Désengagement » de SAS 9.2, migration des données vers l’écosystème Hadoop
Hortonworks.
Technicité :
• Acquisition de données dans HDFS avec Apache Nifi
• Traitements Hive de structuration et agrégation des données, codage en HiveQL, script Pig
• Restitutions des données avec QlikSense
Environnements : Unix, KSH, TWs, SAS Foundation, SAS WRS, SAS EG, QlikSense, Hadoop (HDFS),
HortonWorks Data Platform

Pôle Emploi Division Statistiques et Pilotage - France
Analyste Développeur En Intelligence D’affaires – Consultant Sopra-Stéria
janvier 2013 à juillet 2016
Mission : Maintenance et assistance des applications de statistiques & décisionnel et de prévention des
fraudes.
Technicité :
• Participe à la supervision quotidienne des SI du périmètre applicatif et au suivi du bon
fonctionnement des services délivrés
• Participe à l’élaboration de la stratégie des Tests Post Installations des versions SI
Environnements : Unix, KSH, ETL DATASTAGE, IBM Netezza, SAS Foundation, SAS EG, SAS WRS,
Oracle SQL Developer, HP Service Manager, HP Quality Center

Société Nationale Des Chemins De Fer Français (SNCF) - France
Analyste Statisticien - Prévisionniste
décembre 2011 à juin 2012
Mission : Modélisation de la durée de vie moyenne des cuves à liquide caloporteur (moteurs TGV, TER,
FRET, RER).
Technicité :
• Réalisation des modèles mathématiques (méthodes de survie, des régressions linéaires, des
séries chronologiques, des prévisions)
• Fouilles, archivage, analyse et modélisation des données, rapports d’activités
Environnements : SAS Foundation, ERP Oracle PeopleSoft, MATLAB, VBA, Excel, PowerPoint

Société Nationale Des Chemins De Fer Français (SNCF) - France
Analyste Chargé D’études Statistiques (Stage)
Mars à septembre 2010
Mission : Calcul des prévisions sur les fournitures en matériaux pour les chantiers de construction et
d’entretien du chemin de fer
Technicité :
• Réalisation des modèles mathématiques (méthodes de survie, de régressions linéaires, des
séries chronologiques, des prévisions);
• Analyses statistiques et traitement de données, paramétrisation et mise en place d’outils
d’aides à la décision, optimisation du SI, rédaction des besoins fonctionnels, formation des
agents.
Environnements : SAS Foundation, ERP Oracle PeopleSoft, MATLAB, PowerPoint

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Consultant big data hadoop, Missions Consultant big data hadoop, Consultant big data hadoop freelance

Les nouvelles missions de Consultant big data hadoop

Expert Big Data Middleware

APACHE HADOOP Kafka
ASAP
79 - Niort
3 mois
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

Consultant Big data Hadoop

APACHE SCRIPT SHELL APACHE HADOOP
ASAP
94 - FONTENAY-SOUS-BOIS
6 mois
Voir la mission

Expert Big Data

APACHE HADOOP BIG DATA APACHE SPARK SCALA
ASAP
Télétravail
8 mois
Voir la mission

Data engineer JAVA / SPARK / PYTHON

JAVA APACHE SPARK PYTHON
ASAP
75 - Paris
6 mois
Voir la mission

Ingénieur(e) en Développement et Conception (Hadoop/Java/MS Azure)

JAVA APACHE HADOOP APACHE SPARK AZURE CUCUMBER
ASAP
75 - PARIS
36 mois
Voir la mission

Administrateur BIG DATA HADOOP

Cloudera APACHE HADOOP BIG DATA
ASAP
94 - Charenton
7 mois
Voir la mission

Ingénieur BIG DATA

APACHE HADOOP APACHE SPARK SCALA APACHE HIVE APACHE KAFKA
ASAP
33 - Bordeaux
3 mois
Voir la mission

Expert Cloudera

Cloudera TALEND
ASAP
79 - Niort
3 mois
Voir la mission

Data Analyst Grid Computing

ASAP
75 - Paris
6 mois
Voir la mission
Je trouve ma mission

Les profils de Consultant big data hadoop ont postulé à :

Chef de Projet AMOA

AGILE JIRA CONFLUENCE
ASAP
75 - PARIS
6 mois
Voir la mission

Tech lead Data

SQL AZURE Microsoft Power BI
ASAP
92 - GENNEVILLIERS
12 mois
Voir la mission

Tech Lead Talend

TALEND
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

CP Data

DATA
ASAP
92 - LEVALLOIS-PERRET
12 mois
Voir la mission

ANALYTICS ENGINEER

SQL PYTHON
ASAP
92 - BOULOGNE-BILLANCOURT
130 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur JAVA

JAVA HIBERNATE SPRING DOCKER Kubernetes
ASAP
93 - SAINT-DENIS
12 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Ingénieur Data

JAVA SQL DATA SPRING AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
11 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Consultant big data hadoop disponibles

CV Architecte QLIKVIEW
Jules

Architecte QLIKVIEW

  • Montrouge
QLIKVIEW BUSINESS OBJECTS BIG DATA
CV Product Owner - Scrum Master
Javier

Product Owner - Scrum Master

  • TOURS
SCRUM AGILE KANBAN JIRA SQL DATAVIZ EXCEL
CV Expert CyberSécurité
Djasra

Expert CyberSécurité

  • PARIS
PKI JAVA J2EE OPENTRUST BIG DATA SCRIPT SHELL PYTHON DEVOPS Kubernetes
CV Data Scientist APACHE SPARK
Ahmed

Data Scientist APACHE SPARK

  • LE PECQ
APACHE SPARK PYSPARK JAVA SCALA AZURE JENKINS APACHE KAFKA Cloud AWS DOCKER Kubernetes
CV Architecte ORACLE
Jean-Luc

Architecte ORACLE

  • ROISSY-EN-BRIE
ORACLE APACHE SPARK APACHE KAFKA UNIX SYSTEMES EMBARQUES APACHE HADOOP APACHE HIVE
CV Expert Bigdata/DevOps
Michel

Expert Bigdata/DevOps

  • Vigneux de Bretagne
BIG DATA Kubernetes APACHE KAFKA LINUX APACHE HADOOP ELK Cloudera PYTHON MYSQL POSTGRESQL
CV Architecte Applicatif / Tech Lead / DevOps
Evariste

Architecte Applicatif / Tech Lead / DevOps

  • PARIS
API RESTful Microservices DEVOPS GIT GITLAB DOCKER OAUTH JAVA Spring Boot Cloud AWS
CV Consultant API
Mouhamadou

Consultant API

  • Asnières-Sur-Seine
HTML LINUX ORACLE J2EE LDAP TOMCAT ECLIPSE VMWARE SCRUM SOA
CV Chef de projet BIG DATA
Jean Pierre

Chef de projet BIG DATA

  • Lieusaint
BIG DATA DATAWAREHOUSE ENTERPRISE ARCHITECT JAVA PYTHON
CV Data Engineer
N'dri

Data Engineer

  • LE MANS
PYTHON SQL TALEND GIT BIG DATA APACHE HADOOP POSTGRESQL APACHE SPARK JAVA ORACLE
Je trouve mon freelance