CV/Mission d'Expert hbase freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mohamed,
Expert hbase habitant le Val-de-Marne (94)

Expériences Professionnelles

DataValue Consulting
Avril 2019 – …
Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Big Data & Cloud
Rôle : Architecte BIG DATA & Cloud

Réalisation :
⦁ Orange CCBIH : Centre d’Expertise Big Data : 6 mois (Janvier 2020-> Juin 2020) Architecte technique: HA Hadoop/Ldap, Industrialsiation API ML, LLAP sur RH7

⦁ Ministère des Armées : Consolidation des données Contentieux (3 mois: 06/2019-> 09/2019) : Data Architecte, Audit, Refactoring, Mise en place des bonnes pratiques

⦁ Promod : Mise en place d’une plateforme BigData en mode PaaS (CLoudera) sur le Cloud Azure (3 mois: 10/2019-> 12/2019): Architecte Big Data (Livrables DAT/DEX)
⦁ AFNOR : Accompagnement en choix d’architecture on-premise et Cloud
⦁ Avant-vente : rédaction technique des offres et propositions d’architecture
⦁ Encadrement et Formations en interne (Big Data, Cloud) pour les consultants
⦁ Rédaction des documents d’architecture, d’exploitation et de bonnes pratiques.

Environnement : Hortonworks, Cloudera, Spark/Scala, Hive, Impala, NIFI, PowerBi, Qlikview

Dior, Loréal, Stime, BDF
Novembre 2018 – Avril 2019
Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Data & Cloud
Rôle : IT Manager & Architecte DATA & Cloud (chez Umanis)

Réalisation :
⦁ Accompagnement en choix d’architecture.
⦁ Avant-vente : rédaction technique des offres et propositions d’architecture.
⦁ Formations en interne (Big Data, Cloud) pour les consultants
⦁ Recrutement : entretiens techniques
Environnement : Hortonworks, Spark/Scala, Hive, Hbase, PowerBI

Natixis
Août 2018 - Octobre 2018
Synthèse : Audit d’une plateforme Big Data.
Rôle : Architecte BI / BIG DATA

Réalisation :
⦁ Audit de la plateforme Big Data (Datalake, Hadoop Hortonworks, CFT, Spark/Scala, Hbase, Hive, PowerBI+Tableau)
⦁ Rédaction des préconisations et axes d'amélioration au niveau de l'architecture (Hybride), des technologies utilisées (Nifi, Druid), de la méthodologie du travail (Scrum) et de la Data gouvernance (Apache Atlas)
⦁ Rédaction des bonnes pratiques de mise en place d'un datalake, de sécurité, d'utilisation de Hbase, d'optimisation des requêtes dans Hive
Environnement : Oracle, Cassandra, Spark, Play, Kafka, REST proxy, Avro, Git

SEENERGI / ELEVAGE
Mai 2018 – Juillet 2018
Synthèse : Projet d’implémentation d’une solution d’ingestion des données dans un Datalake (via une plateforme MICROSOFT AZURE hébergée dans le CLOUD), ainsi que les cas d’usage métier
Rôle : Architecte BIG DATA & Cloud

Réalisation :
⦁ Etude des besoins et rédaction du DAT (Dossier d'architecture technique)
⦁ Collecte des données (sous formes de fichiers et à partir des bases relationnelles) avec « Talend Integration Cloud »
⦁ Intégration et stockage des données brutes et/ou transformées dans « Azure Datalake Store »
⦁ Les données générées par les traitements analytiques (RStudio, Spark) sont versées dans une base "Azure Cosmos DB", et exposées aux utilisateurs via PowerBI
⦁ Les droits d'accès aux dossiers sur le Datalake sont gérés par Apache Ranger
⦁ Installation du cluster Hadoop (cluster HDInsight 3.6, contenant 6 noeuds)
⦁ Rédaction des documents d'exploitation et des bonnes pratiques

Environnement : Microsoft Azure, PowerBI, HDFS, Kerberos, Ranger

AVELTYS / IMMOBILIER
Janvier 2018 - Avril 2018
Synthèse : Projet de mise en place d’une solution Datalake via une plateforme MICROSOFT AZURE hébergée dans le CLOUD
Rôle : Architecte BIG DATA & CLOUD

Réalisation :
⦁ Etude des besoins et proposition d'une solution technique BigData (Architecture Lambda : batch + temps réel)
⦁ Récupération en temps réel des données GTB dans Kafka à travers "Azure IoT Hub"
⦁ Une chaîne d’alimentation journalière en batch pour récupérer la totalité des données Kafka (par Spark) et les mettre à disposition sur "Azure Data Lake Store"
⦁ Développement de micro-services (NodeJs, Molecular DB et Molecular Cli) et versement des résultats analytiques dans une base NoSql "Azure Cosmos DB".
⦁ Construction des rapports dans PowerBI pour l’exploitation et la visualisation des vues métiers.
Environnement : Azure, Kafka, Spark Streaming, NodeJS, Cosmos DB, PowerBI

Société Générale
Décembre 2015 – Décembre 2018
Synthèse : Mise en place d’une architecture.
Rôle : Expert technique BIG DATA

Réalisation :
⦁ Etude et mise en place d'une architecture BigData de bout en bout pour les projets Retail et GTPS (Collecte en mode batch et streaming, ETL, stockage, Data viz par Hunk, Sécurité des accès Ldap + Kerberos + Ranger...)
⦁ Paramétrage et configuration des clusters Hadoop Hortonworks (Installation des services, ajout des nœuds, migration version HDP, MCO, etc.)
⦁ Rédaction des documents d’installation et d’exploitation de la plateforme
⦁ Intégration des fichiers et logs en mode batch (Tom, Talend, Sqoop) et Temps Réel (syslog-ng  Kafka  Spark  ElasticSearch  Kibana)
⦁ Accompagnement et formation des datascientists (mise en place de leur projet, leur environnement de travail, optimisation du code R et Spark, Robustesse)
⦁ Industrialisation des déploiements des environnements, outils et services du stack Hadoop par Ansible
⦁ Participation à la mise en place d’une infra « Devops » basée sur Jira, GitHub, Jenkins, Ansible, Nexus, et Sonarqube

Environnement : HortonWorks 2.6, Hunk 6.3.3, RStudio, Ranger, Ambari, ElasticSearch, Nagios, Ganglia, OpenLDAP, Oozie/Hue, Linux 7.2

APRIL INTERNATIONAL EXPAT
Janvier 2015 – Novembre 2015
Synthèse : Mise en place d’un Cluster CRM.
Rôle : Administrateur SAP
Réalisation :
⦁ Mise en place d'un Cluster CLEVA (10 nœuds)
⦁ Migration des bases V9 Oralce 9i vers Oracle 11gR2
⦁ Tuning des bases et des traitements (Ajout des CPUs, des JVMS, .. )
⦁ Supervision des machines de production (JVM, RAM, CPU)
⦁ Réorganisation physique des disques sous Linux
⦁ Rédaction des documents d’exploitation et des best practices
Environnement : Oracle 11g, Linux, Cleva

Février. 2008 à Décembre 2014 : Groupe ALLIANZ – LA DEFENSE (via IBM)
N°1 Européen en Assurances
Equipe IBM : Architecture et Support des Systèmes Ouverts
- Administration des bases de données de production Oracle et DB2 (bases AIX et windows).
- Diagnostic et résolution des incidents sur les bases existantes.
- Support deuxième et troisième niveau.
- Tuning des bases de production (AWR, DB2TOP, scripts maison).
- Optimisation des requêtes SQL et code PLSQL.
- Migration des bases 9i et 10g en 11g, et bases windows sous Aix.
- Création et suivi des demandes de changements techniques.
- Suivi et mise en production des livraisons BD sous VTOM et DataStage.
- Administration du CRM Siebel et du progiciel Master-I.
Environnement : AIX 6.1, ORACLE 11gR2, RMAN, DB2 8 et 9.5, Websphere, ETL DataStage VTOM 5.4, SIEBEL eBusiness Applications 7.7, MASTERI

Octobre. 07 - Janvier. 08 : SGAM (Société Générale Asset Management)
Applications DREAMS & GESCO (Gestion des actifs et obligations)
- Administration des différentes bases de données Oracle (développement, recette et production).
- Tuning des bases (Statpack, AWR, scripts maison).
- Audit et gestion des incidents.
- Développement des scripts d’auto-surveillance (disque, sécurité, batchs).
- Support projet (optimisation requête, validation des procédures stockées).
Environnement : Oracle 9i/10g, PL/SQL, Linux, Weblogic, Java.

Mars. 06 - Aout. 07 : BNPParibas (Credit Risk Management)
Application OPTIMA SERVER (Calcul du risque crédit et optimisation des portefeuilles de crédit)
- Administration des bases de données Etudes, et de pré-production.
- Développement des process steps élémentaires calculant des ratios (procédures stockées PL/SQL).
- Support au développement (optimisation requête, validation des scripts).
- Rédaction des documents d’installation et d’exploitation.
Environnement : Oracle 9i/10g, PL/SQL, Unix, .NET, C#.

Aout 05 - Janvier 06 : CEGEDIM (Editeur de logiciels de traitement de l’information médicale)
Projet : ATLAS-ONEUP: Alimentation des bases Oneup à partir du référentiel Atlas
- Développement d’un outil de suivi de recette Atlas-Oneup basé sur les vues
- Développement des flux d’extraction des données oneup pour le Host
- Développement d’un programme générique de fabrication des vues Sanofi.
- Historisation des mises à jour des données Atlas dans le datamart standard
- Création des modèles de données « Frais, RP et Liens » dans le datamart.
- Support au développement (validation du code, optimisation requêtes)
- Configuration d’une machine de test pour le datamart BI (installation oracle, création du datamart, copie des données Atlas, tests, …).
- Développement des procédures de sauvegarde/restauration du datamart.
- Préparation des bases de recette et d’intégration (export/import).
Environnement : Oracle 9i, PL/SQL, BO, ETL Informatica, Java, XML.

Février 05 - Juillet 05 : France Telecom - ALAPAGE (E-commerce)
Projet : Refonte de l’application de référencement multimédia
- Conception et modélisation de la nouvelle base de référencement des produits multimédias (100 tables).
- Définition de la démarche de migration des données de l’ancienne base (Sql Server) vers la nouvelle base (Oracle 10g).
- Création et administration des bases de développement et de recette, en coordination avec l’exploitation.
- Support et assistance des développeurs et utilisateurs de la base (formation, optimisation des requêtes, validation du code).
- Audit de performances des différentes applications informatiques (ex : calcul des statistiques).
Environnement : Oracle 9i/10g, S...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Expert hbase, Missions Expert hbase, Expert hbase freelance

Les nouvelles missions d'Expert hbase

Expert Big Data Middleware

APACHE HADOOP Kafka
ASAP
79 - Niort
3 mois
Voir la mission

Développeur Datastage px

SQL SERVER DATASTAGE PYTHON SQL
ASAP
Paris
6 mois
Voir la mission

Développeur cognos sur paris

SQL SERVER PYTHON BIG DATA SQL
ASAP
Paris
6 mois
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

Expert Hadoop (Cloudera CDP)

LINUX SHELL UNIX PYTHON AGILE ANSIBLE
ASAP
92
12 mois
Voir la mission

Data engineer JAVA / SPARK / PYTHON

JAVA APACHE SPARK PYTHON
ASAP
75 - Paris
6 mois
Voir la mission

Administrateur HADOOP

APACHE HADOOP Cloudera REDHAT
ASAP
94 - Charenton le Pont
24 mois
Voir la mission

Administrateur BIG DATA HADOOP

Cloudera APACHE HADOOP BIG DATA
ASAP
94 - Charenton
7 mois
Voir la mission

Expert Cloudera

Cloudera TALEND
ASAP
79 - Niort
3 mois
Voir la mission

Consultant HADOOP / SPARK

APACHE HADOOP APACHE SPARK
ASAP
75 - Paris
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV d'Expert hbase disponibles

CV Architecte ORACLE
Jean-Luc

Architecte ORACLE

  • ROISSY-EN-BRIE
ORACLE APACHE SPARK APACHE KAFKA UNIX SYSTEMES EMBARQUES APACHE HADOOP APACHE HIVE
CV Chef de projet BIG DATA
Jean Pierre

Chef de projet BIG DATA

  • Lieusaint
BIG DATA DATAWAREHOUSE ENTERPRISE ARCHITECT JAVA PYTHON
CV Assistant à maîtrise d'ouvrage
Patrick

Assistant à maîtrise d'ouvrage

  • PARIS
MYSQL PHP MARIADB JAVASCRIPT LAMP AJAX DATAWAREHOUSE MAC OS PYTHON BIG DATA
CV Data Engineer Senior
Arnaud

Data Engineer Senior

  • LEVALLOIS-PERRET
SQL AMAZON REDSHIFT AMAZON AWS PYTHON APACHE SPARK
Bientôt disponible
CV Consultant - Architect CyberSécurité, Network, Infrastructure et Cloud
Serge

Consultant - Architect CyberSécurité, Network, Infrastructure et Cloud

  • CHEVREUSE
Cybersécurité PROJECT MANAGEMENT OFFICE PALO ALTO NETWORKS FORTINET CHECKPOINT CISCO JUNIPER PROXY LOAD BALANCER STORMSHIELD
Disponible
CV Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Mohamed

Architecte Big Data / Expert Cloud AWS/GCP/Azure

  • PALAISEAU
JAVA APACHE HADOOP DATA SCALA APACHE SPARK APACHE KAFKA BIG DATA AMAZON WEB SERVICES PYTHON AZURE
Disponible
CV Big Data / Python engineer
Laurent

Big Data / Python engineer

  • CAMBERNARD
SQL DATA PYTHON MONGODB BIG DATA Google Cloud Platform JAVA APACHE HADOOP APACHE SPARK DOCKER
Disponible
CV Manager/Directeur DATA AGILE
Mustapha

Manager/Directeur DATA AGILE

  • VINCENNES
AGILE PROJECT MANAGEMENT OFFICE EXCEL POWERPOINT WORD TABLEAU SOFTWARE Alteryx WINDOWS ITIL Microsoft Power BI
Disponible
CV Data & DevOps Engineer
Samir

Data & DevOps Engineer

  • NANTERRE
JAVA SAP DEVOPS ANSIBLE APACHE SPARK APACHE HIVE SAP HANA APACHE HADOOP AZURE PYTHON
Disponible
CV Consultant Expert Talend (DI/ESB/MDM/BIGDATA)
Youssef

Consultant Expert Talend (DI/ESB/MDM/BIGDATA)

  • PARIS
TALEND TALEND DI SQL JAVA SALESFORCE SAP MONGODB APACHE KAFKA BIGQUERY AZURE
Disponible
Je trouve mon freelance