CV/Mission d'Expert hbase freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mohamed,
Expert hbase habitant le Val-de-Marne (94)

  • Rôle : Architecte BIG DATA & Cloud

    DataValue Consulting
    Jan 2019 - aujourd'hui

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Big Data & Cloud
    Réalisation :
    ⦁ Orange CCBIH : Centre d’Expertise Big Data : 6 mois (Janvier 2020-> Juin 2020) Architecte technique: HA Hadoop/Ldap, Industrialsiation API ML, LLAP sur RH7

    ⦁ Ministère des Armées : Consolidation des données Contentieux (3 mois: 06/2019-> 09/2019) : Data Architecte, Audit, Refactoring, Mise en place des bonnes pratiques

    ⦁ Promod : Mise en place d’une plateforme BigData en mode PaaS (CLoudera) sur le Cloud Azure (3 mois: 10/2019-> 12/2019): Architecte Big Data (Livrables DAT/DEX)
    ⦁ AFNOR : Accompagnement en choix d’architecture on-premise et Cloud
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture
    ⦁ Encadrement et Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Rédaction des documents d’architecture, d’exploitation et de bonnes pratiques.

    Environnement : Hortonworks, Cloudera, Spark/Scala, Hive, Impala, NIFI, PowerBi, Qlikview
  • Rôle : IT Manager & Architecte DATA & Cloud

    Dior, Loréal, Stime, BDF (chez Umanis)
    Jan 2018 - Jan 2019

    Synthèse : Missions Audit, d’Expertise et de Conseil en Architecture Data & Cloud
    Réalisation :
    ⦁ Accompagnement en choix d’architecture.
    ⦁ Avant-vente : rédaction technique des offres et propositions d’architecture.
    ⦁ Formations en interne (Big Data, Cloud) pour les consultants
    ⦁ Recrutement : entretiens techniques

    Environnement : Hortonworks, Spark/Scala, Hive, Hbase, PowerBI
  • Rôle : Architecte BI / BIG DATA

    Natixis
    Jan 2018 - Jan 2018

    Synthèse : Audit d’une plateforme Big Data
    Réalisation :
    ⦁ Audit de la plateforme Big Data (Datalake, Hadoop Hortonworks, CFT, Spark/Scala, Hbase, Hive, PowerBI+Tableau)
    ⦁ Rédaction des préconisations et axes d'amélioration au niveau de l'architecture (Hybride), des technologies utilisées (Nifi, Druid), de la méthodologie du travail (Scrum) et de la Data gouvernance (Apache Atlas)
    ⦁ Rédaction des bonnes pratiques de mise en place d'un datalake, de sécurité, d'utilisation de Hbase, d'optimisation des requêtes dans Hive

    Environnement : Oracle, Cassandra, Spark, Play, Kafka, REST proxy, Avro, Git
  • Rôle : Architecte BIG DATA & Cloud

    SEENERGI / ELEVAGE
    Jan 2018 - Jan 2018

    Synthèse : Projet d’implémentation d’une solution d’ingestion des données dans un Datalake (via une plateforme MICROSOFT AZURE hébergée dans le CLOUD), ainsi que les cas d’usage métier
    Réalisation :
    ⦁ Etude des besoins et rédaction du DAT (Dossier d'architecture technique)
    ⦁ Collecte des données (sous formes de fichiers et à partir des bases relationnelles) avec « Talend Integration Cloud »
    ⦁ Intégration et stockage des données brutes et/ou transformées dans « Azure Datalake Store »
    ⦁ Les données générées par les traitements analytiques (RStudio, Spark) sont versées dans une base "Azure Cosmos DB", et exposées aux utilisateurs via PowerBI
    ⦁ Les droits d'accès aux dossiers sur le Datalake sont gérés par Apache Ranger
    ⦁ Installation du cluster Hadoop (cluster HDInsight 3.6, contenant 6 noeuds)
    ⦁ Rédaction des documents d'exploitation et des bonnes pratiques

    Environnement : Microsoft Azure, PowerBI, HDFS, Kerberos, Ranger
  • Rôle : Architecte BIG DATA & CLOUD

    AVELTYS / IMMOBILIER
    Jan 2018 - Jan 2018

    Synthèse : Projet de mise en place d’une solution Datalake via une plateforme MICROSOFT AZURE hébergée dans le CLOUD
    Réalisation :
    ⦁ Etude des besoins et proposition d'une solution technique BigData (Architecture Lambda : batch + temps réel)
    ⦁ Récupération en temps réel des données GTB dans Kafka à travers "Azure IoT Hub"
    ⦁ Une chaîne d’alimentation journalière en batch pour récupérer la totalité des données Kafka (par Spark) et les mettre à disposition sur "Azure Data Lake Store"
    ⦁ Développement de micro-services (NodeJs, Molecular DB et Molecular Cli) et versement des résultats analytiques dans une base NoSql "Azure Cosmos DB".
    ⦁ Construction des rapports dans PowerBI pour l’exploitation et la visualisation des vues métiers.

    Environnement : Azure, Kafka, Spark Streaming, NodeJS, Cosmos DB, PowerBI
  • Rôle : Expert technique BIG DATA

    Société Générale
    Jan 2015 - Jan 2018

    Synthèse : Mise en place d’une architecture.
    Réalisation :
    ⦁ Etude et mise en place d'une architecture BigData de bout en bout pour les projets Retail et GTPS (Collecte en mode batch et streaming, ETL, stockage, Data viz par Hunk, Sécurité des accès Ldap + Kerberos + Ranger...)
    ⦁ Paramétrage et configuration des clusters Hadoop Hortonworks (Installation des services, ajout des nœuds, migration version HDP, MCO, etc.)
    ⦁ Rédaction des documents d’installation et d’exploitation de la plateforme
    ⦁ Intégration des fichiers et logs en mode batch (Tom, Talend, Sqoop) et Temps Réel (syslog-ng  Kafka  Spark  ElasticSearch  Kibana)
    ⦁ Accompagnement et formation des datascientists (mise en place de leur projet, leur environnement de travail, optimisation du code R et Spark, Robustesse)
    ⦁ Industrialisation des déploiements des environnements, outils et services du stack Hadoop par Ansible
    ⦁ Participation à la mise en place d’une infra « Devops » basée sur Jira, GitHub, Jenkins, Ansible, Nexus, et Sonarqube

    Environnement : HortonWorks 2.6, Hunk 6.3.3, RStudio, Ranger, Ambari, ElasticSearch, Nagios, Ganglia, OpenLDAP, Oozie/Hue, Linux 7.2
  • Rôle : Administrateur SAP

    APRIL INTERNATIONAL EXPAT
    Jan 2015 - Jan 2015

    Synthèse : Mise en place d’un Cluster CRM.
    Réalisation :
    ⦁ Mise en place d'un Cluster CLEVA (10 nœuds)
    ⦁ Migration des bases V9 Oralce 9i vers Oracle 11gR2
    ⦁ Tuning des bases et des traitements (Ajout des CPUs, des JVMS, .. )
    ⦁ Supervision des machines de production (JVM, RAM, CPU)
    ⦁ Réorganisation physique des disques sous Linux
    ⦁ Rédaction des documents d’exploitation et des best practices

    Environnement : Oracle 11g, Linux, Cleva
  • Groupe ALLIANZ – LA DEFENSE (via IBM)N°1 Européen en Assurances
    Jan 2008 - Jan 2014

    Equipe IBM : Architecture et Support des Systèmes Ouverts
    - Administration des bases de données de production Oracle et DB2 (bases AIX et windows).
    - Diagnostic et résolution des incidents sur les bases existantes.
    - Support deuxième et troisième niveau.
    - Tuning des bases de production (AWR, DB2TOP, scripts maison).
    - Optimisation des requêtes SQL et code PLSQL.
    - Migration des bases 9i et 10g en 11g, et bases windows sous Aix.
    - Création et suivi des demandes de changements techniques.
    - Suivi et mise en production des livraisons BD sous VTOM et DataStage.
    - Administration du CRM Siebel et du progiciel Master-I.

    Environnement : AIX 6.1, ORACLE 11gR2, RMAN, DB2 8 et 9.5, Websphere, ETL DataStage VTOM 5.4, SIEBEL eBusiness Applications 7.7, MASTERI
  • SGAM (Société Générale Asset Management)
    Jan 2007 - Jan 2008

    Applications DREAMS & GESCO (Gestion des actifs et obligations)
    - Administration des différentes bases de données Oracle (développement, recette et production).
    - Tuning des bases (Statpack, AWR, scripts maison).
    - Audit et gestion des incidents.
    - Développement des scripts d’auto-surveillance (disque, sécurité, batchs).
    - Support projet (optimisation requête, validation des procédures stockées).

    Environnement : Oracle 9i/10g, PL/SQL, Linux, Weblogic, Java.
  • BNPParibas (Credit Risk Management)
    Jan 2006 - Jan 2007

    Application OPTIMA SERVER (Calcul du risque crédit et optimisation des portefeuilles de crédit)
    - Administration des bases de données Etudes, et de pré-production.
    - Développement des process steps élémentaires calculant des ratios (procédures stockées PL/SQL).
    - Support au développement (optimisation requête, validation des scripts).
    - Rédaction des documents d’installation et d’exploitation.

    Environnement : Oracle 9i/10g, PL/SQL, Unix, .NET, C#.
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Expert hbase, Missions Expert hbase, Expert hbase freelance

Les nouvelles missions d'Expert hbase

Expert Big Data Hadoop

Cloudera Talend
ASAP
72 - Le Mans
3 mois
Voir la mission

Expert Big Data - Technologies Cloudera

Python Talend
ASAP
72 - LE MANS
36 mois
Voir la mission

Expert Datahub

Cloudera Linux Apache Hadoop
ASAP
79 - Niort
3 mois
Voir la mission

Administrateur DataOps

Big Data Linux
ASAP
79 - Niort
3 mois
Voir la mission

Administrateur OPS Data/IA

Linux Apache Hadoop Cloudera Talend
ASAP
79 - Niort
3 mois
Voir la mission

Data Engineer Datastage H/F

SQL Datastage PX Jira Microsoft Power BI
ASAP
69 - LYON
12 mois
Voir la mission

Développeur et administrateur Big Data

SQL Apache Hadoop Apache Spark Cloudera PySpark
ASAP
69 - LYON
12 mois
Voir la mission

Data Engineer

Apache Spark Apache Kafka Apache Hadoop
ASAP
56 - Vannes
3 mois
Voir la mission

Développeur JAVA / SPARK / HADOOP

Apache Hadoop Apache Spark Java
ASAP
75 - Paris
6 mois
Voir la mission

Data Engineer Datastage H/F

SQL Datastage PX Jira Microsoft Power BI
ASAP
69 - LYON
12 mois
Voir la mission
Je trouve ma mission

Les derniers CV d'Expert hbase disponibles

CV Ingénieur de production
Romuald

Ingénieur de production

  • TOULOUSE
Unix Linux Apache Tomcat Shell Unix Adelia/IWS HDFS Apache Hadoop Dataiku SQL
CV Développeur JAVA
Anis

Développeur JAVA

  • SARTROUVILLE
Java J2EE EJB Struts Hibernate GWT JMeter JSF JSON JasperReports
CV Consultant technique plateforme Big Data
Falaye

Consultant technique plateforme Big Data

  • HERBLAY
Cloudera Apache Hadoop Apache Spark Apache Hive ATLAS KERBEROS Ansible Git APACHE HBASE COUCHBASE
CV Chef de projet QLIKVIEW
Fabien

Chef de projet QLIKVIEW

  • le kremlin bicetre
QlikView
Bientôt disponible
CV Architecte / Tech-Lead BIG DATA
Heni

Architecte / Tech-Lead BIG DATA

  • Châtillon
MySQL GOOGLE APP ENGINE Apache Hadoop Big Data Java SQL Server Python C# NoSQL Google Analytics
Bientôt disponible
CV Architecte Solution Data
Copain Bertrand

Architecte Solution Data

  • NANTEUIL-LÈS-MEAUX
Big Data Cloudera Data Science Cloud AWS Snowflake
Bientôt disponible
CV Consultant Oracle Postgres
Laurent

Consultant Oracle Postgres

  • PUISEAUX
POSTGRES Oracle PL SQL KSH Oracle RAC Oracle Data Guard Linux Java
Bientôt disponible
CV Senior Data Engineer
Fahd

Senior Data Engineer

  • ARGENTEUIL
Apache Spark SQL Apache Hadoop Data Scala PySpark DevOps Snowflake Amazon AWS Python
Disponible
CV Data Engineer confirmer
Abdellah

Data Engineer confirmer

  • FRESNES
Python Linux GitLab CI/CD Jenkins DevOps Ansible Docker Java Kubernetes
Disponible
CV Expert Data - Chef de projet données et infra Big Data
Aboubakar

Expert Data - Chef de projet données et infra Big Data

  • TOURS
Data Python SQL Java Apache NiFi Talend Microsoft Power BI Apache Hadoop SIG
Disponible
Je trouve mon freelance