Djim - Architecte APACHE HADOOP

Ref : 191105D001
Photo de Djim, Architecte APACHE HADOOP
Compétences
APACHE HADOOP
APACHE HIVE
Expériences professionnelles
  • EXPÉRIENCES PROFESSIONNELLES

    Depuis Nov 2019
    Eradah capital
    Dubai, Émirats Arabes Unis



    Consultant Big Data
    Mise en place d’une solution de reporting bancaire en temps réel avec kafka Stream
    Développent de solutions big data en temps réel
    Migration de la sérialisation et de dé-sérialisation de json à avro avec kafka schema registry
    Développent d’applications de temps réels avec KAFKA Stream
    Mise en place de Kafka connect applications pour intégrer les données depuis les bases transactionnelles.
    Création de connecteurs débezium
    Développement d’un programme Spark Streaming
    Implémentation des « kafka Producer » de données pour stocker les erreurs
    Mise en place des tests Unitaires
    Gestion des logs des pods avec Fluentd
    Création de tableaux de bords des logs avec kibana

    Technology: Kafka, Kafka Stream, Kafka Connect, Debezium, Hadoop, Kubernetes, Docker, Microsoft Azure, Spark, SQL Server, Fluentd, Elasticsearch, Kibana

    Aout 2016 –Septembre 2019
    Société Générale
    Paris, France



    Consultant Big Data
    Mise en place d’une solution Big Data vison 360 pour le département ressources humaines
    Mise en place d’une application Big Data pour certifier de données bancaires
    Mise en place d’une application Big Data d’exploitation des données de ServiceNow

    Définition de solutions techniques Big Data pour différents use cases
    Spécifications fonctionnelles et techniques
    Conception de modèle de données Big Data
    Développement de traitements d'extraction et de transformation de données
    Développement d’un programme Spark Streaming
    Conception et développement de modules de traitements de données en Spark
    Tuning pour les performances d’applications Spark
    Migration programme Spark 1.6 vers Spark 2.2
    Intégration de données dans de tables Hive
    Création et gestion d’indexes avec Elasticsearch et Kibana
    Création de tableaux de bord en Kibanna
    Création de workflows Oozie pour l’ordonnancement des programmes
    Création des tests Unitaires

    Environnement: Hortonworks, Java, Scala, Spark, Apache, Github, Hadoop, Oozie, Maven, Hue, Hive, HBase, Elasticsearch et Kibana

    Aout 2016 –Septembre 2019
    Société Générale
    Paris, France
    Consultant Big Data

    Définition de solutions techniques Big Data pour différents use cases
    Spécifications fonctionnelles et techniques
    Conception de modèle de données Big Data
    Développement de traitements d'extraction et de transformation de données
    Développement d’un programme Spark Streaming
    Conception et développement de modules de traitements de données en Spark
    Tuning pour les performances d’applications Spark
    Migration programme Spark 1.6 vers Spark 2.2
    Intégration de données dans de tables Hive
    Création et gestion d’indexes avec Elasticsearch et Kibana
    Création de tableaux de bord en Kibanna
    Création de workflows Oozie pour l’ordonnancement des programmes
    Création des tests Unitaires

    Environnement: Hortonworks, Java, Scala, Spark, Apache, Github, Hadoop, Oozie, Maven, Hue, Hive, HBase, elasticsearch et Kibana

    Janvier 2016 – Avril 2016
    Capgemini
    Rennes, France
    Consultant Big Data

    Analyse de faisabilité de migration buisines intelligence vers le Big Data
    Définition d'architecture et de solutions Big Data
    Développement de traitements d'extraction et de transformation de données
    Modélisation de données avec Cassandra
    Chargement de données sur Cassandra
    Conception et développement de modules de traitements de données en Spark
    Création des « User Defined Functions » pour les transformations Big Data
    Réaliser de la veille technique Big Data

    Environnement: Spark, Cassandra, Scala, Hadoop, Eclipse, Maven

    Avr. 2012 Janvier 2016
    Capgemini
    Rennes, France
    Consultant Business Intelligence

    Analyse des besoins des évolutions techniques
    Etude d’impact des évolutions des applications Business intelligence
    Rédaction des spécifications fonctionnelles
    Rédaction des spécifications techniques
    Développent SSRS reports avec SSRS 2012 pour les applications de facturations, d’achats et finances
    Conception de Datawarehouses et Datamarts
    Chargement des données de fichiers plats et Excel dans une base de données Oracle en utilisant SQL * Loader
    Création de packages SSIS pour charger des données dans une base de données centralisée SQL Server (à partir de sources de données diversifiées)
    Création et / ou modification des procédures stockées, des tables et des requêtes
    Création de plans de test et les scripts de test en fonction des besoins
    Gestion des validations fonctionnelles et d’intégrations
    Rédaction documentation technique et d’installation pour la pré-production
    Rédaction documentation technique et d’installation pour la production

    Environnement: Unix/Shell, Oracle, Quality Center, SQL avancé, SSIS (SQL Server Integration Services), SSRS (SQL Server Reporting Services), SQL Server Studio

    Avril 2011 - Déc. 2011
    Orange
    Grenoble, France
    Stage de fin d’étude en Business Intelligence

    Mise en place de solutions de business intelligence pour le secteur médical
    Modélisation d'un Datawarehouse (création, paramétrage et configuration)
    ETL : création de jobs et conception de flux d'alimentation
    Création de procédures stockées, d'informations map, de cubes, de Reporting et de tableaux de bord

    Environnement: SAS (Enterprise guide, Web Report Studio, Enterprise Miner, Information Map), Oracle DB, UML

Études et formations
  • DATA ENGINEER/ARCHITECT

    Titulaire d’un diplôme ingénieur en informatique et d’un mastère spécialisé business intelligence, je capitalise plus de 7 années d’expérience dans la Data. Je me suis spécialisé dans les technologies de Big Data et je suis certifié développeur spark/scala.


    - Big Data : Hadoop, Spark/scala, Hive, Pyspark, Elasticsearch, Kibana, HBase, Cassandra, Oozie, Pig, Sqoop
    - Business Intelligence: SSRS, SSIS, SAS, Talend, Informatica, QlikView, Report One, Datastage, Abinitio
    - Langages: Scala, Python, Java, SQL, T-SQL, PL/SQL, MDX, Shell, Neo4j, Cypher
    - Cloud: Aws, EMR, Microsoft Azure

    DOMAINES DE COMPÉTENCES

    FORMATION INITIALE

    2010-2011
    Grenoble, France
    Double diplôme Mastère Spécialisé en Business Intelligence et Master en Management des Systèmes d'Information, Grenoble École de Management-ESC Grenoble

    2005-2010
    Laval/Paris, France
    Diplôme d’Ingénieur Informatique (Spécialité systèmes d'information pour la banque, la finance et l'industrie), ESIEA (École Supérieure d'Informatique, d'Électronique et Automatique)

    2004-2005
    Dakar, Sénégal
    Deug Physique- Chimie- Université Cheikh Anta ********

    2003-2004
    Dakar, Sénégal
    Bac scientifique au lycée Blaise Diagne

    LANGUES
    Anglais : Lu, Ecrit, Parlé (Professionnel)
    Espagnol : Lu, Ecrit (Notion)

    INTERETS & LOISIRS
    Activités sportives et culturelles : Football, Volley Ball, ThéâtreActivités sportives et culturelles : Football, Volley Ball, Théâtre
    Informatique, Business Intelligence, Big Data

D'autres freelances
Développeur APACHE HADOOP

Ces profils pourraient vous intéresser !
CV Data engineer senior | certified gcp
Ousmane

Data engineer senior | certified gcp

  • BRY-SUR-MARNE
APACHE SPARK APACHE HADOOP Google Cloud Platform
Disponible
CV Data Engineer | Developpeur Big Data
Mounir

Data Engineer | Developpeur Big Data

  • CHÂTENAY-MALABRY
APACHE SPARK SQL BIG DATA APACHE HADOOP SCALA JAVA PYTHON APACHE KAFKA NoSQL Cloudera
Disponible
CV Développeur SCALA
Nouh

Développeur SCALA

  • VILLEJUIF
SCALA APACHE SPARK APACHE HADOOP APACHE KAFKA PLAY FRAMEWORK
CV Data Engineer
Richy

Data Engineer

  • MEAUX
APACHE SPARK APACHE HADOOP JAVA SCALA APACHE HIVE APACHE KAFKA CI/CD YARN Kubernetes
CV Consultant DYNATRACE
Cloe

Consultant DYNATRACE

  • VILLEJUIF
DYNATRACE SPLUNK CI/CD ANSIBLE APACHE KAFKA ELASTICSEARCH Cloud AWS PYTHON UiPath APACHE HADOOP
CV Senior Data Engineer
Brahim

Senior Data Engineer

  • GENNEVILLIERS
J2EE JAVA Google Cloud Platform MONGODB APACHE SPARK PYTHON HASHICORP TERRAFORM GRAFANA APACHE HADOOP SCALA
CV Data Engineer
Nabil

Data Engineer

  • ÉPINAY-SUR-SEINE
SCALA APACHE HADOOP PYTHON SQL DATAWAREHOUSE PYSPARK
CV Ingénieur de développement J2EE
Naoufal

Ingénieur de développement J2EE

  • BOISSY-SAINT-LÉGER
JAVA SQL ORACLE SOAP J2EE APACHE SPARK APACHE HADOOP APACHE KAFKA APACHE HBASE REST
CV Data Engineer
Ayyoub

Data Engineer

  • NANTERRE
SQL APACHE SPARK SCALA PYTHON APACHE HADOOP GIT Cloudera SCRUM AZURE
CV Développeur BIG DATA
Zakaria

Développeur BIG DATA

  • SURESNES
SCALA JAVA APACHE SPARK APACHE KAFKA ELASTICSEARCH APACHE HADOOP APACHE HIVE BIG DATA SQL