Koly - Consultant fonctionnel APACHE HIVE

Ref : 171207S006
Photo de Koly, Consultant fonctionnel APACHE HIVE
Compétences
Expériences professionnelles
CV plus récent en cours de mise à jour
  • Koly ********
    INGENIEUR BIG DATA
    & B.I(BUSINESS
    INTELLIGENCE)
    KOLY ********
    28 ANS
    ********
    ********
    ********
    94350 VILLIERS SUR MARNE
    \uf06e
    SYNTHÈSE DES COMPÉTENCES FONCTIONNELLES
    \u2022
    \u2022
    \u2022
    \u2022
    \uf06e
    Big Data
    Business Intelligence
    MOA
    Scrum Agile
    SYNTHÈSE DES COMPÉTENCES TECHNIQUES
    Logiciels
    TALEND, QLIKVIEW, TABLEAU, CLOUDERA, ASSISTANT TERADATA, HADOOP, SPARK ,Mongodb, ElasticSearch
    SAS, R, MySQL, ECLIPSE, NEATBEANS, Nifi, Salesforce,Jira,Bonitasoft
    Requêtes
    SQL, HIVE, IMPALA, PIG
    Programmation
    PYTHON, SCALA, JAVA, PHP, HTML
    Outils de modélisation
    UML, MERISE, NORMES BPM2
    Bureautique
    PACK OFFICE (Word, Excel et Powerpoint)
    \uf06e
    EXPÉRIENCES PROFESSIONNELLES
    Consultant chez ONEPOINT depuis
    octobre 2016
    Depuis juin 2017
    En mission chez Renault, Data Engineering
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    Modélisation des bases de données
    Production des Etls
    Intégration des flux de données
    Analyse des logs d\u2019erreurs
    Outils/Progiciels :Koly ******** / Ingénieur Big Data & B.I
    \u2022
    Nifi, Horthonworks, winscp, putty,Cloud(AWS), SQL, Java,Salesforce,Hive,Impala
    Consultant chez ONEPOINT depuis
    octobre 2016
    Février \u2013 juin 2017
    En mission chez Makazi, Référent Technique DMP
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    Modélisation des bases de données
    Production des Etls
    Intégration des flux de données
    Analyse des logs d\u2019erreurs
    Migration des informations vers une nouvelle plateforme
    Outils/Progiciels :
    \u2022
    Talend, Postgresql, winscp, putty, linux, SQL, Java
    SFR
    D\u2019octobre 2015 à septembre 2016
    Référent Technique du Projet DMP
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    Extraction des données dans Teradata via SQL
    Transformation de certaines informations
    Création de Datamart via SQL
    Export des flux d\u2019informations
    Industrialisation et automatisation du flux d\u2019extraction via Bteq
    Production des ETL pour des ciblages commerciaux
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    Connexion simultanée à Hadoop et Teradata via SPPS ou Talend
    Traitement des données non structurées à travers Cloudera via Hive, Impala
    Gestion des fichiers dans HDFS
    Croisement des données via Spss ou Talend
    Création de Datamart
    Planification des tâches via Talend
    Extraction des données pour des demandes marketing
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    Traduire l\u2019expression fonctionnelle de l\u2019équipe marketing en technique
    Extraire les données à l\u2019aide de SAS Guide ou l\u2019assistant Teradata
    Faire des tests et validation
    Cryptage des informations en format SHA256 ou MD5 sous SAS Guide
    Autres Activités :Koly ******** / Ingénieur Big Data & B.I
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    Documentation du travail réalisé
    Faire des présentations
    Participation au comité de pilotage des réunions
    Rédaction des dossiers
    Participation aux réunions d\u2019équipe et aux plénières
    Organisation des rencontres avec les prestataires
    Participation au projet de Scoring clients
    Organisation des réunions
    Outils/Progiciels :
    \u2022
    Teradata, Talend, Cloudera ,QlikView SAS, SPSS,Tableau
    NATIXIS
    De Mai à Septembre 2015
    Développement d\u2019un outil qui fait du Text-Mining
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    Chargement des fichiers csv à l\u2019aide du python dans data frame pandas
    Nettoyage du corpus (suppression des stopwords, tokenisation, etc.)
    Développement d\u2019un programme qui permet de déterminer l\u2019occurrence des mots
    Production des requêtes Json sous Elasticsearch
    Projet Big data / Machine Learning (mesure de l\u2019efficacité ciblage commerciaux)
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    Extraction des données sur le web et dans la base big data
    Prépatation des données (nettoyage, division des fichiers etc.)
    Application des méthodes statistiques (Randoom Forest, SVM)
    Outils/Progiciels :
    \u2022
    Elasticsearch, Anaconda(python)
    UNIVERSITE PARIS-DAUPHINE
    De Janvier à Mai 2015
    Chef de Projet de Système d\u2019Information
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    Organisation et coordination des réunions d\u2019équipe
    Modélisation des processus métiers, des diagrammes d\u2019activités et diagramme de classe à l\u2019aide
    de l\u2019outil BPM2
    Rédaction du cahier des charges, du dossier spécifications fonctionnelles, du dossier
    d\u2019architecture technique et du manuel utilisateur
    Développement de l\u2019application en PHP, HTML, JAVASCRIPT
    Présentation du travail réalisé
    Outils/Progiciels :
    \u2022
    Bonitasoft, dreamweaverKoly ******** / Ingénieur Big Data & B.I
    SENEGALAISE DES EAUX
    Juillet 2013
    STAGE \u2013 Mise en place d\u2019une application web
    Travaux réalisés :
    \u2022
    \u2022
    \u2022
    \u2022
    \u2022
    Mise en place d\u2019une application web qui gère les demandes d\u2019abonnements au Sénégal
    Rédaction dossier des spécifications fonctionnelles
    Développement d\u2019interface graphique via HTML, CSS
    Développement des fonctionnalités d\u2019inscription sur le site à l\u2019aide du PHP
    Fonctionnalités d\u2019impression au format PDF
    Outils/Progiciels :
    \u2022
    \uf06e
    Bonitasoft, dreamweaver
    FORMATION
    Diplômes :
    \u2022
    \u2022
    \u2022
    \u2022
    2016 \u2013 Université Paris Dauphine : Master 2 Informatique Décisionnel & Big Data
    2015 \u2013 Université Paris Dauphine : Master 1 Informatique parcours MIAGE
    2014 \u2013 Université Paris 13 : Licence 3 Informatique
    2012 \u2013 Ecole Polytechnique de Dakar : Diplôme Supérieur de Technologie en Informatique de
    Gestion
    Langues vivantes :
    \u2022
    \u2022
    Anglais :
    Espagnol :
    Niveau Intermédiaire
    Notions
    Certifications :
    2016
    2014
    Certification spark developpeur Mapr (Mapr certification developer)
    Certifié Programme Voltaire