Imen - Consultant technique BIG DATA

Ref : 200207D001
Photo d'Imen, Consultant technique BIG DATA
Compétences
Expériences professionnelles
  • EXPÉRIENCE

    Natixis
    Data Engineer - Février 2019 à novembre 2019
    Contexte
    Au sein de l'équipe BI FICG (Finlake), j'ai participé à la mise en place d'un script d'ingestion des données dans le data lake, à partir de
    la base relationnelle de l'outil LoanIQ. Le script assure une phase d'historisation des données brutes avant de les stocker dans les
    tables Hives nales.
    En deuxième lieu, j'ai particpé au développment d'une API Python permettant d'eectuer des recherches optimisées sur des
    documents PDF indexés dans Apache Solr.
    Missions
    Développement d'un script pyspark d'ingestion des données d'une base relationnelle de l'outil Loan IQ dans le data lake
    Découverte de l'outil d'indexation Apache Solr
    Animation d'une présentation à l'équipe pour introduire fonctionnellement et techniquement Apache Solr
    Indexation des documents binaires (pdf, word) ainsi que des documents semi structurés (json, csv) à l'aide de la méthode Curl
    La gestion de l'authentication à Apache Solr ainsi que l'installation des diérentes bibliothèques dans un environnement sécurisé
    par le protocole Kerberos
    Développement d'un script capable d'indexer, dans Apache SOLR et à l'aide des job SOLR Hadoop qui utilisent Apache Tika, des
    documents PDF stockés dans HDFS
    Développement d'une API Flask capable de requêter solr et retourner, selon des critères de recherche, les documents concernés
    Adaptation d'un algorithme de data science Word2Vec pour contextualiser un critère de recherche et générer une liste de
    synonymes
    Migrer les script vers Spark 2.3
    Optimiser les script pyspark en réduisant le temps de traitement

    Environnement technique et fonctionnel
    Travailler au quotidien avec les outils d'intégartion DevOps : Github, Jenkins, XL Deploy, XL Release et Control-M
    Python, Pyspark, Script shell linux, Apache Solr, protocole Kerberos, Word2Vec
    Travailler dans une équipe Scrum

    SAP Levallois
    Consultante BI/Big Data en interne - Stage de n d'études - Mai 2018 à novembre 2018
    Contexte
    Dans le cadre de mon stage de n d'études, j'ai participé à la mise en place d'une plateforme de suivi et d'automatisation de deux
    process en Big data (data cleaning et data processing) à l'aide du framework Spark au sein de l'environnement Hadoop.
    J’ai ingéré par la suite les données résultantes dans SAP Hana an de calculer les KPI nécessaires pour la phase de restitution sur SAP
    Analytics Cloud.
    Missions
    Automatisation dans Hadoop du nettoyage et du traitement personnalisé des données provenant de plusieurs sources et plusieurs
    projets à l’aide des scripts Python
    Automatisation de l’exécution des scripts à l’aide de l’outil Jenkins
    Modélisation des données et création des vues SAP Hana pour préparer l’étape de restitution
    Création de solutions de restitution sur l’outil SAP Analytics Cloud pour assurer le suivi aux utilisateurs des diérents projets
    impactés par l’automatisation
    Intégration dans une équipe projet en méthodologie Agile (Scrum)
    Travail en collaboration avec des équipes internationales au quotidien
    Stage en Anglais
    Environnement technique et fonctionnel
    Big data, Hadoop, SAP Hana, SAP Analytics Cloud

    Natixis
    Consultante BI/Big data - projet d'études - Novembre 2017 à avril 2018
    Contexte
    Au sein de l’équipe BI FICG (Finlake), j’ai participé à la migration de la base de données de l’outil de nancement Loan IQ de Natixis
    vers le Big Data. J’ai contribué à la réalisation d’une modélisation Big Data à partir de l’existant ainsi que le remplacement des anciens
    rapports en utilisant Tableau Software.
    Missions
    Etude de l’existant et dégagement du modèle relationnel
    Modélisation des données par la dénormalisation an de répondre à un besoin de migration vers le Big Data
    Ingestion des données dans Hive
    Indexation et restitution des données à l’aide d’Indexima et Tableau Software

    Environnement technique et fonctionnel
    Big data/BI, Méthode Scrum, Hadoop Horthonworks, Tableau software, Oracle data bases, Indexima

    SODASIL
    Ingénieure en Informatique - Août 2016 à juin 2017
    Contexte
    Dans le cadre d’un CDD au sein d’une entreprise qui opère dans le secteur agricole, j’ai développé le site web de l’entreprise ainsi
    qu’une application java pour la gestion des employés.
    Missions

    Développement du site ociel de l’entreprise
    Développement d’une application Desktop pour la gestion des employées
    Environnement technique et fonctionnel
    Java, SQL, Bootstrap, JQuery, Html, CSS, PHP

    Satoripop
    Développeur Android - Stage de n d'études - Février 2016 à juin 2016
    Contexte
    Développement d’une application Android pour le jeu de Fantasy Football tunisien Coaching Foot
    Missions
    Etude du projet (cahier des charges, conception détaillée)
    Réalisation du Mock-up (story-board)
    Intégration PSD
    Développement des fonctionnalités (en utilisant les web service et les API Facebook, Google plus)
    Tests unitaires et fonctionnels
    Environnement technique et fonctionnel
    Android, Sql



Études et formations
  • FORMATIONS et CERTIFICATIONS

    Depuis 2020 • Java Oracle Certied Associate Programmer 1Z0-808 • Oracle
    Décembre 2018 • Certication • IBM Cognitive Class Hadoop 101
    Décembre 2018 • Certication • IBM Cognitive Class Spark Fundamentals 1
    2017 à 2018 • Master 2 - Spécialisation "Informatique décisionnelle" • EISTI Cergy
    2013 à 2016 • Ingénieure Informatique • Ecole Polytechnique de Sousse, Tunisie

D'autres freelances
Consultant technique BIG DATA

Ces profils pourraient vous intéresser !
CV Data engineer
Alain

Data engineer

  • PARIS
SQL PYTHON Google Cloud Platform APACHE SPARK TALEND SSIS APACHE HADOOP HASHICORP TERRAFORM ANSIBLE BIG DATA
Disponible
CV Ingénieur de développement JAVA et BIG DATA
Hakim

Ingénieur de développement JAVA et BIG DATA

  • SAINT-GERMAIN-EN-LAYE
JAVA APACHE SPARK SQL Kubernetes DOCKER SPRING BIG DATA APACHE KAFKA Microservices SCALA
Disponible
CV Architecte SI
Florian

Architecte SI

  • VILLEJUIF
SCRUM JIRA BIG DATA DEVOPS APACHE KAFKA LINUX Kubernetes ELK MYSQL ENTERPRISE ARCHITECT
CV Tech Lead / Architecte
Khaled

Tech Lead / Architecte

  • PARIS
JAVA SQL J2EE SCALA BIG DATA APACHE KAFKA APACHE SPARK APACHE HADOOP
CV Big Data / Python engineer
Laurent

Big Data / Python engineer

  • CAMBERNARD
SQL DATA PYTHON MONGODB BIG DATA Google Cloud Platform JAVA APACHE HADOOP APACHE SPARK DOCKER
Disponible
CV Ingénieur de développement DevOps JAVA Angular JAVASCRIPT Spring Boot
Mahmoud

Ingénieur de développement DevOps JAVA Angular JAVASCRIPT Spring Boot

  • CERGY
JAVA LINUX Angular BIG DATA JAVASCRIPT Spring Boot
CV Consulant Senior ETL/BI Talend Cloud
Younes

Consulant Senior ETL/BI Talend Cloud

  • ARGENTEUIL
TALEND SQL TALEND DI BI BIG DATA POSTGRESQL ORACLE MYSQL SQL SERVER DATA
CV Consultant technique DATA
Dan Thuy

Consultant technique DATA

  • PARIS
DATA PYTHON PYSPARK BIG DATA Google Cloud Platform PL SQL APACHE SPARK BI
CV Développeur SQL
Mayssa

Développeur SQL

  • PARIS
SQL C SHARP JAVA APACHE HADOOP BIG DATA SCALA APACHE SPARK APACHE KAFKA PYSPARK
CV Data Analyst PYTHON
Cherifatou

Data Analyst PYTHON

  • NANTERRE
PYTHON SPLUNK POSTGRESQL MYSQL SQL SCALA BIG DATA