Sawssen - Data engineer Azure

Ref : 220913Y001
Email vérifié
Photo de Sawssen, Data engineer Azure
Compétences
Expériences professionnelles
  • Expériences professionnelles


    AXA Direct Assurance
    Depuis Décembre 2021

    Fonction
    Azure Data Engineer
    Projet(s)

    L’objectif de ce projet est de migrer d'un data lake on-premise vers le cloud Azure, et reconstruire un datawarehouse: data ingestion, data transformation et business views.
    Mission(s) et réalisations
    Migration d'un environnement BI(sql server, oracle,...)vers le cloud,
    Création des pipelines avec azure data factory pour alimenter les delta tables,
    Debugging avec azure databricks,
    Développer la correspondance des requêtes SQL en code spark scala,
    Migration des vues,
    Développer des tests unitaires avec scala test,
    Participer dans la partie CI/CD en utilisant azure Devops.
    Environnement
    Spark Scala,Azure Data Factory,Azure Blob Storage,Azure DevOps, Release, Pipeline, Artifact, Board, Repos,Azure Databricks , Databricks Delta


    Orange
    De Septembre 2020 à Octobre 2021



    Fonction
    Ingénieur Big Data
    Projet(s)
    Projet de migration de la plateforme d’un environnement BI (Oracle Talend) vers environnement Big Data (Hadoop Cloudera).
    Mission(s) et réalisations
    Recueil et analyse du besoin du client,
    Etude et conception des solutions techniques,
    Participation à la conception de l’architecture de l’application,
    Développement des différents modules du projet,
    Migration des tables Oracle (bscs) (partie ADSL) vers Hadoop Cloudera,
    Migration des jobs d’agrégation dans Hive,
    Chargement des données depuis différentes sources en réalisant des traitements dans Hive,
    Migration des jobs Talend de transfert des fichiers avec des jobs NIFI,
    Création des vues au niveau de Hive et Impala,
    Optimisation des requêtes SQL, Hive, Impala et Spark-Shell en vérifiant la compatibilité,
    Développement de workflows Oozie et établissement de la fréquence d’exécution,
    Accompagnement du client sur la phase recette (tests).
    Environnement
    Cloudera 6.2.0, Spark 2.4.0, Scala 2.11.8, Python 2.7.0, Nifi 1.9.0, Hive 2.11.8, Impala 3.2.0, Oozie 5.1.0, Hadoop.
    Méthodologie : Agile Scrum.


    KEYRUS
    De Juin 2018 à Août 2020

    Fonction
    Ingénieur Big Data
    Projet(s)
    Participation à la mise en place d’un Datalake dans une plateforme Hortonworks.
    Mission(s) et réalisations
    Recueil et analyse du besoin métier,
    Participation à la conception de l’architecture de l’application,
    Rédaction du cahier des charges,
    Rédaction des contrats d’interface,
    Développement de la solution,
    Collecte et centralisation des données brutes depuis différentes sources de données : Oracle, Teradata et Hive,
    Calcul et consolidation des KPIs demandés dans des Datamarts par secteurs d’activité (DOB, DIE),
    Développement des jobs de collecte et intégration des sources dans le Datalake à travers Sqoop, Spark, Hive et HDFS,
    Développement des jobs d’agrégation et calcul d’indicateurs pour l’alimentation des datamarts via Spark, Hive et HDFS,
    Planification et automatisation des workflows avec l’outil Oozie,
    Monitoring des ressources du cluster avec Ambari,
    Contribution à la réalisation de la documentation : spécifications fonctionnelles détaillées, dossier d’architecture, dossier de recette,
    Accompagnement du client durant la phase de recette (tests),
    Analyse et traitement des retours client à propos du projet (change requests),
    Création d’un Middleware (webservices) entre Talentsoft et Textkernel pour gérer le transfert de données entre les deux sociétés,
    Publication et déploiement des jobs Talend ESB sur Talend cloud,
    Configuration du runtime et du moteur à distance sur Talend Cloud,
    Réalisation des tests unitaires et d’intégration avec JUnit5,
    Revue de code avec SonarQube.
    Environnement
    Oozie, Hbase, Hive, Hadoop, Ambari, Apache Phoenix, Sqoop, Spark, Java 8, Python, Springboot, Hortonworks, Teradata, Postgres, Scala, Talend ESB, Talend Cloud, Azure, SonarQube, JUnit5.
    Méthodologie: Agile Scrum.


    P3 GROUP Toulouse
    De Février 2017 à Août 2017

    Fonction
    Data Engineer
    Projet(s)

    L’objectif de ce projet est d’analyser les retours et feedback des clients sur les réseaux sociaux, plus spécifiquement twitter dans le but d’améliorer l’image et la notoriété de la compagnie Airbus auprès de ses clients.
    Mission(s) et réalisations
    Recueil et analyse du besoin du client,
    Participation à la conception de l’architecture de l’application et choix des technologies,
    Rédaction d’un cahier de charge technique,
    Développement de la solution avec Kafka et Python,
    Exploration des données et scrapping (extraction de données) avec l’outil BeautifulSoup,
    Collecte des données en streaming (en temps réel) avec API Twitter,
    Gestion et filtrage des flux des données avec Kafka,
    Analyse des données collectées en temps réel avec Spark streaming en utilisant des algorithmes de machine learning via la bibliothèque Keras et Spacy,
    Sauvegarder ces données dans Elasticsearch,
    Visualisation des données sauvegardées avec Kibana.
    Environnement
    Spark streaming, Kafka, Python, Elasticsearch, Kibana, RNN, Logistic Regression, Keras, Spacy, BeautifulSoup.

Études et formations
  • Formation Initiale

    Certifications
    2017 : Diplôme d’ingénieur en Informatique - Ecole nationale des Sciences de l’informatique.


    2021 : Certification Azure Data Fundamentals DP 900.
    2021 : Certification Azure Fundamentals AZ-900.
    2021 : Certification Dataiku Core Designer et Advanced Designer.

    Compétences Techniques

    Programmation : Java, Scala, Spark, Python.
    Frameworks: Spring boot, AngularJS, Flask, Exalead.
    Bases de données : ElasticSearch, Oracle Database, Neo4j, MySQL, Mongodb, Hive, Impala.
    Outils de développement : Pycharm, Eclipse, Visual Studio Code, Git, Jupyter, Kibana, Talend Esb studio.
    Systèmes d’exploitation : Windows 10, Windows 7, Ubuntu.
    Big Data : Cloudera, Hortonworks, Hadoop.
    Méthodologie : Agile Scrum.
    Autres : Architecture Big Data, BI, Apprentissage machine, Cloud Computing.


    Langue
    Anglais : Courant.

D'autres freelances
Ingénieur de développement BIG DATA

Ces profils pourraient vous intéresser !
CV Data Engineer | Bi Engineer
N'dri

Data Engineer | Bi Engineer

  • LE MANS
BI BIG DATA TALEND SQL Microsoft Power BI APACHE HADOOP APACHE SPARK PYTHON ORACLE JAVA
Bientôt disponible
CV Développeur BIG DATA
Victorien

Développeur BIG DATA

  • PARIS
BIG DATA SCALA PYTHON Cloud AWS POSTGRESQL SCRUM Snowflake HASHICORP TERRAFORM GITLAB
CV Développeur SCALA
Ait Abdesselam

Développeur SCALA

  • Vincennes
SCALA BIG DATA APACHE SPARK
CV Senior Data Machine Learning Engineer GCP & AWS
Hamed

Senior Data Machine Learning Engineer GCP & AWS

  • Houilles
JAVA PYTHON Google Cloud Platform AMAZON WEB SERVICES APACHE SPARK APACHE KAFKA Kubernetes BIG DATA Data science TALEND
CV Software data engineer (AWS + KUBERNETES certified)
Majid

Software data engineer (AWS + KUBERNETES certified)

  • PARIS
SQL PYTHON BIG DATA Cloud AWS PYSPARK DEVOPS APACHE KAFKA Kubernetes
CV Développeur Django/JS
Awa

Développeur Django/JS

  • VIRY-CHÂTILLON
JAVASCRIPT SQL DJANGO PYTHON R HTML5 CSS BIG DATA
CV Data scientist / web developper / analyst programmer
Marouane

Data scientist / web developper / analyst programmer

  • VILLEURBANNE
JAVASCRIPT PYTHON SQL JAVA PHP NODE.JS REACT.JS ORACLE MYSQL BIG DATA
CV Spécialiste Cybersécurité
Djasra

Spécialiste Cybersécurité

  • PARIS
PKI JAVA J2EE OPENTRUST BIG DATA SCRIPT SHELL PYTHON DEVOPS Kubernetes Cloud AWS
CV Data Analyst SQL
Raphaël

Data Analyst SQL

  • VILLEJUIF
SQL ORACLE BUSINESS OBJECTS SCRIPT SHELL BIG DATA TERADATA SAS
CV Data Science | Web scraping | Automation
Romain

Data Science | Web scraping | Automation

  • CABANNES
PYTHON BIG DATA WEBDEV