Sawssen - Data engineer Azure
Ref : 220913Y001-
77185 LOGNES
-
Ingénieur de développement, Data Analyst (28 ans)
-
Freelance

Expériences professionnelles
AXA Direct Assurance
Depuis Décembre 2021
Fonction
Azure Data Engineer
Projet(s)
L’objectif de ce projet est de migrer d'un data lake on-premise vers le cloud Azure, et reconstruire un datawarehouse: data ingestion, data transformation et business views.
Mission(s) et réalisations
Migration d'un environnement BI(sql server, oracle,...)vers le cloud,
Création des pipelines avec azure data factory pour alimenter les delta tables,
Debugging avec azure databricks,
Développer la correspondance des requêtes SQL en code spark scala,
Migration des vues,
Développer des tests unitaires avec scala test,
Participer dans la partie CI/CD en utilisant azure Devops.
Environnement
Spark Scala,Azure Data Factory,Azure Blob Storage,Azure DevOps, Release, Pipeline, Artifact, Board, Repos,Azure Databricks , Databricks Delta
Orange
De Septembre 2020 à Octobre 2021
Fonction
Ingénieur Big Data
Projet(s)
Projet de migration de la plateforme d’un environnement BI (Oracle Talend) vers environnement Big Data (Hadoop Cloudera).
Mission(s) et réalisations
Recueil et analyse du besoin du client,
Etude et conception des solutions techniques,
Participation à la conception de l’architecture de l’application,
Développement des différents modules du projet,
Migration des tables Oracle (bscs) (partie ADSL) vers Hadoop Cloudera,
Migration des jobs d’agrégation dans Hive,
Chargement des données depuis différentes sources en réalisant des traitements dans Hive,
Migration des jobs Talend de transfert des fichiers avec des jobs NIFI,
Création des vues au niveau de Hive et Impala,
Optimisation des requêtes SQL, Hive, Impala et Spark-Shell en vérifiant la compatibilité,
Développement de workflows Oozie et établissement de la fréquence d’exécution,
Accompagnement du client sur la phase recette (tests).
Environnement
Cloudera 6.2.0, Spark 2.4.0, Scala 2.11.8, Python 2.7.0, Nifi 1.9.0, Hive 2.11.8, Impala 3.2.0, Oozie 5.1.0, Hadoop.
Méthodologie : Agile Scrum.
KEYRUS
De Juin 2018 à Août 2020
Fonction
Ingénieur Big Data
Projet(s)
Participation à la mise en place d’un Datalake dans une plateforme Hortonworks.
Mission(s) et réalisations
Recueil et analyse du besoin métier,
Participation à la conception de l’architecture de l’application,
Rédaction du cahier des charges,
Rédaction des contrats d’interface,
Développement de la solution,
Collecte et centralisation des données brutes depuis différentes sources de données : Oracle, Teradata et Hive,
Calcul et consolidation des KPIs demandés dans des Datamarts par secteurs d’activité (DOB, DIE),
Développement des jobs de collecte et intégration des sources dans le Datalake à travers Sqoop, Spark, Hive et HDFS,
Développement des jobs d’agrégation et calcul d’indicateurs pour l’alimentation des datamarts via Spark, Hive et HDFS,
Planification et automatisation des workflows avec l’outil Oozie,
Monitoring des ressources du cluster avec Ambari,
Contribution à la réalisation de la documentation : spécifications fonctionnelles détaillées, dossier d’architecture, dossier de recette,
Accompagnement du client durant la phase de recette (tests),
Analyse et traitement des retours client à propos du projet (change requests),
Création d’un Middleware (webservices) entre Talentsoft et Textkernel pour gérer le transfert de données entre les deux sociétés,
Publication et déploiement des jobs Talend ESB sur Talend cloud,
Configuration du runtime et du moteur à distance sur Talend Cloud,
Réalisation des tests unitaires et d’intégration avec JUnit5,
Revue de code avec SonarQube.
Environnement
Oozie, Hbase, Hive, Hadoop, Ambari, Apache Phoenix, Sqoop, Spark, Java 8, Python, Springboot, Hortonworks, Teradata, Postgres, Scala, Talend ESB, Talend Cloud, Azure, SonarQube, JUnit5.
Méthodologie: Agile Scrum.
P3 GROUP Toulouse
De Février 2017 à Août 2017
Fonction
Data Engineer
Projet(s)
L’objectif de ce projet est d’analyser les retours et feedback des clients sur les réseaux sociaux, plus spécifiquement twitter dans le but d’améliorer l’image et la notoriété de la compagnie Airbus auprès de ses clients.
Mission(s) et réalisations
Recueil et analyse du besoin du client,
Participation à la conception de l’architecture de l’application et choix des technologies,
Rédaction d’un cahier de charge technique,
Développement de la solution avec Kafka et Python,
Exploration des données et scrapping (extraction de données) avec l’outil BeautifulSoup,
Collecte des données en streaming (en temps réel) avec API Twitter,
Gestion et filtrage des flux des données avec Kafka,
Analyse des données collectées en temps réel avec Spark streaming en utilisant des algorithmes de machine learning via la bibliothèque Keras et Spacy,
Sauvegarder ces données dans Elasticsearch,
Visualisation des données sauvegardées avec Kibana.
Environnement
Spark streaming, Kafka, Python, Elasticsearch, Kibana, RNN, Logistic Regression, Keras, Spacy, BeautifulSoup.
Formation Initiale
Certifications
2017 : Diplôme d’ingénieur en Informatique - Ecole nationale des Sciences de l’informatique.
2021 : Certification Azure Data Fundamentals DP 900.
2021 : Certification Azure Fundamentals AZ-900.
2021 : Certification Dataiku Core Designer et Advanced Designer.
Compétences Techniques
Programmation : Java, Scala, Spark, Python.
Frameworks: Spring boot, AngularJS, Flask, Exalead.
Bases de données : ElasticSearch, Oracle Database, Neo4j, MySQL, Mongodb, Hive, Impala.
Outils de développement : Pycharm, Eclipse, Visual Studio Code, Git, Jupyter, Kibana, Talend Esb studio.
Systèmes d’exploitation : Windows 10, Windows 7, Ubuntu.
Big Data : Cloudera, Hortonworks, Hadoop.
Méthodologie : Agile Scrum.
Autres : Architecture Big Data, BI, Apprentissage machine, Cloud Computing.
Langue
Anglais : Courant.