Moncif - Business Analyst SQL

Ref : 200221E001
Actuellement disponible Email vérifié
Photo de Moncif, Business Analyst SQL
Compétences
Expériences professionnelles
CV plus récent en cours de mise à jour
  • Expérience professionnelle

    Disneyland
    Depuis le 01/05/2022
    Data Engineer
    Contexte/Equipe : Disneyland Paris vit actuellement une transformation Data en se dotant d’une équipe Data
    centralisée, pour servir tous les départements de l’entreprise et d’une Data Platform sur AWS permettant ainsi à
    DLP de passer dans une nouvelle ère pour exploiter au mieux ses données riches et variées issues (digital,
    boutiques, restaurants, hôtels...),ma mission consiste à :
     Développer et maintenir un stack Data
     Mettre en place la data pipeline : Collecter les données sur notre datalake (S3), développer et maintenir les flux d’entrée
    et de sortie de la DP sur des données internes et externes, en batch et real-time, jusqu’à l’activation des données
    (Snowflake / Tableau, APIs…)
     Transformer la donnée collectée. Enrichir et maintenir notre Data Warehouse (Snowflake) -> ETL - Assurer l’intégrité
    du cycle de vie de la donnée – Dessiner.
     Mettre en place et maintenir tout le pipeline de production
     échanger avec nos collègues The Walt Disney Company aux US par exemple pour mettre en place des data shares entre
    les instances Snowflake de l’US et Paris

    Expériences professionnelles
    ******** MONCIF
    Télé : ********
    Mail : ********
    Mise à jour : Février 2018 Page 2 sur 4
     Proposer, mettre en place et accompagner sur les best practices au sein de l’organisation Data (Agile, code review, …)
     Gérer les enjeux de la gouvernance de données.
    Technologies clés AWS Glue / BATCH / S3 / CodeBuild / Snowflake, Python, SQL, Git, SodaSQL,
    Apache Spark, DevOps (Docker, CI/CD etc.), Terraform, Automic, Postman.
    Bouygues Télécom
    Depuis le 01/08/2021 jusqu’au le 10/04/2022
    Fonction Data Engineer
    Projet Au sein de la DSI Bouygues Télécom, l’intervention porte sur l’équipe data-valuefactory qui pour
    but de monétiser les données des Box Bouygues avec différents clients et partenaires, il s’agit
    d’intervenir sur toute la chaine de traitement des données du Datalake et du Datawarehouse
    Bouygues.
    Mission(s) et
    réalisations
     Recueil des besoins et rédaction des spécifications techniques
     Conception des flux TERADATA et HADOOP.
     Développement de scripts Hive / Impala / TERADATA (BTEQ , TPT ) pour l’intégration de
    données dans le Datalake
     Développement de scripts Hive / Impala d’export des fichiers à partir de hadoop et TEARDATA.
     Développement des Jobs VTOM.
     Superviser et évoluer les flux KAFKA.
     Communiquer avec les partenaires Bouygues TELECOM pour mettre en place des nouveaux
    flux.
     Automatisation de la chaine de traitement
     MCO des flux de traitements des données
    Technologies clés Teradata 16.2 (BTEQ, TPT,Fastload ), Hadoop Cloudera (SPARK, SQL Hive / Impala
    ), KAFKA , GOOGLE CLOUD , VTOM, Shell Unix , JIRA, MobaXterm, GitLab , Cloudera , HUE, GIT, RoyalTS
    , Framework ARCANE.


    Bouygues Télécom
    Depuis le 01/08/2021
    Fonction Data Engineer
    Projet Au sein de la DSI Bouygues Télécom, l’intervention porte sur l’équipe data-valuefactory qui pour
    but de monétiser les données des Box Bouygues avec différents clients et partenaires, il s’agit
    d’intervenir sur toute la chaine de traitement des données du Datalake et du Datawarehouse
    Bouygues.
    Mission(s) et
    réalisations
     Recueil des besoins et rédaction des spécifications techniques
     Conception des flux TERADATA et HADOOP.
     Développement de scripts Hive / Impala / TERADATA (BTEQ , TPT ) pour l’intégration de
    données dans le Datalake
     Développement de scripts Hive / Impala d’export des fichiers à partir de hadoop et
    TEARDATA.
     Développement des Jobs VTOM.
     Superviser et évoluer les flux KAFKA.
     Communiquer avec les partenaires Bouygues TELECOM pour mettre en place des nouveaux
    flux.
     Automatisation de la chaine de traitement
     MCO des flux de traitements des données
    Technologies clés Teradata 16.2 (BTEQ, TPT,Fastload ), Hadoop (moteur Hive / Impala ), KAFKA ,
    GOOGLE CLOUD , VTOM, Shell Unix , JIRA, MobaXterm, GitLab , Cloudera , HUE, GIT, RoyalTS ,
    Framework ARCANE.

    ENEDIS
    Depuis le 01/07/2020 jusqu’au le 30/08/2021
    Fonction Data Engineer : TERADATA INFORMATICA
    Projet Projet Bilan convergent
    Equipe : BABYLAN : Générer des bilans pour publier les données règlementaire/optionnelle
    conformément aux engagements de ENEDIS
    Mission(s) et
    réalisations
     Générer des bilans globaux de consommation et de production à partir des données
    Collectées Par ENEDIS :
    Bilan Convergent (BGC) // Bilan Multi-Mailles (BMM) // Article 23 // Article 176 // Bilan Libre
     Créer et implémenter les règles de calcul, ajouter des nouveaux indicateurs,
    Mailles, axes d’analyse dans le moteur de calcul des bilans.
     Visualiser les données d’énergie par mailles géographique et segmentaire.
     Optimisation des traitements et des requêtes SQL (BTEQ, TPT, tables bi-temporal …).
     Gestion de la base TERADATA (espace, skew, partitionnement, indexation)
     Création des scripts de sauvegarde et d’import des données
    Technologies clés TERADATA, INFORMATICA, SQL, SCRIPT SCHELL, Python , Modélisation BDD
    , JIRA, GitLab, BULK API, openshift, Jenkins, kubernets …

    ENGIE Digital – 06/2018 à aujourd’hui
    ► Poste : Data & Cloud Product Owner
    ► Projet : Migration vers le Cloud Amazon
    ▪ Travail au sein d’une équipe et dans un contexte pluridisciplinaire (Product Owners, Scrum
    Masters, Dev Team, Architectes, Data scientists, etc.)
    ▪ Définition du besoin avec les métiers et rédaction des US
    ▪ Gestion et priorisation du Backlog et de la dette technique
    ▪ Animation des cérémonies SCRUM (Sprint Planning, Refinement Backlog, etc.)
    ▪ Pilotage d'un projet de migration de la plateforme Big Data (Hadoop) vers AWS
    ▪ Développement d’API d’export des données de campagnes Marketing vers les prestataires
    d’ENGIE et industrialisation de la solution sur AWS
    Environnement technique : Python 3.7, Hadoop Cloudera, Hue, Spark, Hive, Pig, Text Mining, Machine
    Learning, NLP, MLIB, Git, GitLab, BULK API, REST API, Jenkins, Docker

    ► Poste : Data Engineer
    ► Projet : Amadeus - Intégration et restitution des données
    ▪ Intégration des nouveaux flux INFORMATICA
    ▪ Implémentation des règles de gestions TERADATA (évolutions), des extractions et intégration
    des nouveaux flux
    ▪ Interprétation du besoin brut en RGs fonctionnelles et mise en œuvre de ces règles
    ▪ Évolution du modèle des données, optimisation des traitements
    ▪ Supervision de la chaine batch, résolution des incidents et anomalies
    ▪ Réalisation des tests d’intégration technique et fonctionnelle
    Environnement technique : Teradata,15.10, Informatica, AWS, Shell, VTOM

    BNP Paribas – 09/2016 à 06/2018
    ► Poste : Data Engineer
    ► Projet : Calcul NSA (Nouveau schéma Comptable) // LRR (LOCAL REGULATORY REPORTING)
    ▪ Analyse et compréhension du besoin fonctionnel et des règles de gestion et des mécanismes de
    traitements des données avec une structure des données dynamiques et variables
    ▪ Validation de la solution proposée auprès des experts et du MOA
    ▪ Développement de la solution en script Shell avec la technologie TERADATA (BTEQ, TPT, Fast
    Export …)
    ▪ Réalisation des tests
    Environnement technique : TERADATA, BTEQ, TPT, SCRIPT SHELL, AIX
    La POSTE – 05/2016 à 09/2016
    ► Poste : Data Engineer
    ► Projet : La POSTE France BI - Périmètre : INFO CA // SEQUOA
    ▪ Développement des Workflows INFORMATICA
    ▪ Traitement des évolutions Business Object
    ▪ Elaboration des rapports // univers et traitements des incidents BO
    ▪ Supervision de la chaine Batch
    ▪ Analyse des procédures stockées et les requêtes des rapports
    ▪ Traitement des évolutions ESSBASE
    ▪ Développement des classeurs Excel VBA
    Environnement technique : INFORMATICA, Business Object, PL/SQL, ESSBASE, VBA, Unix, SQL
    SERVER

    FNAC – 02/2014 à 04/2016
    u Poste : Data Engineer
    u Projet : Projet BI FNAC (centre de compétence BI Alim)
    ▪ Alimentation du Datawarehouse, Analyse et Traitement des données sources
    ▪ Développement et mise en œuvre des processus ELT à l’aide des outils Genio et Teradata
    ▪ Développement des scripts de chargement des données ventes, clients, référentiels magasins,
    produits, etc. avec les utilitaires Teradata (TPT, FASTLOAD, MULTILOAD, BTEQ...)
    ▪ Développement des process de traitement des données via GENIO
    ▪ Correction des anomalies remontées par le service client
    ▪ Définition de la stratégie de test
    ▪ Réalisation des tests Unitaires et d’intégration
    ▪ Rédaction des rapports de spécifications techniques
    Environnement technique : Teradata SQL assistant, BTEQ, TPT, Open Text GENIO, Unix, TOAD (interroger
    les bases de données Oracle, SQL Server).

Études et formations
CV plus récent en cours de mise à jour
  • Formation initiale

    Ingénieur d’état en informatique décisionnelle
    Classe préparatoire mathématique / physique aux grandes écoles d'ingénieur, Lycée IBN TAIMIYA.
    Baccalauréat Option sciences Mathématiques A.

    Langues
    Français (bilingue)
    Anglais (Fluent)

    Localisation
    Surennes, France

    Principales compétences
    Analyse le besoin fonctionnel et proposer une solution technique adéquat.
    Implémentation de la solution technique
    Analyse et traitements des incidents
    Conception des Datamarts
    Développer des mécanismes et des processus de traitements des données
    Développement des traitements ETL
    Développement des scripts Shell
    Élaboration des rapports

    Compétences techniques

    Outils BI ETL : INFORMATICA, ODI, GENIO, HIVE, IMPALA, HADOOP
    Outils BI reporting : OBIEE, Tableau, Qlik view
    Base de données : TERADATA (BTEQ TPT FASTLOAD, MULTILOAD), TERADATA Vantage SQL Server, Oracle, MYSQL, Access
    Systèmes : Windows / Linux/AIX
    Langages : Script Shell, PL SQL, SQL, JAVA, JAVA JEE

D'autres freelances
Business Analyst SQL

Ces profils pourraient vous intéresser !
CV Business Analyst
Fedi

Business Analyst

  • BRY-SUR-MARNE
MAITRISE D OUVRAGE AGILE SQL JIRA UML SWAGGER POSTMAN ORACLE API RESTful .NET
Bientôt disponible
CV Data Analyst SQL
Eva

Data Analyst SQL

  • LYON
SQL Microsoft Power BI EXCEL PYTHON JIRA
Bientôt disponible
CV Business Analyst JIRA
Babacar

Business Analyst JIRA

  • CLICHY
AGILE JIRA PROJECT MANAGEMENT OFFICE SQL SCRUM PYTHON BPM SAP UNIX ITIL
Disponible
CV Business Analyst IT
Firas

Business Analyst IT

  • MALAKOFF
EXCEL AGILE SQL ORACLE MOA
Disponible
CV Ingénieur de production SQL
Ismail

Ingénieur de production SQL

  • ANTONY
JIRA RISQUE SQL UNIX CONTROL M ORACLE WINDOWS LINUX JAVA ELK
Bientôt disponible
CV Business Analyst CASH MANAGEMENT
Sami

Business Analyst CASH MANAGEMENT

  • PARIS
SWIFT JIRA CASH MANAGEMENT SEPA MS OFFICE SQL UNIX XML SERVICENOW
Disponible
CV Business Analyst Microsoft Power BI
Akram

Business Analyst Microsoft Power BI

  • MONTROUGE
Microsoft Power BI SQL BI
Disponible
CV Product Owner AGILE
Romain

Product Owner AGILE

  • SARTROUVILLE
AGILE SQL POSTGRESQL PACK OFFICE SCRUM JIRA JAVA
CV Business Analyst
Manel

Business Analyst

  • POISSY
POSTMAN AGILE SQL
Bientôt disponible
CV Business Analyst MONETIQUE
A. Bouna

Business Analyst MONETIQUE

  • CERGY
MONETIQUE Finance UNIX JAVA SQL JIRA LINUX
Disponible