Projet Equipe FIRST : Projet Hypervision
Equipe : Une supervision globale de tous les produits Enedis et assurer la continuité des services
Mission(s) et réalisations • Mise en place d’un système de supervision complet pour les machines
Teradata, incluant les principaux indicateurs de santé du système.
• Développement de scripts BTEQ Teradata permettant le calcul et le traitement des données à transmettre à Grafana.
• Configuration des brokers Kafka pour assurer le transfert fluide des données de Teradata vers Elasticsearch.
• Réalisation de la restitution des données à travers des tableaux de bord sur Grafana et Power BI pour une visualisation et une analyse en temps réel.
• Code review / validation des merge request / optimisation des requêtes teradata.
• Améliorer l’architecture projet.
Projet Disneyland Paris vit actuellement une transformation Data en se dotant d’une équipe Data centralisée, pour servir tous les départements de l’entreprise et d’une Data Platform sur AWS permettant ainsi à DLP de passer dans une nouvelle ère pour exploiter au mieux ses données riches et variées issues (digital, boutiques, restaurants, hôtels...), ma mission consistait à :
Mission(s) et réalisations • Alimentation du Data Warehouse, Analyse et Traitement des données sources.
• Mettre en place la data pipeline : Collecter les données sur notre datalake (S3), développer et maintenir les flux d’entrée et de sortie de la DP sur des données internes et externes, en batch et real-time, jusqu’à l’activation des données (Snowflake / Tableau, APIs…)
• Développer et maintenir un stack Data
• Transformer la donnée collectée. Enrichir et maintenir notre Data Warehouse (Snowflake) -> ETL - Assurer l’intégrité du cycle de vie de la donnée – Dessiner.
• Mettre en place des tests automatisées pour Mettre en place et maintenir tout le pipeline de production
• Mettre en place des data shares entre les instances Snowflake de l’US et Paris en utilisant les data shares snowflake.
• Mettre en place des stages snowflake pour permettre de d’interroger des fichiers parquetstocker dansle aws bucket avec des commandes COPY INTO.
• Proposer, mettre en place et accompagner sur les best practices au sein de L’organisation Data (Agile, code review, …)
• Gérer les enjeux de la gouvernance de données.
Projet Au sein de la DSI Bouygues Télécom, l’intervention porte sur l’équipe data-valuefactory qui pour but de monétiser les données des Box Bouygues avec différents clients et Partenaires, il s’agit d’intervenir sur toute la chaine de traitement des données du Datalake et du Datawarehouse Bouygues.
Mission(s) et réalisations
• Recueil des besoins et rédaction des spécifications techniques
• Conception des flux TERADATA et HADOOP.
• Développement de scripts Hive / Impala / TERADATA (BTEQ , TPT ) pour L’intégration de données dans Teradata.
• Développement de scripts Hive / Impala d’export des fichiers à partir de hadoop et TEARDATA.
• Développement des Jobs VTOM.
• Communiquer avec les partenaires Bouygues TELECOM pour mettre en place des nouveaux flux.
• Automatisation de la chaine de traitement
• MCO des flux de traitements des données
Projet Projet Bilan convergent
Equipe : BABYLAN : Générer des bilans pour publier les donnéesrèglementaires
conformément aux engagements de ENEDIS aux prés de l’état français
Mission(s) et réalisations • Générer des bilans globaux de consommation et de production à partir des données Collectées Par ENEDIS :
• Bilan Convergent (BGC)// Bilan Multi-Mailles(BMM)// Article 23 // Article
176 // Bilan Libre
• Créer et implémenter les règles de calcul, ajouter des nouveaux indicateurs,
• Mailles, axes d’analyse dans le moteur de calcul des bilans.
• Visualiser les données d’énergie par mailles géographique et segmentaire.
• Optimisation destraitements et desrequêtes SQL (BTEQ, TPT, tables bitemporal …).
• Intégrations des nouveaux flux INFORMATICA Power center, Implémentation des règles de gestions TERADATA (évolutions), des extractions, intégrations
des nouveaux flux (INFORMATICA workflow Designer, INFORMATICA workflow manager).
• Gestion de la base TERADATA (espace, skew, partitionnement, indexation)
• Création des scripts de sauvegarde et d’import des données
Technologies clés TERADATA, INFORMATICA POWER CENTER, SQL, SCRIPT SCHELL,
Python, Modélisation BDD,JIRA, GitLab, BULK API, openshift, Jenkins, kubernets …
CONSULTANT BI TERADATA INFORMATICA
ENGIE SA
mai 2016 - octobre 2018
Projet Projet Amadeus: Intégration etrestitution des données Au sein de la DSI – Délégation Centres d’Excellence Direction Grand Public - BU France B2C
Mission(s) et réalisations
• Intégrations des nouveaux flux INFORMATICA, Implémentation des règles de gestions TERADATA (évolutions), des extractions, intégrations des nouveaux
flux (INFORMATICA workflow Designer, INFORMATICA workflow manager).
• Supervision des JOBS INFORMATICA (INFORMATICA workflow MONITOR) et résolution des incidents.
• Migration de INFORMATICA Version 9 a la version 10.
• Interpréter le besoin brut en règle de gestion fonctionnelle et assurer la mise en œuvre de ces règles.
• Optimisation des Requête SQL.
• Administration et gestion des ressources de la base TERADATA (SPOOL, SKEW, DBQLOG…).
• Évoluer le modèle des données, optimisation des traitements.
• Supervision de la chaine batch, résolution des incidents, anomalies.
• Réaliser les tests d’intégration technique et fonctionnelle
Technologies clés TERADATA, INFORMATICA POWER CENTER, SQL, SCRIPT SCHELL, VTOM, Modélisation
CONSULTANT BI
IBM
septembre 2014 - mars 2016
Projet Projet BNP Paribas : projet de Calcul NSA (Nouveau schéma Comptable) // LRR (LOCAL REGULATORY REPORTING)
Classification : Complexe / très complexe
Mission(s) et réalisations
• Analyser et comprendre le besoin fonctionnel et les règles de gestion et les mécanismes de traitements des données avec une structure des données dynamique et variables.
• Création des cahiers de spécificationstechnique correspond à la solution proposée.
• Valider la solution proposer au près des experts et du MOA
• Développement de la solution en script Shell avec la technologie TERADATA (BTEQ, TPT, Fast Export …)
• Superviser la chaine BI qui tourne chaque jour et assurer le bon ordonnancement des jobs et leur exécution.
• Développer, implémenter et tester les évolutions sur le projet.
Technologies clés TERADATA SQL assistant, BTEQ, TPT, Open Text GENIO version 9 et 10,
Unix, TOAD (interroger les bases de données Oracle, SQL Server)
Études et formations
Ingénieur d’état en informatique décisionnelle
Classe préparatoire mathématique / physique aux grandes écoles d'ingénieur
Lycée IBN TAIMIYA.
Baccalauréat Option sciences Mathématiques A.
Langues
Anglais - C2
Autres compétences
Principales compétences
• Analyse le besoin fonctionnel et proposer une solution technique adéquat.
• Implémentation de la solution technique
• Analyse et traitements des incidents
• Conception des Datamarts
• Développer des mécanismes et des processus de traitements des données
• Développement destraitements ETL
• Développement des scripts Shell
• Élaboration des rapports
-Bases de données: Snowflake, Teradata,Oracle, SQL Server.
- AWS : S3, Glue, et Batch
- ETL : INFORMATICA, GENIO.
- Big Data : Apache Spark , HADOOP , HIVE , IMPALA.
- Langages de programmation : Python , SQL , SCRIPT SHELL
- OutilsDevOps: Docker, GitLab CI/CD, OpenShift, Jenkins, Terraform , Postman.
- Outils d’ordonnancement et de supervision : VTOM, GRAFANA, Atomic.
D'autres freelances Consultant BI
Ces profils pourraient vous intéresser !
Anis
Consultant Applicatif
THIAIS
Pack OfficeSQLMOAJiraAgileTomcatBI
Disponible
Thông
Data Engineer BI
TOULOUSE
SQLDataBIDatavizTIBCO SpotfireBusiness ObjectsMicrosoft Power BI
Nada
Consultant BI
MONTROUGE
BISAP BOSQL
David
Consultant ORACLE DATA INTEGRATOR
VILLIERS-SUR-MARNE
Oracle Data IntegratorOracleBISQLLinuxWindowsSQL ServerApache NiFiBusiness ObjectsPowerAMC