Consultant Data Analyst Senior Fonction : Data Engineer
GROUP RENAULT (INDUSTRIE AUTOMOBILE)
7/2022 - 2024
Contexte : Traitement et optimisation des Services connectées dans les véhicules, Analyser
les différents incidents en prod, mise en place de monitoring d’alerte d’incidents avec
Grafana pour répertorier les incidents, faire la campagne des véhicules et Gestion de Stocks
des entrepôts de véhicules.
Domaine d’Intervention
Dossier de compétences |
3/10
â—¼ Mise en place d’architecture et pipeline de traitement des incidents en Prod.
â—¼ Analyser les incidents (K1, K2, K3) sur Snow et grafana
â—¼ Analyse statistique des différents incidents
â—¼ Modélisation des processus Métiers
â—¼ Gestion de la sécurité des services
â—¼ Gestion de la prod et des incidents
â—¼ Mise en place des KPI des indicateurs Incidents (Taux incidents, taux incident résolus)
â—¼ Mise en place de nouvelles stratégies en réduction de 30 % de réponses des requêtes.
â—¼ Faire des supports Post mortems des incidents K1 et K2
â—¼ Traiter les demandes d’accès au portail sur la plateforme Vnext et Harman (Redbend)
â—¼ Intégration des données et développement de pipeline avec SSIS .
â—¼ Sailpoint pour la sécurité des documents et des vins des véhicules
â—¼ Gestion des stocks dans nos différentes entrepôts des véhicules.
â—¼ Analyse des graphes sur grafana rédiger les post-mortems (document support )
â—¼ Gestion de monitoring pour les suivis des incidents et catégoriser les différents incidents
â—¼ Avec Dataiku je récupère les dataset en Prod pour analyser les différents incidents et ensuite je
génère de rapport .
â—¼ Etude Talend connectivités avec les bases de données sql server et cloud gcp
Azure Synapse, Synapse Analytique (réaliser les Activités)
â—¼ Power BI , Nettoyage des données, génération et partage des rapports avec les participants
Environnement Technique :
Azure DevOps (GIT, CI/CID) , Plateformes Azure,MSBI( SSIS) , Vnext ,DataBricks Azure , Excel
,IAM(Modelisation) , Statistique , Dataiku, Servicenow , Azure portal ,Talend, Grafana ,
Confluence ,Dataiku, Jira , Azure Synapse ,Power BI , VBA , GCP(BigQuery ) .
Consultant Data Engineer/ Architecte
SOCIETE ORANGE GROUP TELECOM
11/2020 - 6/2022
Projet1 : Data Engineer /Technico-Fonctionnelle :
Contexte : International carrière (IC) ,dans le cadre de la modernisation d’architecture du projet
C2SO Data Warehouse MDM (Data management ) pour la génération de facture client d’orange
d’entreprise
Domaine d’Intervention :
Dossier de compétences |
4/10
â—¼ Cadrage du projet avec les les métiers et chef du projet(spécifications techniques et
Fonctionnelles)
â—¼ Plannings, des budgets, des ressources avec les métiers
â—¼ Recueille des besoins avec les métiers (fonctionnelle)
â—¼ Build des différentes entités avec Togaf , power Designer( Conception d’architecture de service
SOA )
â—¼ Configuration de Sailpoint pour la sécurisation des identités des utilisateurs du projet et des
documents ensuite analyse de la performance de l’entreprise et des évolutions sur un
Dashboard.
â—¼ Conception de la base de stockage objet AWS (S3 )
â—¼ Extraction des Rows Data via Talend dans les différentes sources
Marine, Diamond ….. (Données CRM), ensuite les Job talend sont développer .
â—¼ Elles sont intégrer dans la bas de données objet AWS(S3)
â—¼ Les Rows data sont Transformé avec Dataiku pour être intégrer dans la base de données Sql.
â—¼ Conception de la base de données Sql Server pour le stockage des données tampon
â—¼ Conception de Data Warehouse pour le modèle
â—¼ Crée du Dashboard dans Power BI pour générer des rapports format web avec
â—¼ pilotage, reporting, automatisation des tests, déploiements, gestion de la
â—¼ Prod et des incidents .Power Bi service et d’autre format.
â—¼ Récupérer les Row Data avec Dataiku dans la base de données objet Clickhouse pour la
transformation (dans le flow où s’importe les dataSet pour la préparation avec les différents Lab)
Après la transformation sont déposées dans la base de données Sql .
â—¼ Dataiku Dss (conception de recette, analyse des diagrammes de Dashboard),
â—¼ Créer le Dashboard sur power BI pour chiffrer les factures des clients, mensuel,
Annuel
Environnement Technique :
BPMN , Talend , Dataiku Dss , SOA ,Colibra, ,Sailpoint (Sécurité d’identité cloud), filtres
,générer des rapports , Togaf, PowerDesigner,SQL Server,PowerDesigner, Tableau , PowerBI ,
DBT, Pack office , GCP (BigQuery),Hadoop , hbase , SnowflakeDB, Snowflake, Clickhouse,
Azure Devops (Git, CI /CD)
PROJET2 : Data Engineer Technique/Tech_Lead
-
Contexte :
Dossier de compétences |
5/10
Projet :Migration de la base de données Teradata à GCP (Big Query), Le projet Kenobi (Accort
team) , avait pour objectif de migrer les données (télécom, banque) de la base de données
Teradata vers Google cloud plateforme (GCP) et mettre en place un outil pour le retour des
données dans Teradata pour permettre aux métiers de gérer les clients.
Domaine d’Intervention :
â—¼ Cadrage du projet et choix technologies
â—¼ Réunion avec les métiers pour la spécification fonctionnelle et technique
â—¼ Configuration de Sailpoint pour la sécurisation des données dans le cloud
â—¼ Mise en place de pipeline de traitement avec BigQuery (Cloud Storage)
â—¼ Création du projet Dev et Prod Sur bigQuery (cloud Storage )
â—¼ Crée DataSet et tables pour stockage des nouvelles données
â—¼ Mise en place du Pipeline de DataFlow (ApacheBeam pour exécuter les Jobs)
â—¼ Extraction des données dans Teradata (DDL) .
â—¼ Convertir les données de Teradata en Script_BigQuery
â—¼ Préparer les dags (Airflow) dag extraction et dag Load ,
â—¼ Avec apache Airflow les données sont transporter de Cloud Storage
â—¼ Préparer le fichier Json (pour les tables)
â—¼ Création des dags d'Extraction avec les tables ddl de Teradata
â—¼ Copier les tables dans FireStore avec leurs paramètres
Lancer le code python du dags d'extraction des données de Teradata
Lancer dags load des données pour l’ingestion des Row data dans le cloud Storage
â—¼ Vérification des logs en cas d'erreur de migration des données
â—¼ Transfer des données fichiers Json vers gcp
â—¼ Création des clusters kubernetes .
â—¼ Mise en place du Pipeline de Jenkins
â—¼ Analyser des rapports des données avec Dax (Power Bi) et Data Studio
Environnement technique :
GCP( DataFlow , Sailpoint ,Kubernetes , DataStudio, BigQuery , DBT( ETL pour la Qualité
,fiabilité des données dans cloud ), ConnecterKafka, Spark ,Hadoop, PowerShel, Cloud Storage,
Firestore , Cloud Sql) , Putty, Python( Dataframe, Airflow),Fizilla ,Putty, Airflow ,SQL , base de
données Teradata, Apache NIFI,CSV, Excel , Databricks ,Json , Docker( création d’image)
,Talend, confluence , JIRA, cloud Storage Devops ,Azure Devops (Git, Maven, Git,
Jenkns,CI /CD), Stitch D
Consultant Data Engineer
CREDIT AGRICOLE (BANQUE ASSURANCE)
10/2019 - 10/2020
Contexte :
Projet : Migration des données de Datalake vers la nouvelle plateforme google Platform (GCP)
BigQuery Cloud Storage .
Domaine d’Intervention
Dossier de compétences |
6/10
â—¼ Cadrage du projet sur les spécifications Techniques
â—¼ Étude de l'existant
â—¼ Modélisation des processus métiers (Workflows)
â—¼ Rédaction des dossiers techniques (mapping des données)
â—¼ Mise en place de l’application MOE (Technique)
â—¼ Extraction avec Nifi des Rows data à partir des sources.
â—¼ Création de session spark (python , Spark)
â—¼ Déployés ses applications avec spark en production
Dataflows ( kafka , Spark )
â—¼ Extraction, traitement et exposition des données de l'Open Data
â—¼ Production de KPI à destination des commerciaux
â—¼ Gestion des chaines de batchs
â—¼ Platform cloud data Databricks (pour Ingestion et automatisation)
â—¼ Gestion des risque ( lutte contre des hackers)
â—¼ ElasticSearch pour indexer , Chercher les données pour les Analyser
â—¼ Gestion d’assurance IARD ( Incident , Accident , Risque , Divers ) et des sinistres
â—¼ Scraping des bases de données SIRENE, OpenStreetMap, Banque de France &
â—¼ INSEE
â—¼ Présentation des résultats dans des tables Hive server Rédaction du manuel
â—¼ utilisateur
â—¼ Maintenance corrective et évolutive
Environnement technique :
GCP (BigQuery, Data Storage, DataFlow),RDD, Alteryx ,Hadoop,NIFI, HortonWorks, Cloudera
(Hue), Python (Geopandas ), Scala(Intellij),ElasticSearch (ELK), Spark, Hive, Oozie, Cloud Azure
(Datalab , data Box , Databricks Azure, Azcopy, ExpressRoute ) , synapse Analytic , Databricks ,
Snowflake, Tableau , Dataflows
Consultant data Engineer & Data Analyst
CREDIT FONCIER (BANQUE ASSURANCE)
9/2018 - 10/2019
Projet : Refonte du Système Décisionnel de la Banque et d'accompagner les métiers dans
l'analyse des cas d'usages .
Domaine d’Intervention
Dossier de compétences |
7/10
â—¼ Modélisation du Data Warehouse (Entrepôt des données) Finance
â—¼ Migration des rows data vers le Data Lake
â—¼ Analyse Business des rows data migrer sur Data lake
â—¼ Modélisation de la base de données Finance de marché & Compliance
â—¼ Organisation & coordination des meetings
â—¼ Rédaction des User stories, maintenir le Backlog
â—¼ Modélisation des datamarts avec DBT pour faciliter et la qualité des données
â—¼ Mettre des plans pour lutter contre les risques (Fraudes)
â—¼ Automatisation des flux de données (CI /CD)
â—¼ Mesurer votre Performance des données ESG à l’aide des KPI et Indicateurs
â—¼ Génération des rapports ESG
â—¼ Développement des flux d'intégration des données via SSIS
â—¼ Reporting, création des tableaux de bords via Power BI & Tableau
â—¼ Pour le traitement des données d’assurances avec SAS entreprise guide.
â—¼ Paramétrage des options...