Projet: Initialisation de deux projets dbt cloud, historisation des données
Equipe: 1 personne
Réalisations :
Initialisation des projets Casino et Poker via DBT
Connexion DBT cloud à Snowflake
Ingestion des données via snowpipes (fichiers json et csv)
Historisation des données dans le bronze
Transformation des données brutes (bronze) en données plus lisibles pour le métier (silver)
CI/CD via Jenkins et Git :
Rédaction du JenkinsFile
PR dans Git (stage & build cicd)
Respect du code quality check de sqlflulff linter
Projet: Calcul des indicateurs de ventes et d’achats (Migration du Cloud Azure vers On-Prem)
Equipe: 4 personnes
Méthodologie Agile : sprint de 7j ouvrés, cross-testing entre devs 2j et delivery
Réalisations :
Travaux de migration des algorithmes SPSS :
Retranscription des algos en scripts Python (VsCode, Git AzureDevOps)
Industrialisation des scripts en utilsant des fichiers de paramétrage yaml
Atelier de coordination avec les équipes HUB (réception de trigger sous format json)
Atelier de coordination avec les équipes ETL (lecture et dépôt de fichiers csv , excel dans Azure Blob Storage, ensuite sharepoint)
Envoi et lecture de message SSH entre les machines virtuelles pour l’exécution d’un alto, la réception de la log
Conteneurisation docker de la solution finale pour faciliter les intégrations et déploiements en continue (CI/CD)
Implémentation de règles fonctionnelles
Chiffrage et étude d’impact des demandes
debug/TMA résolution d'anomalies
Développement des évolutions
Rédaction de guide utilisateur
Application des normes métiers
Force de propositions
Gestion de la base de données
Intégration et production de flux de données
Création / modification de tables
Gestion des permissions
Revue des demandes en cours avec la DSI et le métier
Atelier présentation de nouvelles fonctionnalités
Redaction de documentation fonctionnelle Confluence
Rédaction de documentation technique Sphinx
Projet Commissionnement : Migration des Comptes Apporteurs d’affaires (Migration entre deux SI)
Equipe : 5 personnes dont 3 à l’étranger
Méthodologie Agile : sprint de 7j ouvrés, cross-testing entre devs 2j et delivery
Réalisations:
Implémentation de règles fonctionnelles
Chiffrage et étude d’impact des demandes
debug/TMA résolution d'anomalies
Développement des évolutions
Développement d’IHM pour le reporting des données
Rédaction de guide utilisateur
Application des normes métiers
Gestion de la base de données
Intégration et production de flux de données
Création / modification de tables
Optimisation des performances du modèle :
Régénération des index
Archivage des données
Revue et amélioration des scripts SQL
Développement des pré-requis à la migration des données :
Réception des données non structurées (csv, excel)
Identification des patterns dans les données non structurées avec le métier
création des scripts SQL (regex) transformation des données non structurées
Développement d’un outil Python de requêtage REST-API afin de répliquer le modèle sur un environnement (avec une interface user-friendly et doc guide utilisateur)
Utilisation de l’outil Python pour le delivery (CI/CD)
Suivi du RUN (env prod), reporting en comité d’arbitrage
Identification des anomalies financières (montants de commissions versés erronés)
Coordination et pilotage d’équipe :
Assistance à la rédaction des besoins avec le métier
Liaison et retranscription des demandes entres l’équipe métier et les devs en Roumanie (équipe anglophone)
Suivi de l’avancé des devs (tableau Jira)
Accompagnement de la montée en compétences des nouveaux arrivants
Coordination des opérations avec les équipes ETL et Big Data
Réalisation des tests
Tests unitaires après chaque dev
Tests d’intégration et tests End-to-end avec des données fonctionnelles cohérentes
Définition de scénarios de tests
Projet Tarifaire: Calcul des indicateurs de ventes et d’achats (Optimisation du modèle, des performances et TMA)
Equipe : 8 personnes
Méthodologie Agile : sprint de 7j ouvrés, cross-testing entre devs 2j et delivery
Réalisations:
Implémentation de règles fonctionnelles
debug/TMA résolution d'anomalies
Développement des évolutions
Rédaction de guide utilisateur
Application des normes métiers
Développement de traitements via l’api de SPSS Modeler
Optimisation du modèle de prévision des coefficients d’élasticités
Analyse du comportement des clients en fonction des remises appliquées
Optimisation de l’algo afin de réduire les temps d’exécution (de 6h à 1h en s’inspirant de la distribution des worker node de Hadoop)
Amélioration des performances du modèle prédictif concernant les coefficients d’élasticités (R2) :
Régression linéaire
Régression quadratique
Réalisation des tests
Tests unitaires après chaque dev
Tests d’intégration et tests End-to-end avec des données fonctionnelles cohérentes
Définition de scénarios de tests
Méthode Agile : sprint de 7j ouvrés, cross-testing entre devs2j et delivery
Projet Universitaire: Webscrapping et analyse textuelle de de données
Equipe : 2 personnes
Réalisations:
Connexion via l’API de twitter
Analyse des tweets avec Spark Streaming
Data prep et Data transformation avant insertion en tables
Introduction aux plateformes Hadoop et Cloudera
Machine Learning : clustering, classification avec SAS et R
Reporting, visualisation des résultats avec Tableau, SPSS Objects
Projet Marketing: Préparation des conquêtes sur la nouvelle saison (Statistiques et reporting des données)
Equipe : 8 personnes
Réalisations:
Développement des scripts SAS, export des données clients
Analyse du marché des séniors
Analyse de la sectorisation nationale des clients à travers les agences
Projet: Collecte des objectifs des commerciaux, sectorisation et affectations des zones de prospections, calcul des primes et surprimes des collaborateurs
Equipe: 2 personnes
Méthodologie Agile : sprint de 7j ouvrés, cross-testing entre devs 2j et delivery
Réalisations :
Implémentation de règles fonctionnelles
Chiffrage et étude d’impact des demandes
debug/TMA résolution d'anomalies
Développement des évolutions
Développement d’IHM pour le reporting des données
Rédaction de guide utilisateur
Application des normes métiers
Gestion de la base de données
Intégration et production de flux de données
Création / modification de tables
Optimisation des performances du modèle :
Régénération des index
Revue et amélioration des scripts SQL
Réalisation des tests
Tests unitaires après chaque dev
Tests d’intégration avec des données fonctionnelles cohérentes
Définition de scénarios de tests
Développement d’un outil Python de requêtage REST-API pour simplifier le delivery (CI/CD)
Redaction d’un guide utilisateur pour l’équipe GPA chargée du delivery