Valaire - Business Analyst AGILE
Ref : 200111K001-
95100 ARGENTEUIL
-
Business Analyst, Data Analyst, Product Owner (32 ans)
-
Totalement mobile
-
En portage salarial
EXPERIENCES PROFESSIONNELLES
Oct. 2018 – Nov. 2019
CAPGEMINI
Client : EDF Commerce
Rôle : Concepteur – Business Analyst
Projet : VERONE - Gamme Conso
Contexte :
En étroite collaboration avec la division du Marketing, il est question de traiter la consommation énergétique
(Electricité, Gaz) et la souscription/désabonnement des clients EDF via la mise en place d’algorithmes tout en
appliquant la réglementation européenne GDPR.
Activité :
▪ Recueil, Analyse et conception des besoins métiers tout en tenant compte des futurs cas d’usage.
▪ Rédaction et validation des spécifications fonctionnelles répondant aux différents besoins.
▪ Pilotage, chiffrage et suivi d’activité à travers différents comités.
▪ Priorisation du besoin par valeur (MVP)
▪ Cadrage et mis en place des règles de gestions des parcours clients et données
▪ Mise en place des stratégies de recette fonctionnelle (plans de tests, scénarios, JDD, exécution)
▪ Formalisation des différents scénarii pour automatisation des tests avec Cucumber.
▪ Amélioration de la documentation générale et retro doc.
▪ Echange constant et description fonctionnelle aux équipes de développement.
Environnement technique :
▪ Framework/Serveur : Hadoop, Spark, Kafka, Oozie, Hive, HBase, Oracle, ODI, Elasticsearch, Web API
▪ Méthodologie & Modélisation : Agile, Kanban, Invest, UML, Confluence, JIRA
▪ Outils/IDE : yEd, Pack Office, SQL Developer, Confluence, JIRA, HP ALM, Kibana, Teams, Postman
Mars 2017 - Sept 2018
CAPGEMINI
Client : EDF Commerce
Rôle : Data Analyst (Analyste concepteur)
Projet : @CCOST (ACCélération de l’Outillage et de la Supervision Transverse)
Contexte :
Dans une équipe full agile, je travaillais en qualité d’appui métier sur le projet @CCOST qui s’axe sur la mise en
place des indicateurs, le traitement de données et la supervision de l’ensemble des applications du SI commerce
sous la responsabilité du domaine marché des clients particuliers EDF. Le contexte du projet est organisé au
tour de cinq activités :
▪ Concevoir la supervision des processus du SI MCP (définition des indicateurs)
▪ Implémenter les indicateurs dans les outils de supervision existants
▪ Collecter, traiter et centraliser les données dans un lac de données
▪ Piloter le projet
▪ Restituer les tableaux de bord des processus
Activité :
▪ Recueil et analyse des besoins
▪ Conception et Prototypage
▪ Implémentation et centralisation des indicateurs de supervision (sous l’ETL Suite Elasticsearch)
▪ Élaboration et réalisation des tests unitaires et des recettes fonctionnelles
▪ Maintenance corrective et évolutive du lac de données et des indicateurs.
Environnement technique :
▪ Framework/Serveur : Elasticsearch, Kibana, Logstash, FileBeat, MetricBeat, HeartBeat, Graph
▪ Langages : Script Shell, MySQL, Json
▪ Méthodologie & Modélisation : Agile scrum, Kanban, UML, Confluence, JIRA, Teams
▪ Outils/IDE : SublimeText, Visio, Pack Office, Linux, Dynatrace, Confluence, Postman, MobaXterm
Février 2016 - Mars 2017
CAPGEMINI
Client : EDF DPNT
Rôle : Consultant Java EE – Big Data
Projet : ORGE (Outil des Règles Générales d’Exploitation)
Contexte :
Lot 4 du projet QUADOR (Qualité des données de références), ORGE a pour but de cadrer la démarche d’analyse
d’exhaustivité du respect des référentiels de la Direction du Parc Nucléaire et Thermique (DPNT) EDF.
Activité :
▪ Rédaction des documents techniques de l’ensemble des composants de l’application et transfert de
compétences à la TMA.
▪ Développement et mise en place d’API et services REST backoffice en Java pour CRUD
▪ Développement d’un batch Spark de traitement des données Hive (EAM, ECM) de l’entrepôt
Hadoop vers Elasticsearch
▪ Montée de version Elasticsearch 2.3.3 vers la 5.4.3 avec mis à jour de l’application et des différents
modules.
▪ Utilisation de Kibana et Sense pour la visualisation des données Elasticsearch, Hue comme interface
de virtualisation des workflow Oozie. Postman pour interrogation des API et web services.
▪ Développement des évolutions et corrections d'anomalies
▪ Développement d’un POC basé sur Sqoop pour l'import et l'export de données de base relationnel
(PostgreSQL) vers Hadoop
▪ Réalisation des tests unitaires avec Junit, Mockito, ScalaTest.
▪ Compilation et correction de la qualité du code source avec Jenkins.
Environnement technique :
▪ Framework/Serveur : Elasticsearch, Spark, Hadoop, Oozie, Hive, Spring, PostgreSQL, Git, Maven
▪ Langages : Java EE, Java, Scala, MobaXterm, Postman, FileZilla client
▪ Méthodologie & Modélisation : Agile scrum, Kanban, UML
Février 2018 – Mars 2019
CAPGEMINI
Rôle : Career Manager
Activité :
▪ Suivi de carrière de plusieurs collaborateurs du groupe Capgemini
▪ Encadrement et coaching des dits collaborateurs
▪ Participation aux baromètres d’évaluation des collaborateurs pour promotion, formation et rotation
de projet
DOMAINES DE COMPETENCES
SAVOIR ETRE
Sens du relationnel, Capacité d’analyse, d’adaptation, Esprit d’équipe et de synthèse.
OUTILS
Lean Mangement, Méthode Agile, Kanban, Méthode Merise, Machine Learning
Git, Jenkins, Apache POI, JIRA, Confluence, SharePoint, Teams, Excel, Trello
Elasticsearch, Kibana, Logstash, FileBeat, MetricBeat, HeartBeat, X-Pack, QlikView
Hadoop, Apache Spark, Apache Oozie, Apache Zookeeper, Hue, Hive, HBase, Postman
Eclipse, SublimeText, Virtual Box, Hibernate, Spring MVC, Spring Data, Spring Security, JPA, JTA
PostgreSQL, MySQL, Oracle SQL 11g, Apache Hive, Apache HBase, Apache Sqoop, AWS
FORMATION INITIALE
Septembre 2016 :
Diplôme d’ingénieur options Programmation Java EE et Systèmes embarqués - Robotique -
Intelligence artificielle à l’Institut d’Ingénierie Informatique de Limoges (3iL).
Septembre 2013 :
Diplôme d’études universitaires générales options Mathématique et Informatique à la faculté des
sciences de l’université de Douala Cameroun.