POWERCENTER a été développé par la société INFORMATICA. Simple d'utilisation, POWERCENTER est un logiciel d’intégration de données pour la construction et la gestion de datamining et de datawarehouses. POWERCENTER permet également le développement de mapping pour transformer les données à partir de fichier ou de base de données et les stocker sur différents supports. POWERCENTER est un outil puissant qui assiste la partie développement mais demande une bonne connaissance du SQL.
Expérience professionnelle
11/2014 – 01/2015
Architecte –Référent technique SOLUTION INFORMATICA – LOREAL (BI-AGE)
Projet Marge Brute
Mission et projet
(Informatica Powercenter 9.6, SQL SERVER 2012, Powershell 2.0, Control-M)
Contexte Fonctionnel : Analyse budgétaire – évaluation de la marge brute pour un scénario budgétaire
Objectifs: En tant que Architecte solution
Architecture
• Réunions de kick-off, pilotage et co-pilotage en contexte international
• livrables en anglais
• gestion technique d’équipe
• mise à jour hebdomadaire des plannings
• Spécification des interfaces avec les divisions mondiales
• Dossier d’architecture technique
• Architecture physique (machines physiques, couches réseau et noeud utilisés) par environnements
• Architecture logique (noeuds réseau, instances d’application, bases de données et applicatifs déployés) par environnements
• Vision logique par couche logicielles et procédures technique d’installation pour SQL SERVER 2012 et INFORMATICA POWERCENTER 9.6
• Initialisation des Noeuds au niveau OS pour les prérequis d’installation (par exemple max files, max user processes, shmall, shmmax, shmmni dans les paramètres kernel ou bien réseau sur les systèmes unix-like)
• Installation SQL SERVER 2012 et d’INFORMATICA POWERCENTER 9.6 dans l’environnement de DEV / REC / HML / PROD
• Création des bases de données pour le domaine et repository services.
• Création du domaine
• Ajout de noeuds dans le domaine et initialisation de la HA
• Création de repository service et positionnement des noeuds du domaine (primary ou backup)
• Création des integration service correspondant et positionnement des noeuds du domaine (primary ou backup)
• design de l’architecture d’intégration
• Modélisation des étages techniques d’intégration sur Informatica PowerCenter
• Benchmark sur les types de données et optimisation volumes IO
• Plan d’orchestration control-M
Solution Informatica PowerCenter
• Production du modèle de données physiques,
• Database table inventory (EXCEL+ Macro), génération automatique de DDL
• Mapping inventory suivant le standard VELOCITY
• Planning des developpements (Work Breakdown Structure)
• Spécification détaillés des mappings Informatica suivant le standard VELOCITY
• Construction du Toolkit d’administration automatique de la BDD (structures physiques et logiques pour le partitionnement et le fenêtrage des tables de données, structures d’indexation alignés sur les partitions, procédures stoquées PRE et POST mapping)
• Création des tables de Staging et finales
• Configuration du modèle d’accès au données de references (replication au niveau base de données)
• Fabrication du dev-pack pour les dévéloppeurs
• Industrialisation de la fabrication et homologation de livrables et livraisons de production,
• Ecriture du document d’exploitation et accompagnement à la pré-exploitation
• Cloisonnement de l’application et allocation des quotas disques à mémoire
Administration du référentiel Informatica
• Installation, configuration et mise en place du service de gestion des données de référence
• Gestion des utilisateurs et droits des dossiers du référentiel (utilisation de LDAP)
• Vérification du quota disponible sur les partitions utilisées par le serveur PowerCenter en cache et lookup
• Création et gestion des groupes de déploiements.
• Récolte des données de performance
• Tunning des sessions et adaptation des paramètres de la DTM
• Exploitation de logs de workflows et sessions
10/2014 – 11/2014
Business Analyst BI – MEESCHAERT ASSET MANAGEMENT
Mission et projet Chez MEESCHAERT ASSET MANAGEMENT, ma mission est dans le design et la spécification du modèle étoile des datamarts associés au système décisionnel opérationnel (utilisé par les courtiers) et stratégique. Je travaille sur la mise en place de ce SID à partir de la suite BI PENTAHO en mode multi-tenant. Et participe
Design modèle étoile
- réunions de cadrage avec le métier
- définition du périmètre couvert par chaque datamart à partir des spécifications des états/rapports à produire
- construction des modèles relationnels et analytique (dépendant de l’états/rapports) dans pentaho
Implémentation du SID sur Pentaho 5.1
- l'alimentation du datawarehouse/datamarts (développement des flux / reprise sur erreur)
- modélisation des univers du schéma relationnel
- modélisation des univers du schéma multidimensionnel (cube) et adaptations pour une meilleure exploitation
- le reporting opérationnel (reporting relationnel / tableau de bord / analyses OLAP)
- le reporting stratégique (KPI, Dashboard avec visualisations).
- Formations sur l’utilisation et la prise en main par les développeurs / business-users
04/2013 – 10/2014
Architecte BI – PROCAPITAL (LINALIS S.A.S)
Mission et projet Chez PROCAPITAL, ma mission est dans le design et la mise en exploitation d’un système décisionnel multi-tenants (mutualisation de plateforme BI pour différents brokers). Sur la LABLAT (lutte anti blanchiment sous l’impulsion de l’AMF (l’autorité des marchés financiers) je travaille sur la mise en place de la suite BI PENTAHO en mode multi-tenant. Et participe
Design architecture multi-tenants
- au design de l’architecture répartie
- à l’industrialisation de la plateforme par intégration continue (JENKINS)
- Modélisation du datawarehouse et des datamarts
- réunions de co-pilotage /cadrage avec le client
- livrables aux diverses phases d’évolution du projet.
- Gestion des livrables et de l’initialisation rapide en mode reset. Pentaho 4.8 et 5.1
- l'alimentation du datawarehouse/datamarts (développement des flux / reprise sur erreur)
- modélisation des univers du schéma relationnel
- modélisation des univers du schéma multidimensionnel (cube) et adaptations pour une meilleure exploitation
- le reporting opérationnel (reporting relationnel / tableau de bord / analyses OLAP)
- le reporting stratégique (KPI, Dashboard avec visualisations).
- Formations sur l’utilisation et la prise en main par les développeurs / business-users Oracle 11g Replication
- Creation DDL et structures Database
- Structure de réplication pour les datamarts
06/2012 – 03/2013
Architecte Intégration des données – KARAVEL SAS Paris-France
Projets de Migration
Talend TIS3.2.3 à TIS 4.2.3 et intégration de données
Contexte Fonctionnel: Fusion acquisition (après le rachat d’AB CROISIERE et successivement UN MONDE A DEUX), Commissionnement et dé-commissionnement applicatif.
Objectifs: Dimensionnement, Pilotage de migration, Cadrage en phase de spécifications techniques et Design de l'architecture applicative. Migration de l’infrastructure de développement / production Problématiques d’intégration de SI hétérogènes, synchronisation d’entrepôts de données à la migration de données.
Qualité de donnée et MDM
• Synchronisation des inscriptions Newsletter partenaires
• Reprise du référentiel client
• Génération en batch de tokens RSA
• Production d’indicateurs de qualité de données
Rapports et Echanges B2B
• Exports vers marketing, litiges et partenaires
• TICO : Soumission des transactions bancaires
• Flux des Devis/commandes clients
• Gestion des informations de voyage Talend TIS 4.2.3, SQL SERVER 2008, SOQL
Synchronisation et migration de données
• Synchronisation du catalogue produit vers SalesForce (SFDC)
• Gestion des avis clients
• Synchronisation du référentiel ********
• Synchronisation du système de réservation ATLAS
• Migration de fichiers medias AB CROISIERE
11/2009 – 04/2012
Consultant Décisionnel Informatica – BANCO DI SICILIA – Milan-Italie
Projet DATAW
(Informatica
PowerCenter 8.6.2, IDQ 8.6.2, IDE 8.6.2, Putty, Shell, Unix AIX, Oracle 10g Toad pour Oracle)
Contexte Fonctionnel : Ajout d’un datamart et qualification de l’exploitation
Technique : Informatica PowerCenter, IDQ, IDE, Putty, Shell, Unix AIX, Oracle 10g Toad pour Oracle
Responsable de la Qualité de données :
• Apporter une expertise qualité au niveau des chargements.
• Permettre d’anticiper les rejets lors de l’alimentation et d’éviter le recyclage des rejets
• Evolution pour l’intégration des plans qualité dans les mappings Informatica PowerCenter
• Cartographie des flux et délimitation des paramètres d’évolutions
• Création des tables de dimensions et tables de faits (SCD model)
• Fabrication et homologation de livrables en livraison de production,
• Ecriture du document d’exploitation et accompagnement à la pré-exploitation
• Cloisonnement de l’application et allocation des quotas disques à mémoire Administration du référentiel Informatica
• Installation, configuration et mise en place des environnements de réconciliation des données de référence
• Gestion des utilisateurs et droits des dossiers du référentiel
• Vérification du quota disponible sur les partitions utilisées par le serveur PowerCenter en cache et lookup
• Exploitation de logs de workflows et sessions
• Diagnostic des erreurs et affinage de la stratégie de gestion des erreurs en s’appuyant sur VELOCITY.
• Stratégie de recouvrement des sessions (reprise à froid et reprise à chaud, checkpoints) Microstrategy
• Création dans l’architecture Microstrategy des dimensions et faits dans le modèle en étoile.
• Création de quelques rapports pour valider le datamart
03/2009 – 10/2009
Consultant MOE Décisionnel – EDF
Projet SDIN : SI du Nucléaire
(Informatica PowerCenter 8.6.2, IDQ 8.6.2, IDE 8.6.2, Putty, Shell, Unix AIX, Oracle 10g Toad pour Oracle, Sybase ASE, SQL Server)
Contexte Fonctionnel : Migration des données de l’ancien SI vers le nouveau
Objectifs: En temps que consultant BI CAPGEMINI
Technique : Informatica PowerCenter, IDQ, IDE, Putty, Shell, Unix AIX, Oracle 10g Toad pour
Oracle, Sybase ASE, SQL Server
Qualité de données (Informatica Data Quality et Informatica Data Explorer)
• Utiliser la qualité de données pour sélectionner les meilleures sources et délimiter le périmètre à migrer.
• Collecter e...