Oracle GoldenGate est un ensemble d’outils d’intégration de données en temps réel.
Mission :Gestion des flux de données informatica de bout en bout , depuis l’intégration des fichiers ,en passant
par la qualité de données et en atterissant dans plusieurs datamart en passant par le DWH.
Développement des flux .
Test unitaire et recette tech,ico-fonctionnelle .
Suivi de production(monitoring) tous les jour , déblocage de la chaine en cas d’erreurs .
Livraison entre les différents environnement (dev,tst,uat,pprod et prod) .
Automatisation des déploiements informatica/sql via devops .
Migration de Business object XI 3.1 (SP6) vers BI 4.1
Création de nouvels univers.
Création de rapport business object.
Recette unitaire et recette métier
Mission : Orchestration des données au sein du SI HIP d’Eurovia et développement de process, taskflow
Création de la Publication des données dans les bases HIP par plusieurs applications :
• KHEOPS, EHR, S4, SAP, HANA, ARIBA, IAM, SALESFORCES, CPQ) via le Cloud intégration • Hub.
• Création de la souscription à la donnée via nos API exposé aux différentes applications qui veulent
consommer des données via le Cloud intégration Hub.
• Développement de processus via le module application intégration pour le streaming (temps réel) et via data
intégration pour le mode batch, pour intégrer, dispatcher, et trans-codifier les différentes données qui
transitent par HIP.
• Création de topic/publication/souscription pour les différentes applications sources et cibles afin de créer les
services utilisés dans Application intégration(process).
Création de mapping, mapping task et taskflow pour extraire les données demandées par les différents
acteurs d’applications en suivant des spécifications détaillées par besoin.
• Livraison dans les différents environnements
• Monitoring de différentes chaînes (chargements de données...)
Mission : Gestion et création des repository, Intégration Service, Gestion de domaine, bascule de Nœuds,
recyclage, gestion des temp et backup. • Création des users, rôles et droits.
• Création des connexions (Odbc, Relationnel, Applicatif, WS).
• Analyse des performances des différents serveurs des différents environnements. Déblocage des
développeurs sur des réalisations complexes sur les différentes parties, du landing/staging jusqu’à la
publication.
• Création et maintien de la base Data hub et data registry.
• Création, configuration et administration des dataservices via informatica cloud (Connexions
• /Mapping de plusieurs API interne et Salesforce CRM). Configuration des webservices en temps réel sur
informatica cloud. Monitoring quotidiens et support aux différents acteurs.
Mission : Au sein d'un centre de service, Gérer une équipe Atos située à bordeaux sur des problématiques
d’alimentations (concernant, le socle PN, le Traffic, la météo, cargo, la Sécurité des vols, AGS), d’intégrations ou
de restitutions.
• Développement d’interface informatica ainsi que les Bteq teradata pour transformer les données.
• Développement de Workflow avec des connexions En TPT et fastload.
• Prise en compte du besoin des AMO, échange pour compréhension et validation, organisation des points
hebdomadaires.
• Développement de différents univers (météo, traffic, socle PN)
• Réalisation du reporting sur les différents univers • Optimisation de temps de réponse des rapports BI 4.
• Création des Business Glossary,Category, Business term lié à un datasteward afin de cartographier la
données au sein du group
• Utilisation des technologies Docker et Kubernetes pour la gestion des conteneurs (clusters) des serveurs Air
France.
• Recette et livraison du reporting.
• Optimisation des flux existants.
• Analyse et compréhension du besoin métier
• Analyse et correction des anomalies via JIRA
• Tests technico/fonctionnel
Mission : Alimentation de la base référentiel Client (PP, EJ) via la base object MDM
• Développements des batchs group MDM pour alimenter la base object Client.
• Création des objets, schéma MDM dans le hub.
• Création des Règles de match and merge pour traiter les objets MDM via le hub.
• Gestion des Règles de match and merge automatique pour traiter les objets MDM via le hub.
• Génération de la couche BES via l’IDD config.
• Création de la vue 360.
• Création des objets clients, emails, adresses via la BES.
• Développements des fonctions cleanse.
• Développement des règles de gestions IDQ (Mapplet) pour la partie Batch et Webservices.
Développements des Mapplet IDQ en Webservices.
• Utilisation des standard IDQ (mapplet content téléphone, email, etc).
• Test sur SOAP UI, limitations moins d’une seconde pour 29 règles de gestion.
• Génération et validation de la couche BES MDM.
• Exposition du Webservices MDM en BES (via l’IDD).
• Création de requête de création ainsi que le recherche et la mise à jour de l’entité person, mail, téléphone,
moyens de contacts en entrée du Webservices MDM à partir de la base Hub du MDM.
• Synchronisation de plusieurs dataservices data venant des différents systèmes de gestion de crédit
automobile.
• Création des fonctions Cleaneses Côté MDM pour tester le parallélisme des Règles IDQ.
• Test de temps de réponse de toutes la chaine (consommateurs, ESB, serveurs IDQ(Tomcat), serveur MDM,
serveur Oracle, et le retour), ce dernier doit être inférieur à 1 seconde.
Assurer le fonctionnement des flux SSIS, Infomatica existants ainsi que les développements des
nouveaux Flux.
• Développement des flux.
• Monitoring
• Support L3.
• Rédaction de documentations.
Projet : ByPASS
• Formation sur Oracle Golden Gate.
• Refonte de la partie source des différentes extraction Diapason (fichiers) Informatica en les remplaçant par
une base de réplication en temps réel.
• Estimation des espaces disques/ file system sur le serveur de transit ainsi que l’Installation d’Oracle 11G et
d’oracle OGG.
• Extraction en temps réel des données issues de SAP via Oracle Golden Gate.
• Développement des interfaces d’extraction et de replicat entre SAP et notre base replicat.
• Développement d’interface Informatica ainsi que les Bteq Teradata.
• Formation sur OGG aux autres membres de l’équipe.
Rédaction des différentes documentations (rédaction des SFG et SFD, chiffrage)
• Développements des interfaces (mapping + Workflow) INFORMATICA liés aux différents besoins •
Développements des différents rapport BI 4 ainsi qu’ajustement ou création des nouveaux univers BO.
• Réalisation d’un univers et rapports BI 4 dédiés aux suivis de monitoring Informatica (base metadata
d’Informatica comme source de données, ainsi que la base batchs)
• Nettoyage des données (IDQ).
• Dédoublonnage et consolidation de données sources avant leur entrée dans le cycle (IDQ).
• Développement de profile et conditions sur des colonnes précises de notre DWH via Informatica développer
et Analyste.
• Data Profiling and creation de rules.
• Garantir une qualité cohérente tout au long du cycle de vie des données via Informatica développer et
Analyste.
• Livraison des Flux de données dans les différents environnements de Développement, Recette, Intégration,
et Production
• Suivi et support aux recettes utilisateurs.
• Suivi de Production.
• Recette Fonctionnelle Unitaire à valider avec les MOA demandeur.
• Tests/ intégration des Mapping ainsi que les workflows, rédaction des cahiers de tests.
• Réalisation de la Recette d’intégration Technique et Globale ainsi que la rédaction des DLI.
• Migration Informatica 9.1/Unix vers Informatica 9.5 linux.
Assistance et accompagnement Utilisateurs/MOA, Support technique MOE, participation réunion
(MOA/MOE)
• Suivi et résolution des incidents et des évolutions liées aux différents Domaine via JIRA.
• Suivi et résolution des Anomalies de Production.
• Participation aux différentes réunions avec les différents acteurs (MOA, MVS)
Réalisation de Flux de données ainsi que le reporting du projet SIRH à l'aide de l'ETL Informatica v9 et l'outil
de restitution microstrategy
Consultant Décisionnel Senior / Expert Informatica Page 6 sur 8
• Modélisation du datawarehouse et du datamart (en flocon) du bilan social et gestion des ressources
humaines à l'aide de power AMC DESIGNER
• Création de mapping informatica quotidien ainsi que les traitements initialisation pour les sujets suivants :
o Suivi de recrutement (suivi-candidats, suivi-annonces, suivi-postes)
o Suivi d'entrée et Sortie des salariés
o Suivi des fonctions o Suivi des Rôles o Création de vues matérialisée (VM) pour la couche sémantique
Microstrategy. o Création de connexion Vers la base RH. o Création des différents éléments pour les
différents Dataset RH ⪠Tables.
⪠Attribut (les axes d'analyses).
⪠Mesure (fait).
⪠Hiérarchie : Dans le cas des UA de la SMA et leurs différents niveaux. ⪠Invites : cet objet permet
de diriger les sélections des utilisateurs.
⪠Création de Transformation dans le cas d’une comparaison de données de suivi candidat pour la
même période de l’année précédente.
⪠Rapport : Suivi de recrutements (Dataset) sous le Desktop.
⪠Développement des visualisations pour générer graphiques et cartes à partir des informations
récoltés (EXCEL, base relationnelle, etc) MicroStrategy Analytics Desktop.
⪠L'exécution des analyses, qui pourrait supporter des volumes importants (de millions de lignes de
données), est optimisée par des capacités d'exécution en mémoire.
⪠Dashboard : Développement qui s’appuie sur le Dataset déjà fait Sous Microstrategy web afin de
faire des présentations graphiques à la demande du client (Camembert, histogramme, etc ) +
Grilles(dataset).
• Réalisation de la Recette Fonctionnelle Unitaire avec la MOA RH.
• Rédaction de Dossier de livraison en Intégration et puis en Production
La Refonte de l’application Web Actuate-Compas sous Business Object ainsi que les flux Informatica
qui alimente les tables du datamart.
• Extraction de règles de gestion ainsi que les requêtes dans les rapports existent sous Actuate.
• Réalisation des spécifications Techniques et Fonctionnelles.
• Développement d’univers et de 24 rapports sous Webi du suivi Commercial du réseau Cardif.
• Réalisation de recette en comparant les données d’ACTUATE et De Business Object.
• Assister le métier pour la recette de l’ergonomie des rapports BO.
• Assister aux Co projets avec les autres équipes et Monter des points de suivi avec le métier.
• Réalisation des liens Open documents BO dans le portail Yaka/Tosca, ces derniers ont servi à appeler nos
rapports BO.
• Développement de WSDL ainsi que les spécifications pour la refonte de cinq web services.
• Gestion de Droit des utilisateurs avec l’équipe Sesame.
• Gestion des évolutions de mapping/session/workflows (remplacement Source Fichier plat par WSDL)