Projet : Performance - SPIRIT Program.
Mission : Faire un Stress test sur une nouvelle solution ERP avec les responsabilités suivantes :
Pilote de Stress test
Etude de l’architecture ERP mise en place à partir des différents DAT (Documents d’architecture technique),
Réunions régulières de pilotage avec les différents PM (Projet Managers) des environnements en relation avec l’ERP,
Définition et rédaction de la stratégie de test, présentation, et validation,
Etude comparative des environnements et concertation pour le choix de l’environnement le plus adéquat pour faire les tests,
Définition des besoins en plateforme et outils de simulation,
Définition du plan de test (en anglais), avec recueil de toutes les informations nécessaires pour exécuter la campagne de test (Objectifs, Exigences, Périmètre, Planning, Architecture, Scénarii, Modèle de charge, Type de tests, KPIs ou Indicateurs de performance, Livrables),
Codage des scripts de test avec HP LOADRUNNER et les APIs : SAPGUI, HTTP, RTE, Oracle.
Définition des KPIs et validation pour le monitoring : PERFMON, NMON, JMX, SAP, AWR.
Exécution des expériences de test en charge, stress test, robustesse, endurance.
Analyse des résultats, et préconisations,
Gestion du planning et suivi de l’avancement, et gestion de diverses demandes de travaux (Diane).
Réunions régulières, et animation avec des comptes rendus.
Rapport de campagne et rapports divers au fil de l’eau en anglais.
Pilote de test, Expert en test de performance, coordinateur d’audit, Automatisation UFT »
Mission : Validation technique des performances de plusieurs projets avant mise en production avec les responsabilités suivantes :
Pilotage d’équipe
Réception des demandes de campagne de test de performance via l’outil « Delphe »,
Etude des demandes, premier contact avec le demandeur, réunion d’information,
Affectation de la demande à la ressource disponible selon le planning, suivi hebdomadaire et report de l’avancement des campagnes,
Suivi de l’état de la plateforme de test (HP Performance Center, Administration),
Gestion du planning des campagnes,
Réunions régulières.
Pilotage et exécution de campagnes de test
Analyse des besoins et de la stratégie de test,
Analyse des documents d’architecture technique et fonctionnelle,
Analyse des risques liés à la performance,
Estimation de la charge nécessaire pour la campagne de test,
Identification des indicateurs de performance techniques et applicatifs les plus pertinents dans l’objectif d’évaluer l’application testée,
Rédaction du plan de test, qui doit répondre de façon globale aux exigences du demandeur et aux risques, et qui expose la plateforme utilisée, la méthode abordée, les outils utilisés, les cas d’usages simulés, les conditions particulières, les expériences lancées, et les livrables prévus,
Préparation de l’environnement de test, en installant les outils de test nécessaires, demandes d’ouverture de flux, instrumentation des outils de monitoring,
Codage des scripts de tests avec plusieurs sortes de protocoles et qui vont simuler les cas d’usages réels des utilisateurs finaux en production,
Codage de scripts de monitoring (RTE, Shell Unix) selon les indicateurs de performance,
Lancement des expériences de test, avec analyse détaillée des résultats obtenus,
Analyse des temps de réponse et audit des performances applicatives, des ressources machines,
Identification de Bugs, anomalies, et goulets d’étranglement, Optimisations, Tuning, recherche de solutions pour améliorer le comportement du système testé,
Détection des requêtes lentes sur les bases de données en analysant les rapports de statistiques Oracle (Statspack, Awr, Dynatrace), analyse de ces requêtes (Plan d’exécution), et préconisations,
Analyse de comportement des JVMs (Dynatrace, Introscope, Threaddump, Heapdump),
Reporting des résultats pour chaque expérience acquise avec des représentations graphiques, présentation orale avec exposition des résultats,
Rédaction du rapport en fin de campagne, recommandations, et participation à la décision du GO ou NOGO.
Coordonner les demandes d’audit entre le métier et le support. Réception et analyse de chaque demande, aiguillage des demandes entre les services, animation de réunions, suivi, analyse et validation des rapports sortants,
Automatisation de test lors des périodes creuses, sur plusieurs applications web, Activex, citrix, et webservices via l’outil UFT de HP.
Projets Performance : ETOIL V2, ALIS V1, SUN CONTINUITY, AURORA, OPALE, EAAS ST, MODERNISATION INTERPRETEURS, KAPLAN, SRS MAGRITTE, IBISA, FLEXIMMO, GLOBAL VISION, PRIME, VINCI AE, CREST, OPALE, MATISSE GESTION, SECURISATION CRP, PALM, WEBSSO, DIGITALISATION, BPM LEASING SOLUTION, UNIK, USER EXPERIENCE RH, OPTIMA, PROJECTIONS, EURO CROISSANCE, ESPACE ADE, PORTAIL CARDIF, OBSOLESCENCE AAS01, OPTICA, DIPLOMATICO SUGAR, PRD-iDR (Http + Citrix), NEXTPREV, PEARL France, MAGNUM.
Mission : Validation technique de plusieurs versions d’un projet avant mise en production avec les responsabilités suivantes :
Pilotage et exécution de campagnes de test
Gestion autonome de campagnes de test de performance,
Chiffrage et devis, élaboration de planning, affectation des ressources,
Rédaction du plan de test, et préparation des pré-requis des campagnes,
Codage des scripts de test de performance, et lancement des expériences,
Monitoring des machines avec interprétation graphique des résultats,
Administration des environnements de test, Démarrage/Arrêt des applications, Redimensionnement de files systèmes, d’objets Oracle, Analyse AWR, Manipulation des jeux de données de test,
Analyse et report graphique des temps de réponse applicatifs et des performances mesurés,
Détection de bugs, anomalies, et goulets d’étranglement, avec des préconisations,
Tuning de serveurs web, de serveurs d’application, et des bases de données,
Animation de réunions, avec présentation orale des expériences acquises et des résultats obtenus,
Rédaction du rapport en fin de campagne et recommandations.
Projets : SGE, VEOL, PERFORM, CONCERTO Documentum, CONCERTO Alfresco, GED Clients, CLOE, GMAO, INTERESSEMENT, MAIL DP&P, Caraïbe ATLAS & PACIFIC, THERESA, WEB RADIO, VDOC For Java, PROFIL.
Mission : Validation technique de plusieurs projets avant mise en production avce les responsabilités suivantes :
Analyse des besoins clients à partir des dossiers d’architecture technique (DAT) et fonctionnelle (DAF), et rédaction de cahiers de charge en concertation avec l’équipe MOA/MOE,
Chiffrage, estimation détaillée des charges (JH), établissement et négociation de devis, Recensement des profils nécessaires,
Pilotage et exécution de campagnes de test
Préparation des campagnes de test,
Pilotage de la procédure de montage de la plateforme de test : Choix de l’environnement, Formalités d’accès, Préparation des environnements, installation des applications, configuration, …
Etablissement du modèle d’usage à partir de données marketing,
Sélection de workflow les plus pertinents pour les tests,
Etude de faisabilité des tests, et choix de solutions,
Check-list des pré requis nécessaire,
Conduite des réunions d’informations et de suivi,
Gestion et suivi des plannings : planification des taches, affectation des ressources,
Rédaction de plan de test,
Codage des scripts de test avec capacité de coder sur plusieurs protocoles (Http/Soap, Wap, Radius, Socket TCP et UDP, SIP),
Initialisation des jeux de données par codage de scripts Shell Unix, SQL, et PL/SQL, et chargement ou extraction à partir des bases de données,
Codage de scripts de monitoring (RTE, Shell Unix) à partir des indicateurs de performance sélectionnés, avec interprétation graphique des résultats,
Exécution des expériences de tests, et analyse des résultats en collaboration avec les différents acteurs participants au projet concerné, notamment les experts, déclenchement de réunions,
Suivi, analyse et report des performances applicatives (débit atteint, Temps de réponse, Erreurs), des performances des serveurs d’applications (JVM, Pool de Threads, Fils d’attentes, logs) et des performances machines (CPU, Mémoire, Runqueue, Activité sur les disques, Process consommateurs, Bande passante et latence réseau),
Rédaction au fil de l’eau des comptes rendus après chaque expérience menée de test avec présentation des résultats et de la valeur ajoutée de la campagne de test,
Administration des environnements testés, Démarrage/Arrêt des applications,
Sniffe réseau (Tcpdump, Tchark, Ethereal, Wirechark) avec analyse des trames capturées, comptage de paquets perdus entre les différentes machines dans les cas où il y aurait des disfonctionnements inexpliqués dans les flux applicatifs échangés.
Administration des bases de données dans l’environnement de test (Oracle, Mysql),
Tuning des systèmes Unix, des serveurs d’application et des bases de données,
Modélisation et prédiction des performances,
Rédaction de rapports en fin de campagne, et recommandations.
Projets : RPVI (Gestion des équipements), FLEXIPAR, CONTENT BILLING Package et OFR (Facturation mobile), TAGX V0H, NEWCONSO MAGNITUDE (Finance), Prepaid&Content Billing (Facturation de contenus sur les mobiles), Content Billing Mobistar versions R8, R9, R10, et R11, R12, R13 (Opérateur belge), Novah G2R0 (Gestion d’utilisateurs), Vimédia Béta G1R0, Katoa G1R5 (Espace de communication), T3G+ Croissance (plateforme IMS VOIP), Stop Secret G2R0 (Service VOIP pour les numéros masqués), OneEshop (Boutique Orange mobile sur le web),
Mission : Validation technique de plusieurs versions d’un projet avant mise en production avec les responsabilités suivantes :
Exécution de campagnes de test
Préparation des environnements de test, installation des outils de test,
Codage de scripts de tests,
Tests de confiance,
Exécution des expériences des test,
Monitoring des machines avec interprétation graphique des résultats,
Analyse des temps de réponse applicatifs et du comportement transactionnel, Tuning,
Identification et suivi de bugs détectés, notification des anomalies,
Rédaction de rapport de métrologie en fin de campagne et recommandations.
Projets : ING FUND SHOP.
Projet : Plusieurs campagnes de test de performance.
Mission : Apport d’expertise, avec les responsabilités suivantes :
Expert de Performance
Définition et rédaction de la stratégie de test pour les campagnes de performance,
Exécution complète et autonome de campagnes même complexes,
Cadrage de prestation de test, avec recueil de toutes les informations nécessaires pour exécuter la campagne de test (Objectifs, Exigences, Périmètre, Planning, Architecture, Scénarii, Modèle de charge, Type de tests requis, Définitions des KPIs ou Indicateurs de performance, Livrables),
Codage des scripts de test avec les APIs : SAPGUI, Citrix, HTTP/AJAX/TruClient/TruWeb,
Exécution des expériences de test en charge, stress test, robustesse, endurance, et recherche des limites,
Monitoring, Analyse détaillée des lenteurs via Dynatrace Purepaths, et Oracle Awr, préconisations, et propositions de Tuning,
Comptes rendus réguliers aux parties prenantes,
Bilans de campagne avec présentations PPT,
Veille Technologique, apport de nouvelles solutions,
Mise en place du système de gestion de données VTS (Virtual Table Server) pour les données complexes, consommables et en workflow,
Mise en place de système d’injection de flux Citrix, SAPGUI, et TruClient en mode Multi-Terminal services afin d’éviter la saturation trompeuse des injecteurs,
Etude, configuration, et Intégration de solution de test sur DevOps Jenkins avec Perfcenter 12.63 pour le besoin des développeurs et testeurs DevOps.
Projets : OPUS
Mission : Validation technique de plusieurs versions d’un projet avant mise en production avec les responsabilités suivantes :
Exécution de campagnes de test
Analyse des cahiers de charge,
Constitution et rédaction du dossier de spécifications de métrologie,
Installation et configuration des outils de test,
Codage des scripts de tests avec le protocole SAP,
Monitoring des machines impactées par les tests menés,
Analyse des performances de l’application, les temps de réponse, les transactions, les erreurs.
Interprétation graphique des résultats,
Détection de bugs, anomalies, et goulets d’étranglement,
Campagne de Tuning,
Reporting au fil de l’eau des résultats obtenus après chaque expérience,
Rédaction du rapport en fin de campagne et recommandations.
Rôle principal : assurer l’intégration des applications en provenance du développement, qualification technique et fonctionnelle, puis livraison à la production, Support N3 » avec les responsabilités suivantes :
Intégration technique
Analyse des cahiers de charge,
Réception des livraisons d’applications à qualifier, à partir de site distant,
Installation des livraisons sur l’environnement de test, côté application et côté base de données,
Qualification technique et fonctionnelle des applications intégrées,
Report et suivi des anomalies,
réponse applicatifs
Support Niveau 3 pour la production
Reproduction des incidents récurrents survenus en production, et recherche de solutions,
Support technique pour les équipes projets et qualifications fonctionnelles,
Résolution de plusieurs bugs applicatifs,
Optimisation de requêtes Oracle lourdes causants des latences importantes au niveau des transactions IHM, apport de corrections, et préconisations,
Administration des bases de données Oracle sur l’environnement de test (Sauvegarde, Restauration, Gestion des droits, Redimensionnement des objets, Clonage de bases, Audit),
Développement de scripts d’administration et de mise à jour des bases de données,
Rédaction de documents techniques de spécifications et de manuels d’exploitations,