Poste : Expert en Intégration de Données et Reporting
Duck Creek Technologie | Depuis septembre 2021
Contexte : Expert en intégration de données chez Duck Creek Technologie, pilotant des initiatives clés pour améliorer fonctionnalité, qualité et efficacité des solutions logicielles d'assurance, contribuant significativement à l'innovation de l'entreprise.
Développement et Ingénierie des Données
• Conception et mise en œuvre d'architectures de données scalables, fiables et sécurisées.
• Expertise en modèles de données pour optimiser le stockage et l'accès aux données.
• Expertise avec Talend pour l'intégration de données complexes.
• Gestion efficace des sources de données hétérogènes.
• Analyse et optimisation des performances des systèmes de bases de données.
• Réalisation de tuning de base de données pour des requêtes haute performance.
• Conception de procédures stockées et fonctions Oracle.
• Optimisation des performances des bases de données.
• Compétence en Jasper et Business Objects pour la création de rapports.
• Développement de visualisations de données et dashboards interactifs.
• Utilisation de Business Objects et Power BI pour le reporting avancé et les insights d'affaires.
• Conception de tableaux de bord interactifs et d'analyses prédictives pour la prise de décision.
• Optimisation et développement avancé de procédures stockées en PL/SQL, améliorant significativement la performance des requêtes.
• Réalisation de tests unitaires et d'intégration.
Leadership Technique et Gestion de Projet
• Développement de stratégies data visant à maximiser la valeur des données.
• Pilotage de projets d'innovation data pour explorer de nouvelles solutions et technologies.
• Encadrement d'équipes de développeurs et d'analystes data.
• Formation continue des équipes sur les meilleures pratiques et les nouvelles technologies.
Support Technique et Maintenance
• Expertise dans le diagnostic et la résolution de problèmes data complexes.
• Gestion de crises et incidents critiques avec efficacité et leadership.
Maîtrise de l'Agilité et Collaboration
• Application avancée des principes et frameworks Agile pour une gestion de projet flexible.
• Facilitation des cérémonies Agile pour assurer l'alignement et l'efficacité de l'équipe.
Technologies Cloud et Pratiques CI/CD
• Maîtrise approfondie des services cloud Azure dans le domaine de Data.
• Intégration de tests de données dans les processus CI/CD pour assurer la qualité et l'intégrité des données.
Compétences Techniques Supplémentaires : Big Data et Analytics
• Expérience avec des technologies Big Data comme Hadoop, Spark pour le traitement de grands volumes de données.
• Compétences en analytics avancé et en intelligence artificielle pour extraire des insights précieux des données.
Outils et Technologies : PL/SQL, SQL, Talend, SAP BusinessObjects, Jasper, GitHub, GitLab, Jenkins, Azure
Poste : Ingénieur Principal en Optimisation de Données
Entreprise : Toyota Financial Services | Juin 2019 - Août 2021
Contexte : Pilotage d'initiatives d'intégration de données et de développement PL/SQL, utilisant PL/SQL, Talend, Oracle, et Apache Spark pour transformer les données complexes. Engagement en gestion Agile et innovation, optimisant les processus de données et renforçant les performances opérationnelles.
• Développement et Ingénierie des Données :
• Analyses approfondies des composants BI (Univers BO, jobs Talend, bases de données) pour évaluer leur impact sur la qualité des données.
• Conception de jobs ETL sur Talend 6.1.1 pour une intégration efficace des données de sources diverses.
• Analyse et optimisation du module risques en utilisant les données des applications clients (EKIP, Syndecision).
• Conception de jobs ETL sur Talend pour l'intégration de données multisources.
• Gestion d'Oracle PL/SQL 11g, développement de fonctions et procédures stockées.
• Gestion de Base de Données Oracle PL/SQL :
• Gestion d'une base de données Oracle PL/SQL 11g, développement de fonctions et procédures stockées.
• Supervision des traitements de données pour garantir leur fiabilité et intégrité.
• Business Intelligence et Reporting :
• Création de nouveaux rapports Business Objects et migration des rapports vers des versions récentes pour un reporting amélioré.
• Assurance Qualité et Support :
• Identification et correction efficace des anomalies, résolution de fiches de support pour maintenir la qualité des développements.
• Conformité Réglementaire :
• Actualisation des procédures pour refléter les évolutions réglementaires, assurant la conformité financière.
Outils et Technologies : PL/SQL, SQL, Talend, SAP BusinessObjects (Web Intelligence & Desktop Intelligence), Talend.
Lead Technique en Ingénierie de Données
Technip FMC | Février 2019 - Juillet 2019 :
Contexte : Rôle d'ingénieur en intégration de données chez Technip FMC, leader mondial de l'industrie de l'énergie, focalisé sur la refonte et l'amélioration du module "Sub-contracting" pour les équipes d'ingénierie et métiers.
• Refonte du Module "Sub-contracting" :
• Pilotage de la refonte architecturale et fonctionnelle du module, intégrant des solutions basées sur des frameworks avancés pour optimiser les flux de travail des équipes d'ingénierie et métiers.
• Développement de scripts SQL complexes et utilisation d'APIs pour l'automatisation de rapports, améliorant les analyses de performance du travail.
• Spécifications Fonctionnelles et Techniques :
• Conception des spécifications en utilisant UML (Unified Modeling Language) et outils de modélisation pour définir les exigences fonctionnelles et techniques, assurant l'alignement avec les objectifs du projet.
• Collaboration avec les stakeholders pour intégrer les systèmes ERP et CRM dans le module, via des interfaces RESTful et SOAP.
• Conception de Logigrammes :
• Utilisation d'outils de diagramme de flux comme Lucidchart pour cartographier les processus et faciliter l'interprétation des spécifications fonctionnelles.
• Documentation Technique :
• Production de documentation technique détaillée, incluant des spécifications d'API, des guides d'intégration, et des manuels d'utilisateur, en utilisant des outils comme Swagger pour documenter les endpoints API.
• Amélioration des Performances :
• Implémentation de techniques de caching et d'indexation pour optimiser les requêtes de base de données.
• Collaboration avec les Équipes Métiers :
• Organisation de sprints de co-développement avec les équipes métiers, utilisant JIRA pour le suivi des tâches et la gestion des backlogs, favorisant une collaboration agile.
• Méthodologie Agile :
• Adoption de pratiques DevOps pour le déploiement continu du module, en utilisant des pipelines CI/CD avec Jenkins et GitLab CI pour l'intégration et le déploiement automatisés.
Ingénieur en Intégration de Données et Développeur PL/SQL
FINANCO | Mai 2018 - Janvier 2019
Contexte : Occupation de la fonction d'ingénieur en intégration de données chez FINANCO, centrée sur le développement PL/SQL et l'intégration de données. Cette expérience a souligné l'expertise en intégration de données et développement PL/SQL, illustrant la capacité à réaliser des projets complexes et à élaborer des solutions techniques pour les défis du secteur financier.
• Documentation d'Architecture EKIP :
• Développement de Diagrammes UML : Création de diagrammes pour illustrer les relations et processus système.
• Clarification de l'Infrastructure : Documentation détaillée pour expliquer la structure et le fonctionnement d'EKIP.
• Étude de Faisabilité pour Migration :
• Analyse approfondie des capacités techniques requises pour la migration.
• Calcul détaillé des coûts impliqués et identification des risques potentiels.
• Analyse d'Impact :
• Emploi de logiciels avancés pour l'analyse d'impact opérationnel.
• Examen des effets de l'intégration sur les performances système.
• Rédaction de Spécifications :
• Détail des fonctionnalités et comportements attendus des modules.
• Description des exigences techniques, y compris API et protocoles de sécurité.
• Configuration et Mise en Œuvre dans EKIP :
• Utilisation de PowerShell pour automatiser la configuration.
• Mise en place de pipelines CI/CD pour des déploiements fluides.
• Support pendant la Phase de Recette :
• Gestion des tickets et suivi des bugs avec JIRA.
• Mise en œuvre de suites de tests pour valider la fonctionnalité et la performance.
Analyste Gestion des Anomalies & Développeur PL/SQL
PSA Banque | Octobre 2016 - Avril 2018
Contexte : Intervention sur des anomalies à travers l'Europe, développement de correctifs PL/SQL, et optimisation de systèmes, illustrant une synergie d'expertise technique et fonctionnelle pour l'amélioration des opérations de PSA Banque.
• Analyse et Assistance Multinationale :
• Analyse approfondie des anomalies pour les opérations en Europe : France, Royaume-Uni, Allemagne, Suisse, Autriche, Italie, Espagne, Pologne.
• Renforcement de la cohésion et de l'efficacité opérationnelle.
• Résolution et Arbitrage des Problèmes :
• Mises à jour de paramétrage et corrections de développement pour cas fonctionnels imprévus.
• Garantie de la continuité des services et satisfaction client.
• Développement de Scripts Correctifs :
• Création de scripts PL/SQL et correction de bugs Pro*C.
• Amélioration de la stabilité et performance des modules.
• Maintenance et Livraison de Correctifs :
• Maintenance proactive et livraison de correctifs pour modules en production.
• Assurance de la fiabilité et l'efficience des systèmes.
• Propositions Techniques et Fonctionnelles :
• Élaboration de solutions techniques et fonctionnelles.
• Rédaction de cahiers des charges et dossiers d'études techniques.
• Développement de Solutions Spécifiques :
• Conception de solutions répondant aux demandes clients.
• Paramétrage EKIP, développement PL/SQL et Pro*C.
Ingénieur en Intégration de Données et Développ...