En tant qu'ingénieur data, Devops et expert Python, j&rsquoai intégré l&rsquoéquipe AI Echelon au sein du pôle Data et Compliance, avec pour mission de contribuer au développement et l'integration d'un outil stratégique basé sur de l&rsquoIA de lutte contre le blanchiment d&rsquoargent (AML):
â Réaliser les pipelines d'integration des données et de transformation en utilisant airflow, Spark et minio s3 pour préparer l'entrainement des modèles
â Déployer les modèles entrainer dans les environnements supérieurs
â Configurer et s'assurer du bon fonctionnement des outils utilisés par l'équipe et le projet.
â Intégrer les pipelines CI/CD via Jenkins et AWX pour un projet d'envergure, en tenant compte de l'architecture multi-hub et des divers outils nécessaires, ce qui ajoute une complexité technique importante.
â Implémenter et promouvoir les bonnes pratiques de codage, telles que le respect des normes PEP8, l'écriture de tests unitaires et l'utilisation des merge requests sur GitLab, afin de garantir une cohérence et une qualité élevée du code au sein de l&rsquoéquipe.
â Réviser l'architecture existante et proposer des améliorations pour optimiser le code et renforcer l&rsquoefficacité de notre infrastructure.
â Optimiser l&rsquoutilisation des ressources sur OpenShift, en particulier en analysant et en ajustant la consommation des pods pour une meilleure gestion des ressources.
En tant qu'ingénieur DevOps et développeur Python, je fais partie de l'équipe cloud orchestration où en tant que fournisseur de services cloud privé SG, on est en charge de fournir
airflow as a service.
- Participer à la conception des solutions, en planifiant l'architecture et les workflows pour répondre
aux besoins spécifiques des clients.
- Appliquer rigoureusement les principes et pratiques DevOps, en intégrant la collaboration continue, l'automatisation des déploiements et la surveillance proactive.
- Adopter des stratégies cloud pour optimiser les performances, la scalabilité et la gestion des
ressources au sein de notre environnement de cloud privé.
- Implanter des pratiques d'Infrastructure as Code (IaC) en utilisant Terraform pour la gestion
déclarative de l'infrastructure et Ansible pour l'automatisation des configurations.
- En tant que développeur Python, j'ai contribué à la création d'outils et de scripts automatisés pour
la gestion des instances Apache Airflow, garantissant une implémentation efficace et
personnalisée.
- Adopter et mettre en &oeliguvre les pratiques GitFlow pour la gestion de versions, facilitant le
développement collaboratif, la fusion et la livraison continue dans l&rsquoobjectif de renforcer la stabilité
et la traçabilité tout au long du cycle de vie du développement.
- Partager la responsabilité du rôle de Scrum Master à tour de rôle, facilitant les cérémonies Scrum
et favorisant la communication au sein de l'équipe. Cela a contribué à maintenir une approche
agile dans la gestion de projets et à assurer une collaboration efficace.
Automatisation des process métier au sein des desk Equity Derivatives et prime Brokerage de la Société
Générale.
- Mise en service de l&rsquoapplication Camunda utilisée pour l&rsquoautomatisation des processus et
déploiement en conteneur sur un serveur.
- Amélioration de Camunda et déploiement en forme de Micro Service pour éviter les arrêts
complets de notre environnement.
- Implémentation de Jenkins pour assurer l&rsquointégration continue des nouvelles versions de processus
pushé sur Git.
- Utilisation de Puppet pour gérer la configuration de nos serveurs de test et de production.
- Mise en place d&rsquoapi-rest avec Flask permettant aux équipes de métiers de requêter certaines
données depuis nos serveurs et BD
- Identification et modélisation des processus métiers pouvant être automatisés au sein des équipes
de trading,
- Documentation, test et déploiement,
- Amélioration du fonctionnement, de la stabilité et du rendement de l&rsquoéquipe au travers de la mise
en place des outils suivants : Handsontable, Symphony Chatbot pour remplacer Bloomberg Chat et
l&rsquointégration d&rsquoElasticSearch et Kibana pour assurer le suivi des logs et des erreurs.
- Développement de scripts d&rsquoappels à des applications internes, Base de données et systèmes de
market making pour récupérer les données nécessaires et appeler d&rsquoautres api que ce soit pour
effectuer des contributions ou du Booking.