*Contexte
Dans une équipe de plus de 10 architectes AWS, mon rôle était de diriger la conception, l&rsquoimplémentation et le déploiement d'infrastructure cloud pour plusieurs projets stratégiques.
*Actions
- Conception d&rsquoinfrastructures AWS résilientes alignées sur les objectifs métiers pour faciliter la transition vers le cloud.
- Développement d&rsquoarchitectures AWS hautement évolutives(scalable), intégrant les meilleures pratiques, l&rsquoanalyse des besoins métier, la rédaction de HLD/LLD, l'estimation FinOps, ainsi que la définition des normes de sécurité et de conformité.
- Migration d&rsquoapplications et de bases de données on-premise vers AWS, y compris la migration de bases de données Oracle avec des services spécialisés tels qu'Oracle GoldenGate, GoldenGate for Big Data (GGFBD) et Database Migration Service (DMS).
- Contact privilégié des éditeurs AWS, Oracle, Snowflake...
- Déploiement de contrôleurs de domaine Active Directory (LDAP/AD) sur AWS, permettant une authentification sécurisée des applications cloud et des utilisateurs à l&rsquoéchelle mondiale, réduisant ainsi la latence et la dépendance aux connexions Direct Connect.
- Mise en place de solutions data cloud-natives sur AWS pour améliorer l&rsquoaccessibilité des données et l&rsquoanalyse en temps réel.
- Déploiement de Landing Zones AWS pour garantir un environnement sécurisé et bien géré, conforme aux politiques de l&rsquoentreprise et aux exigences réglementaires.
- Accompagnement des métiers dans le projet move2cloud
- Animation d&rsquoateliers et sessions de travail avec les parties prenantes pour comprendre les besoins métier, résoudre les problématiques et favoriser la collaboration.
- Automatisation des déploiements et des opérations avec Terraform et Ansible, en collaboration avec les équipes DevOps pour assurer l&rsquointégration et le déploiement continus (CI/CD, Jenkins).
- Gestion du code source et des pipelines CI/CD avec GitLab et GitHub pour une collaboration efficace entre les équipes de développement et d&rsquoexploitation.
- Mise en place et configuration de systèmes de monitoring et d&rsquoalerting avec PagerDuty, permettant une détection et une réponse rapides aux incidents et problèmes de performance.
- Surveillance proactive des ressources AWS avec Dynatrace et AWS CloudWatch, assurant une visibilité complète et une gestion optimisée des environnements cloud.
- Gestion et déploiement d&rsquoapplications conteneurisées avec Amazon Elastic Kubernetes Service (EKS) dans un environnement Kubernetes hautement disponible et évolutif.
- Gestion des Amazon Machine Images (AMI) via AMI Factory, standardisant la création et la distribution d&rsquoimages système utilisées pour le déploiement d&rsquoinstances EC2.
- Définition et mise en oeuvre de normes de sécurité rigoureuses, incluant IAM, Web Application Firewall (WAF), AWS Shield, et chiffrement des données avec AWS Key Management Service (KMS).
- Gestion centralisée des secrets et accès AWS avec HashiCorp Vault, en intégration avec Active Directory (AD) pour renforcer la sécurité et la conformité.
- Implémentation et gestion d&rsquoun Data Lake sur AWS avec Amazon S3 et Amazon Redshift pour le stockage et l&rsquoanalyse de données à grande échelle.
- Intégration du Data Lake avec Snowflake pour l&rsquoanalyse avancée et l&rsquoexécution de requêtes complexes sur de grands ensembles de données.
- Conception de pipelines de données de bout en bout pour l&rsquoingestion, le traitement et la visualisation des données, en utilisant Amazon Kinesis, AWS Glue et AWS Data Pipeline.
- Déploiement d&rsquoalgorithmes de Machine Learning avec SageMaker, permettant d&rsquoaméliorer l&rsquoanalyse des données et de soutenir l&rsquoanalytique avancée.
- Rédaction de la documentation projet sur Confluence
- Conception et déploiement de l&rsquoinfrastructure AWS pour Prometheus (AWS AMP, Lambda, rôles IAM, utilisateurs IAM...) permettant l&rsquoajout, la suppression et la mise à niveau des restaurants concernés par la solution Prometheus.
- Suivi du déploiement progressif des métriques au niveau des restaurants (ajout progressif des établissements à la supervision par Prometheus).
- Création de tableaux de bord Grafana pour la supervision des métriques, le suivi des déploiements et la détection des équipements ne remontant plus de données.
- Récupération des métriques via des agents Prometheus pour la supervision des équipements des restaurants en France (ping, CPU, RAM, etc.).
- Mise en place de reportings pour l'équipe Thales afin de récupérer les métriques déployées sur les équipements des restaurants.
- Mise en place et mise à jour des alertes en cas de dépassement des seuils définis.
- Investigation et résolution des problèmes réseau liés à la supervision.
- Génération de fichiers quotidiens identifiant les équipements à superviser pour chaque restaurant.
- Rédaction de la documentation projet sur Confluence.
-Architecture des données sur AWS avec optimisation des coûts (Finops), en collaboration avec plusieurs entités (méthodologie SAFe pour fournir des solutions de données évolutives et performantes)
-Déploiement d&rsquoinfrastructures avec Terraform.
-Migration de bases de données d&rsquoOnPrem vers AWS.
-Mise en place d&rsquoun Data Lake, d&rsquoune cloud data platforme et de modèles d&rsquoingestion de données.
-Automatisation de l&rsquoalimentation et de la mise à jour des données provenant de différentes sources sur la plateforme.
-Établissement d&rsquoun pipeline pour l&rsquoanalyse des données.
-Intégration et déploiement de mécanismes d&rsquoalerte sur les environnements de préproduction et de production.
-Collaboration avec les équipes de développement, les architectes, les équipes opérationnelles et la direction pour concevoir et architecturer des solutions cloud hautement évolutives(scalables), fiables et sécurisées sur AWS.
-Travail avec des équipes pluridisciplinaires pour identifier et prioriser les opportunités de modernisation des applications et d&rsquoadoption du cloud.
-Veille technologique : suivi des dernières features AWS et des bonnes pratiques.
### Google Cloud Platform (GCP) & BigQuery
-Conception et implémentation d&rsquoarchitectures sur GCP, y compris migration des données et exploitation pour l&rsquoanalyse et l&rsquoobtention d&rsquoinsights.
-Utilisation de Google Compute Engine, Google Cloud Storage et Google Cloud Pub/Sub pour concevoir des solutions évolutives de calcul, stockage et messagerie, améliorant la gestion et l&rsquoanalyse des données.
### Amazon Connect
-Mise en place d&rsquoun centre de contact 100% cloud avec Amazon Connect (clients en Europe et au Canada).
-Implémentation d&rsquoune architecture AWS complète (CloudFormation) pour la gestion des flux d&rsquoappels (S3, DynamoDB, Kinesis, Transcribe, Lex, Lambda, SNS...).
-Gestion des messageries vocales (Voicemail).
- Conception de l'architecture cloud AWS selon les exigences (IAM, AWS Organizations, Cloud9...)
- Développement (Python + Django) et déploiement d&rsquoune application web sur le cloud AWS
- Scripting sous Linux
- Application du machine learning sur des données médicales : conception, entraînement et déploiement d&rsquoalgorithmes avec SageMaker
- Développement d&rsquoun algorithme de machine learning performant pour les séries temporelles (décomposition en ondelettes et CNN)
- Industrialisation des algorithmes de machine learning sur le cloud AWS (S3, SageMaker, Lambda)
- Développement des applications pour terminaux de paiement.
- Investigation et correction des bugs de développement.
- Capitalisation des retours d&rsquoexpérience, mise en place d&rsquoune méthodologie pour le traitement efficace des incidents et l&rsquoamélioration continue du code.
- Support technique aux équipes régionales, assistance sur les problèmes applicatifs et amélioration des outils de diagnostic.
- Stockage et analyse des logs des applications via Amazon S3 et AWS CloudWatch, facilitant le suivi des anomalies et l&rsquoamélioration du débogage.
- Mise en place d&rsquoautomatisations pour le suivi des performances des applications via AWS Lambda et l&rsquointégration d&rsquooutils de monitoring.
- Optimisation des workflows de développement en utilisant des outils DevOps sur AWS (Git, intégration avec AWS CodePipeline).
- Optimisation des workflows de développement en utilisant des outils DevOps sur AWS (Git, intégration avec AWS CodePipeline).
- Automatisation des tests (exécution des tests, analyse des traces).
- Développement de logiciels de télécommunication / simulation d'équipements réseau.
- Migration des données entre plateformes.
- Scripting Linux
- Installation et implémentation de différents services sur la plateforme IN.
- Exploitation d&rsquoenvironnement AWS pour l&rsquoexécution et l&rsquoautomatisation des tests en environnement cloud.
- Coordination et suivi du projet automatisation des tests mobiles.
- Développement des scripts python pour automatisation des traitements des fichiers.
- Développement d&rsquoune application JAVA pour automatisation de la validation des objets connectés.
- Capture et analyse des traces mobiles et réseau, investigation des bugs de fonctionnement.
- Rédaction des plans et des procédures de tests.
- Définition de nouveaux indicateurs pour le suivi de la QoS 4G.
- Développement et MAJ de l&rsquooutil BI pour suivi des indicateurs de performance
- Capitalisation de l&rsquoexpérience dans une méthodologie de traitement.
- Performance et optimisation du réseau LTE bouygues telecom.
- Participation à l'ouverture commerciale du réseau LTE Bouygues Telecom.
- Définition des KPIs, suivi des KPIs et traitement des alerteurs, support, méthodologie.