Formation technique (100% pratique) à la mise en place et l’exploitation
d’une plateforme HPE Ezmeral Data Fabric (ex MAPR)
- Suivi et assistance aux projets de certification (Mapr/Cloudera)
- Évaluation continue des participants et personnalisation du parcours en
fonction des résultats
- Installation d’une plateforme pilote (MCS, MAPR-FS, Stream, DB)
- Test et implémentation des notions de bases Mapr (Mirroring, snapshots, )
- Automatisation de l’installation via Vagrant/Terraform et Ansible
- Exploration des aspect HA de l’infrastructure Ezmeral
- Initiation au troubleshooting des infrastructures distribuées
- Initiation à la mise en place de la sécurité dans un contexte HDFS (Mapr)
- Construction d’un pipeline typique (use case : Société de distribution) depuis
l’ingestion de différents types de données à la visualisation
- Participation au projet de transition vers le Cloud Azure (planification, budget,
acculturation, …) en tenant compte de la sensibilité des workflows et des
gisements data
- Participation à la mise en place des landings zone Azure et gestion des
souscriptions d’expérimentation
- Mise en place d’un tunnel point à point sécurisé par PQC avec des
partenaires externes pour le dépôt réglementaire de fichiers.
- Instruction du dossier d’architecture pour les expérimentations quantiques
- Budgétisation et chiffrage des expérimentations et de l’industrialisation
- Qualification des solutions à ajouter au catalogue d’offre (Sinequa,
Elasticsearch, Outmind, Obsolab, Owlint,…)
- Arbitrage des choix technologiques en matières de solution de sécurité en Mission Formateur Big Data
- Participation au chantier de montée de version des briques du Lac de Données Agricole
(LDA) : HDFS, Spark, Nifi, Kafka, MongoDB, Rancher, Kuberenetes, Python, CentOS
(Rocky)
- Révision de dossier technique de greffe du composant Microstrategy
- Assistance à la résolution des problèmes d’intégration sécurisée (Kerberos) dans
l’architecture globale de LDA
- Audit et recommandation des composant frontaux du point de vue RGAA
- Participation au projet de dataviz pour les KPI de l’ASP
Mission Architecte Technique Equipe TPSHRM
Evaluation de la précision et du rappel des résultats des algorithmes appliqués
aux documents scannés (journaux, manuscrits, …) pour l'extraction des images
(layout)
Calcul des fiabilités des agencements (layouts) extraits avec IoU et IoUmax
Dimensionnement de l'architecture cible (on-premise) pour le déploiement de
composant du projet de reconnaissance (batch d'extraction, IA, API, Bus de
transfert, …)
Etude du marché mondial et établissement d'une vision stratégique globale de
migration sur la prochaine décennie
Prise de contact avec les différents fournisseurs français et européens des
solutions quantiques et post-quantiques
Mise en place de deux serveurs SMTP (Apache James) sur un réseau privé du
Cloud externe de la Banque (Outscale)
Durcissement des protocoles d'échanges en rajoutant la couche PQC (Liboqs)
dans la configuration du serveur SMTP (mailets)
Création d'un tunnel d'échange sécurisé entre les deux serveurs (NGINX proxy +
PQC)
Fabrication, test et intégration de Libqos (librairie Open Source de cryptography
dites quantum-safe): (Ninja, CMake, git, python)
Elaboration d'un plan de test pour s'assurer de la fiabilité du tunnel
Configuration des clients SMTP (outlook) pour supporter le S/MIME basé sur les
librairies PQC de Libqos
Test de bout en bout de l'envoi de mail sécurisé par PQC à plusieurs niveaux
Rédaction du dossier d'architecture technique
Transposition de l'expérimentation avec une banque centrale partenaire
Projet 2 : Elaboration de l'expérimentation IBAN Fraud
▪ Exploration des pistes et des solutions envisageables pour le partage d'IBAN
frauduleux entre les différentes banques de la place sous le contrôle de la BDF
▪ Rédaction d'un smart contract permettant de répondre au besoin
▪ Mise en place de plusieurs instances de MISP pour adapter cet outil de partage
d'information sur les menaces de sécurité au présent cas d'usage
▪ Proposition de scénarios de résolution des règles RGPD et des contraintes de
protections des données privées dans le cadre de MISP
▪ Vulgarisation des concepts et assistance des services responsables du projet sur
la technologie MISP
▪ Préparation de la stratégie d'intégration avec les banques européennes (Galaxy,
Clusters, Taxonomy, Objets, Tags, ...)
▪ Spécification et test des API d'intégration avec les outils autres que MISP
▪ Participation au chiffrage macro du projet
Autres projets :
▪ Participation aux taskforces sur divers projets pour un accompagnement
technique (Mesure de consensus, Adjudication, …)
▪ Test on-premise des modèles LLAMA2 et entrainement de l'IA avec des données
internes.
Mission Architecte Technique
Equipe Squad d'innovation
Installation de l'infrastructure de développement on premise
Préparation de l'infrastructure de production sous AWS
Installation de la chaine de développement industrialisée (Docker, Gitlab CI)
Mise en place des règles de coding (SonarLint)
Mission Expert technique data
Equipe Division Architecture Technique Middleware (DATM)
Client
Intégration de l'interfaçage TDP avec Active Directory
Qualification de la version dockerisée de TDP et mise en place des correctifs
Offre de support N3 des produits du catalogue Big Data pour les clients :
Infrastructure, Projet, Supervision, Production, Sécurité
Animation d'atelier de veille : Trino, MinIO, ODP
Orienter les choix techniques des différents projets vers le catalogue qualifié par
DATM
Qualification des livrables des fournisseurs sur les différentes études menées
(MongoDB, HDP, …)
Participation au projet de construction du socle unifié pour accueillir les projets Big
Data éligibles.
Industrialisation des composants Open Source de l’écosystème Hadoop (rpm/ rpmbuild)
Mission Architecte Data
- Audit du modèle de données existant et appréhension des différents workflows
- Collecte des contraintes métiers
- Documentation des processus métiers spécifiques
- Réécriture du modèle de données cible sous un schéma normalisé (Oracle Data
Modeler)
- Proposition de nouvelles solutions de stockage de données plus approprié aux
spécificités des données (BD NoSQL: MongoDB || HBase || Casandra)
- Ecriture des nouvelles règles de gestion de la base de données existante