Projet : Plateforme de données :
• Définition de l’architecture globale
• Garant de la disponibilité de service
• Accompagnement des équipes data scientistes et ingénieurs data dans les projets
d’intégration de données et d’industrialisation des usages
• Promotion de la plateforme auprès des différentes entités de l’entreprise
• Préparation et livraison des formations autour des nouvelles technologies Big Data
• Animation des réunions de retours d’expérience avec nos partenaires
• Gestion des aspects sécurité et protection des données
• Administration et évolutions techniques de la plateforme de données
• Gouvernance de la donnée
Projet : Montée de version des environnements Cloudera
Equipe : 10 personne
Expertise Hadoop :
• Support et Administration des environnements Data
• Développement Big data
• Sécurité et gouvernance des données
Cadrage projet de montée de version des environnements Cloudera
• Analyse des impacts sur les usages en développement/production
• Elaboration des matrices de compatibilité.
• Chiffrage des scenarios de montée de version et charges des tests de non-régressions
Conception et déploiement de la politique de sécurité sur les environnements Big data
Equipe : 15 Personne
• Déploiement et administration des environnements HDP 2.5
• Conception et déploiement des politiques de sécurité et gouvernance des données
• Déploiement et administration des outils Tableau et Talend
• Déploiement des connections entre les outils BI, les solutions pour l’ingestion et la
construction des données à partir des sources SI
• Dimensionnement des environnements en fonction des besoins des besoins streaming,
interactifs et batch
Projet : Réalisation d’un POC de maintenance prédictive par analyse des séries temporelles
Equipe : 10 Personnes
Méthode : Scrum
Architecte Big data
• Conception de l’architecture d’ingestion, stockage et traitement des données
• Animation d’un data Lab avec le client pour recueillir les besoins métiers et validation et
proposition de l’approche à adopter
• Conception d’une architecture de traitement optimisé pour l’acquisition, le stockage,
l’agrégation et le traitement des données provenant de différentes sources.
Ingénieur Big Data
• Déploiement et configuration de l’architecture
• Amélioration de la qualité de données par imputation des valeurs manquantes,
analyses de corrélation, décomposition saisonnière, normalisation
Data Scientiste
• Enrichissement des données par des KPI prédites par intelligence artificielle
• Intégration de cette couche ML avec un produit recherche web existant