Le métier d’architecte Big Data consiste à concevoir et à mettre en œuvre des solutions techniques pour gérer, analyser et stocker de grandes quantités de données brutes.
En raison de la croissance exponentielle des données numériques, les experts en architecture Big Data comptent parmi les professionnels les plus demandés dans ce domaine.
Son rôle est de construire l’infrastructure nécessaire à la récupération, la gestion et le stockage des données brutes. Il assure donc la collecte de datas provenant de sources internes ou externes.
Il doit donc avoir une compréhension approfondie des serveurs, des bases de données, des systèmes d’exploitation et des compétences techniques en programmation.
Les fonctions d’un architecte Big Data sont les suivantes :
Les architectes Big Data doivent avoir une connaissance approfondie des technologies et des outils liés au Big Data, tels que Hadoop, Spark,Yarn, les bases de données NoSQL, les systèmes de gestion de flux, les infrastructures serveurs (Hadoop, Spark) et le stockage de données en mémoire (Memtables).
Le métier d’architecte Big Data demande un ensemble de compétences techniques comme :
Ce métier requiert aussi des compétences interpersonnelles notamment :
Pour devenir architecte Big Data, vous devez suivre une formation Bac+5, niveau master, en informatique avec une spécialisation Big Data. Ces parcours spécifiques sont encore rares mais de plus en plus de formations sont disponibles à l'université ou dans une école d’ingénieur ou spécialisée dans les métiers du numérique.
Un architecte Big Data junior peut prétendre à un salaire 35 000 € brut par an environ. Après un certain niveau d'expérience, un architecte Big Data expérimenté peut atteindre un salaire de 60 000 € brut par an.
Le métier d’architecte Big Data est un emploi très prisé par les entreprises dans le domaine du numérique, mais également par toutes les organisations qui veulent optimiser l’usage de leurs importants volumes de données.
Les géants du web tels que les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) sont très demandeurs, mais c’est aussi le cas pour d’autres secteurs d’activité comme celui de l’industrie, de la santé, des assurances, des médias ou encore de la finance.
Un architecte Big Data peut également choisir d’exercer son métier en freelance et concevoir pour ses clients des solutions fonctionnelles en exerçant à son compte.
L’architecte Big Data peut être comparé à d’autres professionnels du Big Data tels que :
Il s’agit de l’ensemble des données extrêmement volumineuses et complexes qui dépassent les capacités de traitement des outils traditionnels de gestion de base de données.
L’architecture informatique désigne la structure globale d’un système informatique, y compris ses composants matériels et logiciels, ainsi que la manière dont ils interagissent pour répondre aux besoins des utilisateurs et des applications.
conception d’un Datalake Hybride Cloud/ Kubernetes, étude et mise en place de cas d’usages Big Data (réglementaire) et aide à la migration des cas d’usages vers un nouveau Datalake– Saphir Data (indépendant)
Etude des solutions NoSQL pour le remplacement du SI doc (postgres/mongo) avec propositions d’architectures Neo4J et elastic-search– Saphir Data (indépendant)
Mise en place d’une architecture pour l’intégration de Tableau Software dans le Datalab. Architecture applicative d’un requêteur métier sur les données du Datalab – Saphir Data (indépendant)
Mise en place d’architectures techniques et applicatives d’un DataHub et de cas d’usages de détections de fraudes – Saphir Data (indépendant)
Accompagnement 360 (du début du projet, à la mise en production) pour la mise en place d’une architecture Big Data innovante répondant aux enjeux stratégiques et sécuritaires de la DGFIP et permettant la mise en place d’applicatifs décisionnelles en production- Saphir Data (indépendant)
transformer le besoin client en Features, communications avec les PO, War rooming sur la mise en place d’un nouvel espace client B2B sur une architecture Big Data- EY
Architecture et mise en place d’une architecture lambda basée sur un speed layer en SMACK et un batch layer sur Hortonworks avec une architecture orienté Kafka (Hortonworks, Spark, Kafka, Cassandra, Mesos)- EY
analyse du SI existant et réalisation de l’architecture Big Data (Hortonworks) basé sur Talend Big Data pour une meilleure intégration dans le SI existant (Hortonworks, Hadoop, Spark, Talend) - EY
Cadrage de la mise en place de la RGPD au sein du Datalake EDF, état des lieux, analyse critique et audit sécuritaire et réglementaire, détection des Gaps. Plannings et budgets prévisionnels (Hortonworks, Kafka, Ranger, Atlas)- EY
conception d’un Datalake Azure et d’une plateforme DataHub pour alimenter les différentes plateformes dont une plateforme digitale Azure. Sur le DataLake databricks, mise en place d’un applicatif de service client, d’une application data finance et RH– Saphir Data (indépendant)