CV/Mission Cluster freelance

Je dépose une mission gratuitement
Je dépose mon CV

CLUSTER : spécificités

On appelle CLUSTER le regroupement de deux serveurs ou plus, en vue de créer un « super serveur virtuel ». Il existe aujourd’hui des solutions CLUSTER sous Windows 2000/2003, Linux, Unix, OpenVMS, AS400. On parle de cluster pour le partitionnement de données, et un CLUSTER est alors un ensemble de données ou d'éléments présentant des similarités. CLUSTER désigne également l'unité de stockage minimal sur un disque dur.
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des missions de Xun,
freelance CLUSTER résidant dans les Hauts-de-Seine (92)

  • Data lake Architecte Data Technique (Azure)

    Société Générale - SGCIB
    Jan 2022 - aujourd'hui

    SG CIB commence à migrer vers cloud (Azure) depuis 2019. C'est un grand défi de fournir de bons services et
    une bonne plate-forme pour plus de 150 projets derrière, en particulier comment garantir la sécurité des
    données en transit et également au repos, ainsi que garantir la résilience du cloud.
    ‣ Responsable de la mise en œuvre et du déploiement de « Spark on K8S » (en utilisant Spark Operator, Argo
    Operator, Argo
    Workflow, Helm, Prometheus, Grafana, Thanos, Promtail, AKS, Java etc.)
    ‣ Responsable et participation à différents services cloud (Spark sur K8S, Airflow sur K8S, Data Lineage avec
    plugin Spark)
    ‣ Responsable de la conception de data gouvernance avec data lineage et data catalogue
    ‣ Responsable de plusieurs tâches d'optimisation des coûts (Industrialisation Storage Lifecycle management, Sparksur K8S Job conf intelligent Advisor avec métriques Prometheus etc.)
    ‣ Diriger une équipe de support à Bangalore
    ‣ Responsable de la mise en œuvre d'Airflow sur K8S et assurer les projets (en utilisant la charte Helm)
    ‣ Responsable et participer au projet « North Start » qui guide l'ensemble du département informatique de la
    SGCIB pour les années à venir
    ‣ Responsable de la maintenance, du support et de la mise à niveau de différents produits et services fournis pour
    différentes équipes Bigdata (en utilisant ArgoCD, Jenkins, etc.)
    ‣ Responsable du développement et de la maintenance de certains projets
    ‣ Participer à conseiller et guider différents projets bigdata
    ‣ Responsable de certains scripts d'automatisation (Python, Shell)

    Environnement Technique : Azure, AKS, HDI, Spark, Grafana, Promethus, Zeppelin, Helm, Argo CD, Argo Workflow, Kafka, SpringBoot
  • SRE/Architecte Data Technique

    Kering Groupe - Datalake
    Jan 2019 - Jan 2022

    Le projet datalake du Groupe Kering intègre les données clients, ventes, approvisionnements et stocks des
    différentes marques de luxe du groupe. Ensuite, nous nettoyons les données et effectuons l'agrégation
    nécessaire afin de les fournir à différentes équipes telles que l'équipe AI Factory, l'équipe CRM. Ils pourraient
    les utiliser pour effectuer des analyses plus approfondies, créer des tableaux de bord avec des outils BI,
    prendre des décisions stratégiques, etc.
    ‣ Responsable de la mise en œuvre de l'architecture complète en utilisant la méthodologie automatisée
    Infrastructure as Code (IaC), y compris Packer, Docker, Ansible pour la création d'AMI AWS et Terraform,
    Terragrunt, Jenkins pour le déploiement.
    ‣ Responsable de la conception du Data Lineage de bout en bout (implémenté avec Lambda, Airflow médiateur,
    Tableau API et S3 notification d’événements)
    ‣ Coordination avec l’équipe Data gouvernance et responsable de la mise en place d’outil Data Catalogue
    « Zeenea », architecture de catalogue AWS Glue et la gestion de sécurité des données
    ‣ Responsable de la conception et de la mise en œuvre d'un service de réplication de données Multi-Cloud entre
    AWS, GCP et AliCloud (écrit en GoLang)
    ‣ Responsable de la sécurisation de l'accès aux données(IAM, AWS Lake formation etc.), de l'amélioration des
    performances, de l'optimisation des coûts
    ‣ Responsable de la surveillance du cluster en développant des scripts et en utilisant les services AWS (Grafana,
    Promethus, NodeExporter, CloudWatch etc.)

    Environnement Technique : AWS, GCP, EMR, Spark, Zeppelin, Tableau Server, NiFi, Druid, Grafana, Promethus, Ansible, Packer, Terraform
  • Hadoop Administrator + DevOps

    Société Générale - SGCIB Data lake
    Jan 2018 - Jan 2019

    Le cluster Hadoop de SG CIB fournit plusieurs services différents et aussi le support pour plus de 100 projets
    du groupe. Je travailles pour le département GTS(Global Technologies Service) qui gère l’infrastructure pour
    l’ensemble du groupe. Et nous collaborons également avec le département informatique de SGCIB en tant
    qu’équipe technique en mode DevOps avec méthodologie Agile. Ce cluster a plus de 150 noeuds et environ
    2PB de données.
    Nous avons développé notre propre solution d’ingestion de données dans le data lake; nous optimisons à la
    fois la sécurité et la performance du cluster; nous rédigeons les spécifications techniques et les règles du
    cluster; nous fournissons des échantillons et des directives, ainsi qu'un service de support aux équipes de
    projet.
    ‣ En charge des opérations quotidiennes et de la maintenance (analyse des incidents, gestion du changement,
    planification de la capacité)
    ‣ Responsable de l’upgrade du cluster HDP (2.6.2-> 2.6.5)
    ‣ En charge de l'optimisation des clusters, PoC des nouvelles fonctionnalités / services jusqu'à la livraison sur
    PROD (ex. cGroup).
    ‣ En charge du script Puppet pour automatiser la création de cluster ou l'augmentation de capacité
    ‣ Responsable de la conception et implémentation de la solution de DR (HDFS DistCP, réplication HBase)
    ‣ Responsable du développement et de la maintenance de certains projets (ex. Code source du correctif de
    Hadoop / Hive [HDFS-13916], projet d’ingestion de données, surveillance des jobs DistCP)
    ‣ En charge de développement de script de surveillance et d'alerte des services Hadoop (en Python et Shell)
    ‣ En charge du développement de la nomenclature (BOM) pour toutes les équipes de projet; et les aider à migrer
    vers la nouvelle version après l’upgrade de cluster (à HDP 2.6.5)
    ‣ Participer à la migration de On-Promise vers Azure

    Environnement Technique : RedHat7.4, HDP 2.6.5, Elastic Search, Solr, Puppet, Spring Boot 2, Spring Framework 5
  • Big Data France Orange
    Jan 2017 - Jan 2018

    Le cluster Big Data France est un des plus grands clusters Hadoop en France (distribution
    Hortonworks). C’est une plate-forme transversal qui sert à trentaines applications différentes sous le groupe
    Orange avec presque tous les composants populaires sur marché. Au même temps, notre équipe a un cluster
    Cassandra, un cluster Teradata et un cluster ElasticSearch comme périphériques du cluster Hadoop afin de
    satisfaire des besoins différents.
    ‣ Construire un nouveau cluster de PréProduction de zéro (en utilisant Ambari et Kerberos)
    ‣ Recette des nouveaux serveurs, installer des components/outils/librairies nécessaires au niveau système et
    cluster, configuration des composants différents
    ‣ Administrer le cluster ElasticSearch
    ‣ L’upgrade du cluster Hadoop
    ‣ Améliorer la scalabilité, stabilité et performance en configurant et adaptant des paramètres différents

    Environnement Technique : Redhat6, Un cluster Hortonworks HDP (Ranger, Hive, HBase, Spark, Hue, Knox, Sqoop, Pig, Oozie, Zookeeper, Flume, Kafka, Dataiku, Khiops) et un cluster HDF (Nifi, Zookeeper), Un cluster Cassandra, Un cluster ElasticSearch, Un cluster Teradata
  • Expert Technique (Système Analyste - Performance)

    BNP CIB - Connexis Cash2
    Jan 2014 - Jan 2017

    Le projet ConnexisCash2 est une application de FO qui fournit un contrôle et une visibilité complets sur des
    comptes dans le monde entier, et une gamme complète de services domestiques et internationaux de cash
    management. Elle est une application top 10 du groupe BNP Paribas.
    ‣ Améliorer / refactoriser le code Java / J2EE pour améliorer le temps de réponse et scalabilité du système:
    Spring MVC, JMS, EJB, HQL, SQL, etc.
    ‣ Initialiser des projets MicroService basé sur Spring Boot, fournir des conseils de mise en œuvre,
    l'industrialisation de la gestion / installation / surveillance pour les environnements Integration / PreProd / Prod;
    développement des tests automatisés de performance et d'un système d'avertissement basé sur Gatling (écrit
    en Scala) et Jenkins
    ‣ Gérer un environnement ISO Prod et réaliser des stress tests (Neoload, Yourkit, IBM Memory Analyzer, JMeter,
    SoapUI, Introscope, Splunk, Gatling), analyser et effectuer des performances tuning sur plusieurs niveaux
    (middleware (ActiveMQ, WebSphere MQ, WebSphere Application Server, pools de threads et de connexion,
    taille de JVM, stratégie de GC), réglage des paramètres Oracle, code et algorithmes)
    ‣ Fournir des conseils professionnels (en particulier sur les sujets de performance) à l'équipe Connexis Cash
    (mode Java / J2EE, API, multi-thread, gestion de la mémoire, optimisation de l'algorithme, résolution de
    problèmes); l’audit de la qualité du code (SonarQube)
    ‣ Rassurer le support niveau L4 de l'environnement de production
    ‣ L'analyse de la demande, la validation des concepts pré-projets (POC) et la participation à certains projets
    spéciaux (comme Spring Integration pour remplacer certaines applications dans Tibco)
    ‣ Participer à la documentation de support, aux instructions d'installation, aux “roadmap” du produit, à la
    documentation technique, etc.

    Environnement Technique : Java6/Java8, Jython, Scala, Shell, EJB3, JMS, Spring, Spring Boot, Hibernate, Jasper, WebSphere, WMQ, ActiveMQ, Camel,Tibco, Git, AIX, Oracle, Neoload, YourKit, IBM Memory Analyzer, JMeter, SoapUI, Introscope, Splunk, ElasticSearch, Gatling, etc.
  • Conception and development J2EE

    Orange (France Telecom) - Scribe
    Jan 2013 - Jan 2014

    Le projet SCRIBE est un projet d'application de gestion des correspondances sortantes (courriers, mails,
    SMS) vers les clients Grand Public d'Orange.
    ‣ Analyse du besoin et étude des solutions
    ‣ Réalisation des fonctionnalités(Développement des modules : envoie SMS/Email, Purge, IHM, WS etc)
    ‣ Correction des anomalies
    ‣ Gestion de livraison sur plusieurs environnements
    ‣ Mise en place de la méthodologie Scrum

    Environnement Technique : Spring Integration, JMS (Joram), Jonas Server, Web Service (CXF), Hiber...
Voir le profil complet de ce freelance

Technologies analogues à CLUSTER parfois demandées

CV Cluster, Missions Cluster

Les derniers freelances Cluster

CV Graphiste / Webdesigner UX Design
Audrey

Graphiste / Webdesigner UX Design

  • PARIS
UX Design Photoshop Illustrator Adobe InDesign Pack Office UI Design
Disponible
CV Big Data Engineer & Mlops
Aina

Big Data Engineer & Mlops

  • CARRIÈRES-SOUS-POISSY
Data Big Data Python SQL PySpark Cloud AWS Google Cloud Platform Azure
Disponible
CV Data Engineer Expert SAP BI4.3
Karim

Data Engineer Expert SAP BI4.3

  • PARIS
SAP BI SQL Data Informatica Microsoft Power BI
Bientôt disponible
CV Ingénieure DevOps/Cloud
France

Ingénieure DevOps/Cloud

  • MARSEILLE
Ansible HashiCorp Terraform Kubernetes CI/CD Cloud AWS
Disponible
CV Consultant IT
Maouche

Consultant IT

  • JUVISY-SUR-ORGE
Scala Java Apache Spark Kubernetes Elasticsearch Spring Boot Apache Kafka Cassandra
Disponible
CV Ingénieur système Linux
Nejmeddine

Ingénieur système Linux

  • NANTES
Linux Ansible DevOps VMware Bash Zabbix ELK Kubernetes HashiCorp Terraform Docker
Disponible
CV Data Scientist Python
Dorsaf

Data Scientist Python

  • LE PRÉ-SAINT-GERVAIS
Python SQL Data Apache Spark Google Cloud Platform Deep Learning Microsoft Azure Machine Learning Azure HashiCorp Terraform
Disponible
CV Administrateur Bases de Données SQL Server
Zeljko

Administrateur Bases de Données SQL Server

  • PARIS
SQL Server Windows POSTGRES Linux Oracle
Bientôt disponible
CV Data Scientist Python
Aurélien

Data Scientist Python

  • FONTENAY-SOUS-BOIS
Python R Big Data Data Science SQL Deep Learning Java JavaScript HTML CSS
Disponible
CV Administrateur système Windows
Laurent

Administrateur système Windows

  • NÉRON
Windows Active Directory Cybersécurité VMware
Disponible
Je trouve mon freelance Cluster

Les nouvelles missions Cluster

Administrateur Système Windows & Linux Expérimenté

Linux Active Directory Windows
16/02/2026
92 - ISSY-LES-MOULINEAUX
12 mois
Voir la mission

Administrateur Systèmes AIX / Red Hat (H/F)

AIX Shell Unix Bash Red Hat Cluster
ASAP
49 - ANGERS
12 mois
Voir la mission

Revue technique et optimisation d’une plateforme AWS (Terraform)

Amazon AWS
ASAP
75 - PARIS
3 mois
Voir la mission

DataOps

DevOps Data Lake
ASAP
75 - PARIS
12 mois
Voir la mission

Spécialiste Red Hat / RHEL - Administration Cluster et Satellite (ESAP Europe)

Linux RHEL Ansible Red Hat Satellite
ASAP
77 - NOISIEL
6 mois
Voir la mission

Développeur PYTHON

C++ Java JavaScript Oracle Python
02/03/2026
75 - PARIS
15 mois
Voir la mission

DBA SQL (Always-ON)

SQL Server PowerShell DevOps
ASAP
75 - PARIS
24 mois
Voir la mission

Architecte Technique SAP BO BI

Shell Unix SAP BI Red Hat Crystal Reports SAP BO
ASAP
92 - NANTERRE
6 mois
Voir la mission

Formation Linux : Maîtriser les clusters

Linux Cluster Docker Kubernetes
ASAP
Télétravail
3 jours ouvrés
Voir la mission

DBA SQL

SQL SQL Server MySQL
ASAP
Télétravail
20 jours ouvrés
Voir la mission
Je trouve ma mission Cluster

Les freelances maîtrisant Cluster ont postulé à :

Architecte Technique

Jenkins HashiCorp Terraform DevOps Azure Cloud AWS
ASAP
93 - MONTREUIL
12 mois
Voir la mission

Intégrateur Systèmes et Virtualisation

Linux Active Directory Windows VMware
02/02/2026
75 - PARIS
12 mois
Voir la mission

Cloud Migration Engineer - OpenShift 4 (CI/CD & Kubernetes)

GitLab Kubernetes Red Hat OpenShift CI/CD
ASAP
Télétravail
12 mois
Voir la mission

Ingénieur Sécurité Réseaux

Fortinet Palo Alto Networks VMware NSX
ASAP
75 - PARIS
14 mois
Voir la mission

Expert DevOps / Terraform

HashiCorp Terraform DevOps Kubernetes
02/02/2026
75 - PARIS
6 mois
Voir la mission

Chef de Projet Migration Cloud

Nagios Azure Cloud AWS IaaS Google Cloud Security Command Center
02/02/2026
75 - PARIS
36 mois
Voir la mission

Architecte Proxy & Logs

LAN WAN Fortinet Datacenter LAN WAN
ASAP
75 - PARIS
23 mois
Voir la mission

Intégrateur Systèmes et Virtualisation H/F

Linux Active Directory VMware
ASAP
75 - PARIS
12 mois
Voir la mission

Ingénieur Systèmes, Réseaux et Sécurité H/F

LAN WAN Linux Cisco VMware
ASAP
93 - NOISY-LE-GRAND
12 mois
Voir la mission

Ingénieur Infrastructures H/F

VMware Linux Ubuntu Aruba Dell
ASAP
78 - VERSAILLES
12 mois
Voir la mission
Je trouve ma mission Cluster