Freelance CLUSTER : nos nouveaux consultants ayant déposé leur CV

Déposez votre CV ou Déposez une mission gratuitement
Nos derniers

freelances CLUSTER

Nos dernières

offres de missions CLUSTER

Les freelances maîtrisant

CLUSTER

ont aussi postulé à

CLUSTER : expertise spécifique

On appelle CLUSTER le regroupement de deux serveurs ou plus, en vue de créer un « super serveur virtuel ». Il existe aujourd’hui des solutions CLUSTER sous Windows 2000/2003, Linux, Unix, OpenVMS, AS400. On parle de cluster pour le partitionnement de données, et un CLUSTER est alors un ensemble de données ou d'éléments présentant des similarités. CLUSTER désigne également l'unité de stockage minimal sur un disque dur.

Aperçu d'expériences d'Elakroudi, freelance CLUSTER habitant les Yvelines (78)

â Expériences Professionnelles
Février 2020 à Janvier 2021 : AXA
Big Data Architect

Projet de migration du Data Lake d’AXA vers le Cloud Azure :

Participer à l’élaboration et la rédaction des dossiers d’architecture du projet de migration vers Azure.
Accompagnement des équipes dans le développement des solutions.
Déploiement des rôles Ansible pour les besoins du projet
Sécurisation du cluster Kafka
Résolution des incidents de type P1 ou P2.

Mars 2019 à Janvier 2020 : Société Générale
Big Data Architect

Administration de plusieurs clusters HDP en production (maintenance, upgrade capacitaire, organisation des opérations en production, gestion des incidents de niveau 3)
Monitoring d’un cluster Kafka via JMX et InfluxDb et Grafana
Installation de certificats SSL (Kafka)
Participation active à la maintenance de plusieurs clusters HDP / Kakfa
Automatisation des actions d’administrations des clusters de productions avec le développement de rôles Ansible (créations des environnements des utilisateurs, créations des keytabs, créations des clés d’encryptions Ranger KMS…)
Mise en place des bonnes pratiques de sécurité

Août 2018 à février 2019 : BNPP / IBM
Expert Kafka

Contribuer aux différentes études, Architecture, Audit et Stratégie de résilience ainsi que les So-lutions Cibles avec le team et le fournisseur Confluent
Rédaction des documents d’ingénieries, Documents techniques (contrat d’interface, Procédures, IT-rules …)
Mise en place de stratégie d'Audit (benchmark) et de performance.
Participer à l’offre IAC en mettant en place des rôles Ansible (Installation de component, Test de résilience, Test d'upgrade capacitaire, ...)
Assurer l’exploitation, l’évolution ainsi que le déploiement des projets métiers en mode Agile et IAC
Accompagnement des équipes dev et ops pour l'utilisation de Kafka.
Astreinte Niveau 3, Traitement de ticket et résolution d’incident afin de rétablir le service Kafka
Développement et mise en place un système de monitoring custom (Java/JMX)
CI/CD avec jenkins

Juillet 2017 à Juillet 2018 : Orange
Big Data Architect

Installation et administration d’un cluster Kafka de 7 nœuds (maintenance, upgrade capaci-taire, organisation des opérations en production, gestion des incidents de niveau 3)
Monitoring d’un cluster Kafka via JMX et InfluxDb et Grafana
Installation de certificats SSL (Kafka)
Participation active à la maintenance d'un cluster Hadoop de 90 nœuds en production, un cluster de 12 nœuds pour des tests
Mises à jour des logiciels
Ajout de nœuds
Troubleshooting et support aux applications déployés sur les clusters
Création de tickets (Support Cloudera)
Création d'UDF Hive
CI/CD avec Jenkins
Automatisation (Ansible, Python, ...)
Rédaction de la documentation

De Juillet 2017 à ce jour : Orange

Administration d’un cluster Kafka de 7 nœuds (maintenance, upgrade capacitaire, organisation des opérations en production, gestion des incidents de niveau 3)
Monitoring d’un cluster Kafka via JMX et InfluxDb et Grafana
Installation de certificats SSL ( Kafka)
Participation active à la maintenance d'un cluster Hadoop de 90 nœuds en production, un cluster de 12 nœuds pour des tests
Mises a jour des logiciels
Ajout de nœuds
Troubleshooting et support aux applications déployés sur les clusters
Création de tickets (Support Cloudera )
Création d'UDF Hive
CI/CD avec jenkins
Automatisation ( Ansible, Python,...)
Rédaction de la documentation

De Octobre 2016 à ce jour : SPINERGIE (startup)

Fonction : Administrateur / Développeur Big Data

Objectifs : Développement et mise en place d’une architecture distribuée pour crawler
une partie du web

Réalisations :
Mettre en place un cluster Hadoop
Mettre en place un crawler distribué ( Nutch )
Optimisation de Nutch en développant des plugins en Java et en les intégrant à l’écosystème Nutch
Développement d’un dashboard de monitoring pour Nutch (shell, Symfony2, Python)
Création d'un métaIndex basé sur ElasticSearch / Lucène (Pandas, Python, Kibana)
Text processing et text mining (Python, NLTK and Pandas...)
Classification des documents crawlés en utilisant des modèles de Maching learning (Scikit-learn, Pandas,...)
Administration de la plateforme et écriture scripts shell

Environnement technique :
Unix /Linux, Java, Python, Javascript, php, Nutch, ElasticSearch, Kibana, Symfony2

Avril 2016 à Septembre 2016 : Laboratoire de recherche Paragraphe

Fonction : Ingénieur recherche et développement

Objectifs :
Acquérir une expertise dans le domaine de la recherche.
Développer un outil de prédiction basé sur des modèles de machine learning

Réalisations :
Implémentation d’un algorithme (SOM) qui permet la prédiction de la progression de la maladie de Parkinson avec des données smartphone (approche statistique combinée à un modèle d’apprentissage non supervisé)

Environnement Technique : Linux / Python / TensorFlow

Novembre 2011 à Aout 2014 : Agir pour l’emploi

Fonction : Développeur web

Réalisations :
Mise en place de l’architecture globale : Frontend / Backend de ********
Conception / codage du système permettant la mise en relation interprofessionnelle
Sélection des technologies utilisées (Symfony 2/Doctrine/ Javacript/JQuery/Json…)
Développement de web services : Json,XML.....
Accompagnement / revue de code des autres développeurs
Tests unitaires
Formation et accompagnement de collaborateurs
Conception / codage d’un Crawler vertical en Java (Multithreading / BFS algorithm)
Etude et Implémentation des algorithmes tels que (BFS,DFS,MinMax)
Utilisation de git

Environnement Technique : Linux, Java, PHP, Symfony2, Json, XML

Février 2010 – Octobre 2011 : indépendant

Fonction : Développeur web

Projet 1 : Pour cobbleweb.co.uk à Londres
Refonte de quelques modules coté Back end de ********
Best practice: Respect des principes de la programmation objet SOLID
Tests fonctionnels avec Behat pour les tests fonctionnels
Utilisation de git

Projet 2 : Pour FirstWeb à Toulouse
Mise en place de l’architecture globale : Frontend / Backend de ********
Conception / codage de l’intranet de ********
Utilisation du framework Zend

Environnement Technique : Linux, PHP, Symfony2, ZendJson, XML

Juin 2007 à Juin 2009 : Webunisys

Fonction : Développeur web

Réalisations :
Développement web PHP/MySQL
Développement des plugins Pour la plateforme WordPress avec PHP/MySql
Utilisation des modules Zend Framework ex : Zend\Feed
Administration Linux + serveurs web + Apache

Environnement Technique : Linux, PHP, ZendJson, XML

Big Data : Cloudera, Kafka

Langage :
Java, Python, Scala, C, PHP, XML, JavaScript, Html5/Css Prolog, Caml R

Système d’exploitation : Windows, Linux (Debian, Centos, ReadHat)

Framework : Zend, Symfony, JQuery, D3.js, Hadoop, HDFS, Spark, Solr, Java EE

IDE : Netbeans Eclipse Emacs

Design pattern : MVC Factory Builder Adapter DAO

Méthode : Merise, Uml, Scrum

ORM : Doctrine

Base de données : MySql, Sql Server, PostgreSQL, MongoDB, Hbase

Analyse du contexte et des besoins clients
Analyse, Conception et Réalisations d’applications
Rédaction de documents techniques et fonctionnels
Le sens du service, l'esprit d’équipe.

Académique :

2015-2017 Master 2 Mathématiques, parcours Big Data et fouille de données
Université Paris 8

2003-2007 Administrateur système et réseau informatique

Formations professionnelles et certification :

2018 Kafka Operations / Confluent university ( Zenika )

Fonctionnement de KAFKA et de la plate-forme Confluent ainsi que leurs principaux sous-systèmes.
Fonctionnalités et la manière dont ils interagissent
Mettre en place, administrer et configurer un cluster KAFKA.

2017 Hadoop administrateurs de Cloudera avec Xebia
Maitrise de l’environnement Hadoop et HDFS
Hadoop Cluster : choix du matériel, « configuring nodes »
Configurer, déployer et gérer des Clusters : utiliser “Cloudera Manager for Easy Installation”, “Configuration Management Tools”
Rajouter et retirer des « Cluster Nodes », rééquilibrer un Cluster et optimiser un Cluster
Gérer des tâches : Le “FIFO Scheduler”, Le “FairScheduler”
Gérer les “Log files” d’Hadoop
Utiliser le “NameNode” et “Job Tracker Web UI”
Troubleshooting
Savoir « Benchmarking » un Cluster

2012-2014 Développeur logicielâ
chez LLDH à Rabastens Utilisation de Symfony2 et de doctrine.
2010-2011 Auto Entrepreneur. â
Développement d'application web
2007-2009 Développement de plugin â
sous WordPress et création de sites web PHP/MySQL chez
Webunisys Casablanca, MAROC .

Voir le profil complet de ce freelance