freelances CLUSTER
-
David Ingénieur réseaux FIREWALL
- Ingénieur réseaux, Administrateur réseaux, Ingénieur système (42 ans)
- 95400 VILLIERS-LE-BEL
- Totalement mobile
-
Ahmet Ingénieur réseaux CISCO
- Ingénieur réseaux, Administrateur réseaux, Chef de projet (34 ans)
- 92360 MEUDON
- Totalement mobile
-
Jon Directeur informatique
- Directeur informatique, Administrateur système, Administrateur réseaux (41 ans)
- 33000 BORDEAUX
-
Sara Chef de projet TOIP DATA
- Directeur de projet, Chef de projet (31 ans)
- 78570 CHANTELOUP-LES-VIGNES
- Totalement mobile
-
Ahmed Architecte Kubernetes
- Architecte (40 ans)
- 75015 PARIS
- Totalement mobile
-
Ayoub Développeur .NET
- Développeur (34 ans)
- 94400 VITRY-SUR-SEINE
- Télétravail uniquement
-
Adam Ingénieur système LINUX
- Ingénieur système (32 ans)
- 75001 PARIS
- Totalement mobile
-
Stéphane DBA ORACLE
- DBA (51 ans)
- 95450 US
- Télétravail si le client est à plus de 2h de son domicile
-
Jean-Baptiste DevOps LINUX
- DevOps (43 ans)
- 63400 CHAMALIÈRES
- Télétravail uniquement
-
Clement Développeur PYTHON JAVASCRIPT
- Développeur, Data Scientist, Ingénieur d'études (24 ans)
- 33000 BORDEAUX
- Télétravail si le client est à plus de 2h de son domicile
Vous n'avez pas trouvé le freelance CLUSTER correspondant à vos besoins ? Contactez-nous au 01 80 88 59 00 ou déposez une offre de mission pour découvrir plus de profils.
offres de missions CLUSTER
Vous êtes freelance CLUSTER et vous recherchez une mission ? Déposez votre CV pour accéder à toutes nos offres à pourvoir dès maintenant.
CLUSTER
ont aussi postulé à-
Consultant formateur BIG DATA sur Paris
-
Consultant SAP BC en télétravail
CLUSTER : expertise spécifique
Aperçu d'expériences d'Elakroudi, freelance CLUSTER habitant les Yvelines (78)
â Expériences Professionnelles
Février 2020 à Janvier 2021 : AXA
Big Data Architect
Projet de migration du Data Lake d’AXA vers le Cloud Azure :
Participer à l’élaboration et la rédaction des dossiers d’architecture du projet de migration vers Azure.
Accompagnement des équipes dans le développement des solutions.
Déploiement des rôles Ansible pour les besoins du projet
Sécurisation du cluster Kafka
Résolution des incidents de type P1 ou P2.
Mars 2019 à Janvier 2020 : Société Générale
Big Data Architect
Administration de plusieurs clusters HDP en production (maintenance, upgrade capacitaire, organisation des opérations en production, gestion des incidents de niveau 3)
Monitoring d’un cluster Kafka via JMX et InfluxDb et Grafana
Installation de certificats SSL (Kafka)
Participation active à la maintenance de plusieurs clusters HDP / Kakfa
Automatisation des actions d’administrations des clusters de productions avec le développement de rôles Ansible (créations des environnements des utilisateurs, créations des keytabs, créations des clés d’encryptions Ranger KMS…)
Mise en place des bonnes pratiques de sécurité
Août 2018 à février 2019 : BNPP / IBM
Expert Kafka
Contribuer aux différentes études, Architecture, Audit et Stratégie de résilience ainsi que les So-lutions Cibles avec le team et le fournisseur Confluent
Rédaction des documents d’ingénieries, Documents techniques (contrat d’interface, Procédures, IT-rules …)
Mise en place de stratégie d'Audit (benchmark) et de performance.
Participer à l’offre IAC en mettant en place des rôles Ansible (Installation de component, Test de résilience, Test d'upgrade capacitaire, ...)
Assurer l’exploitation, l’évolution ainsi que le déploiement des projets métiers en mode Agile et IAC
Accompagnement des équipes dev et ops pour l'utilisation de Kafka.
Astreinte Niveau 3, Traitement de ticket et résolution d’incident afin de rétablir le service Kafka
Développement et mise en place un système de monitoring custom (Java/JMX)
CI/CD avec jenkins
Juillet 2017 à Juillet 2018 : Orange
Big Data Architect
Installation et administration d’un cluster Kafka de 7 nœuds (maintenance, upgrade capaci-taire, organisation des opérations en production, gestion des incidents de niveau 3)
Monitoring d’un cluster Kafka via JMX et InfluxDb et Grafana
Installation de certificats SSL (Kafka)
Participation active à la maintenance d'un cluster Hadoop de 90 nœuds en production, un cluster de 12 nœuds pour des tests
Mises à jour des logiciels
Ajout de nœuds
Troubleshooting et support aux applications déployés sur les clusters
Création de tickets (Support Cloudera)
Création d'UDF Hive
CI/CD avec Jenkins
Automatisation (Ansible, Python, ...)
Rédaction de la documentation
De Juillet 2017 à ce jour : Orange
Administration d’un cluster Kafka de 7 nœuds (maintenance, upgrade capacitaire, organisation des opérations en production, gestion des incidents de niveau 3)
Monitoring d’un cluster Kafka via JMX et InfluxDb et Grafana
Installation de certificats SSL ( Kafka)
Participation active à la maintenance d'un cluster Hadoop de 90 nœuds en production, un cluster de 12 nœuds pour des tests
Mises a jour des logiciels
Ajout de nœuds
Troubleshooting et support aux applications déployés sur les clusters
Création de tickets (Support Cloudera )
Création d'UDF Hive
CI/CD avec jenkins
Automatisation ( Ansible, Python,...)
Rédaction de la documentation
De Octobre 2016 à ce jour : SPINERGIE (startup)
Fonction : Administrateur / Développeur Big Data
Objectifs : Développement et mise en place d’une architecture distribuée pour crawler
une partie du web
Réalisations :
Mettre en place un cluster Hadoop
Mettre en place un crawler distribué ( Nutch )
Optimisation de Nutch en développant des plugins en Java et en les intégrant à l’écosystème Nutch
Développement d’un dashboard de monitoring pour Nutch (shell, Symfony2, Python)
Création d'un métaIndex basé sur ElasticSearch / Lucène (Pandas, Python, Kibana)
Text processing et text mining (Python, NLTK and Pandas...)
Classification des documents crawlés en utilisant des modèles de Maching learning (Scikit-learn, Pandas,...)
Administration de la plateforme et écriture scripts shell
Environnement technique :
Unix /Linux, Java, Python, Javascript, php, Nutch, ElasticSearch, Kibana, Symfony2
Avril 2016 à Septembre 2016 : Laboratoire de recherche Paragraphe
Fonction : Ingénieur recherche et développement
Objectifs :
Acquérir une expertise dans le domaine de la recherche.
Développer un outil de prédiction basé sur des modèles de machine learning
Réalisations :
Implémentation d’un algorithme (SOM) qui permet la prédiction de la progression de la maladie de Parkinson avec des données smartphone (approche statistique combinée à un modèle d’apprentissage non supervisé)
Environnement Technique : Linux / Python / TensorFlow
Novembre 2011 à Aout 2014 : Agir pour l’emploi
Fonction : Développeur web
Réalisations :
Mise en place de l’architecture globale : Frontend / Backend de ********
Conception / codage du système permettant la mise en relation interprofessionnelle
Sélection des technologies utilisées (Symfony 2/Doctrine/ Javacript/JQuery/Json…)
Développement de web services : Json,XML.....
Accompagnement / revue de code des autres développeurs
Tests unitaires
Formation et accompagnement de collaborateurs
Conception / codage d’un Crawler vertical en Java (Multithreading / BFS algorithm)
Etude et Implémentation des algorithmes tels que (BFS,DFS,MinMax)
Utilisation de git
Environnement Technique : Linux, Java, PHP, Symfony2, Json, XML
Février 2010 – Octobre 2011 : indépendant
Fonction : Développeur web
Projet 1 : Pour cobbleweb.co.uk à Londres
Refonte de quelques modules coté Back end de ********
Best practice: Respect des principes de la programmation objet SOLID
Tests fonctionnels avec Behat pour les tests fonctionnels
Utilisation de git
Projet 2 : Pour FirstWeb à Toulouse
Mise en place de l’architecture globale : Frontend / Backend de ********
Conception / codage de l’intranet de ********
Utilisation du framework Zend
Environnement Technique : Linux, PHP, Symfony2, ZendJson, XML
Juin 2007 à Juin 2009 : Webunisys
Fonction : Développeur web
Réalisations :
Développement web PHP/MySQL
Développement des plugins Pour la plateforme WordPress avec PHP/MySql
Utilisation des modules Zend Framework ex : Zend\Feed
Administration Linux + serveurs web + Apache
Environnement Technique : Linux, PHP, ZendJson, XML
Big Data : Cloudera, Kafka
Langage :
Java, Python, Scala, C, PHP, XML, JavaScript, Html5/Css Prolog, Caml R
Système d’exploitation : Windows, Linux (Debian, Centos, ReadHat)
Framework : Zend, Symfony, JQuery, D3.js, Hadoop, HDFS, Spark, Solr, Java EE
IDE : Netbeans Eclipse Emacs
Design pattern : MVC Factory Builder Adapter DAO
Méthode : Merise, Uml, Scrum
ORM : Doctrine
Base de données : MySql, Sql Server, PostgreSQL, MongoDB, Hbase
Analyse du contexte et des besoins clients
Analyse, Conception et Réalisations d’applications
Rédaction de documents techniques et fonctionnels
Le sens du service, l'esprit d’équipe.
Académique :
2015-2017 Master 2 Mathématiques, parcours Big Data et fouille de données
Université Paris 8
2003-2007 Administrateur système et réseau informatique
Formations professionnelles et certification :
2018 Kafka Operations / Confluent university ( Zenika )
Fonctionnement de KAFKA et de la plate-forme Confluent ainsi que leurs principaux sous-systèmes.
Fonctionnalités et la manière dont ils interagissent
Mettre en place, administrer et configurer un cluster KAFKA.
2017 Hadoop administrateurs de Cloudera avec Xebia
Maitrise de l’environnement Hadoop et HDFS
Hadoop Cluster : choix du matériel, « configuring nodes »
Configurer, déployer et gérer des Clusters : utiliser “Cloudera Manager for Easy Installation”, “Configuration Management Tools”
Rajouter et retirer des « Cluster Nodes », rééquilibrer un Cluster et optimiser un Cluster
Gérer des tâches : Le “FIFO Scheduler”, Le “FairScheduler”
Gérer les “Log files” d’Hadoop
Utiliser le “NameNode” et “Job Tracker Web UI”
Troubleshooting
Savoir « Benchmarking » un Cluster
2012-2014 Développeur logicielâ
chez LLDH à Rabastens Utilisation de Symfony2 et de doctrine.
2010-2011 Auto Entrepreneur. â
Développement d'application web
2007-2009 Développement de plugin â
sous WordPress et création de sites web PHP/MySQL chez
Webunisys Casablanca, MAROC .