CV/Mission d'Ingénieur hadoop freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Samy,
Ingénieur hadoop habitant la Seine-Saint-Denis (93)

Expérience Professionnelle

Digipulse communication Nice/Paris/Tunis, France/Tunisie
CONSULTANT DEVOPS Janv. 2024 ‑ Aujourd’hui
• Mission & contexte : Dans le cadre de la fondation numérique de l’entreprise, je m’emploie à la créer en suivant une approche Cloud‑first sur
deux fournisseurs de cloud.
• Environnement : AWS, Scaleway, Azure, Kubernetes, Docker, Jenkins, Git, Ansible, Terraform, Vault, Consul, Packer, Python, Bash, Trello.
• Mise en place d’une stratégie DevOps pour rationaliser et améliorer les processus de développement et de déploiement.
• Mise en place de pipelines CI/CD pour automatiser le déploiement des applications et des services.
• Utilisation de Terraform & CloudFormation pour la gestion de l’infrastructure.

BNP PARIBAS, division CIB Paris, France
CONSULTANT FREELANCE DEVOPS & INGÉNiEUR EN AUTOMATiSATiON Déc. 2022 ‑ Déc. 2023
• Mission & contexte : Dans le cadre de la refonte de l’équipe d’observabilité & monitoring World Wide autour de Dynatrace, j’ai été impliqué en
tant que consultant pour conseiller sur les bonnes pratiques DevOps appliquées à l’observabilité.
• Environnement : Dynatrace, Ansible & Ansible Tower, Python, Git, Jira, Jenkins, Artifactory, Service Now.
• Installation de l’agent Dynatrace sur des serveurs Linux et Windows, en utilisant Ansible pour l’automatisation.
• Maintien de la solution sur site de Dynatrace, Elasticsearch & Cassandra. Mise en place de la sauvegarde & restauration des métriques de
données. Mise en place de la sauvegarde & restauration des configurations avec Monaco (Monitoring As Code).
• Support pour les équipes de développement pour l’instrumentation des applications pour la surveillance.
• Collaboration avec les membres de l’équipe World Wide pour assurer une surveillance efficace des performances et une observabilité dans
toute l’organisation.
• Mise en place et maintenance des solutions Dynatrace pour une surveillance complète des applications et de l’infrastructure World Wide Eu‑
rope/Amérique/Asie.
• Recommandation de l’utilisation de Git pour le contrôle de version, en maintenant les fichiers de configuration et les scripts liés aux configura‑
tions Dynatrace.
• Recommandation de l’utilisation de Jira pour le suivi des projets afin d’améliorer la gestion globale des tâches et des ressources.
• Travail collaboratif pour améliorer les stratégies d’observabilité globales, assurant une approche proactive pour la détection et la résolution des
problèmes.

Canal Plus. Paris, France
CONSULTANT FREELANCE DEVOPS Août 2023 ‑ Déc. 2023
• Mission & contexte : Dans le cadre de l’entité Canal Plus, j’ai été impliqué en tant que consultant pour le maintien et l’évolution du MediaHub,
outil transversal pour la programmation des chaînes du groupe.
• Environnement : Ansible, Git, Jenkins, Artifactory, SonarQube, Elastic & Kibana, Jira, Service Now.
• En tant qu’ingénieur DevOps, j’ai dirigé la mise en place des nouveaux pipelines CI/CD de bout en bout, dans le respect des meilleures pratiques.
• Promotion de l’utilisation de Git pour le contrôle de version, mise en œuvre et maintenance de flux de travail CI/CD pour le déploiement efficace
du code de la solution.
• Introduction de SonarQube pour l’analyse de la qualité du code, améliorant l’ensemble du processus de développement.
• Veille et promotion des meilleures pratiques en matière de CI/CD, en prêchant l’importance de l’automatisation et de l’intégration continue tout
au long du cycle de développement.
• Rôle clé dans la migration des systèmes de contrôle de version, menant la transition de Bitbucket à GitLab. Réalisation réussie d’une démon‑
stration de faisabilité pour la migration des processus CI/CD de Jenkins à GitLab CI.
• Collaboration avec des équipes interfonctionnelles, en utilisant Jira pour une gestion de projet efficace et le suivi des problèmes.
• Optimisation continue et rationalisation des processus de déploiement, assurant une livraison plus rapide et plus fiable des solutions logicielles.
• Contribution au développement et à la mise en œuvre des meilleures pratiques pour les processus DevOps au sein de l’équipe et de
l’organisation.
• Travail étroit avec différents services pour assurer une transition fluide vers un modèle de cloud hybride, répondant aux exigences commerciales
uniques et favorisant la collaboration entre les équipes.

Adyoulike Inc. Paris, France
INGÉNiEUR FiABiLiTÉ DES SiTES (SRE) Fév. 2023 ‑ Juin 2023
• Mission & contexte : Dans le cadre d’un renfort d’équipe, j’ai été impliqué en tant qu’ingénieur Fiabilité des Sites pour maintenir et améliorer
la fiabilité des systèmes critiques.
• Environnement : Apache Mesos, Docker, Hadoop, ScyllaDB, Apache Airflow, Jira, Google Kubernetes Engine (GKE), AWS, GCP, OVH.
• Gestion d’un environnement multi‑cloud couvrant OVH, AWS, GCP, et une infrastructure sur site.
• Maintenance et optimisation des performances et de la fiabilité des technologies critiques, dont Apache Mesos, Kafka, Docker, et Hadoop pour
le traitement des données volumineuses.
• Implémentation réussie de ScyllaDB à la place de MongoDB sur Ubuntu 18.04, améliorant l’efficacité et la scalabilité de la base de données.
• Direction de la migration d’Apache Airflow vers Google Kubernetes Engine (GKE) sur la plateforme Google Cloud (GCP), assurant une transition
sans heurts et des capacités d’orchestration améliorées.
• Collaboration avec des équipes interfonctionnelles pour maintenir et prendre en charge les systèmes existants, assurant une disponibilité et
une fiabilité élevées dans une architecture multi‑cloud complexe.
• Exécution d’une stratégie de migration, abordant les défis spécifiques d’un environnement multi‑cloud et d’une pile technologique diversifiée.
• Contribution au développement desmeilleures pratiques SRE,mettant l’accent sur la fiabilité, la scalabilité et une réponse aux incidents efficace.
Société Générale Paris, France
INGÉNiEUR D’INTÉGRATiON ET ADMiNiSTRATEUR BiG DATA Mar. 2020 ‑ Sept. 2022
• Mission & contexte : Dans le cadre de la division de la banque de détail de la Société Générale, j’ai été impliqué en tant qu’ingénieur
d’intégration Big Data pour maintenir et améliorer les systèmes de traitement des données. Accompagnement de la migration des pratiques
de déploiement héritées vers une approche moderne de l’Intégration Continue/Intégration Continue (CI/CD).
• Environnement : Hadoop, HBase, Kafka, Ansible, Git, Jenkins, Artifactory, SonarQube, Elastic & Kibana, Jira, Service Now.
• En tant qu’ingénieur d’intégration dans un environnement de production Hadoop, contribuer à la conception, le déploiement et l’optimisation
de systèmes complexes de traitement des données.
• Utilisation d’Ansible et de Git pour automatiser et accélérer le processus de livraison, en particulier dans un domaine métier à haut risque axé
sur la détection de la fraude bancaire.
• Maintenance de Kafka en tant que moteur d’événements pour le streaming de données en temps réel, permettant une communication et un
flux de données efficaces au sein de l’écosystème Hadoop.
• Maintenance de HBase en tant que base de données NoSQL, fournissant un stockage évolutif et distribué pour de grands volumes de données
générés dans le contexte de l’analyse de la fraude bancaire.
• Leadership collégial dans la première migration des pratiques de déploiement héritées vers une approche moderne de l’Intégration Con‑
tinue/Intégration Continue (CI/CD).
• Promotion de l’intégration des pratiques CI/CD pour rationaliser et améliorer le cycle de développement logiciel.
• Confrontation à des défis lors du processus d’adoption CI/CD, notamment la résolution de dépendances des systèmes hérités, garantissant la
compatibilité ascendante et l’alignement sur des exigences de sécurité et de conformité strictes dans le domaine de la détection de la fraude
bancaire.
• Collaboration avec des équipes interfonctionnelles pour résoudre des difficultés, établir des meilleures pratiques et assurer une transition en
douceur vers des builds CI/CD modernes.
• Contribution au développement de pipelines CI/CD robustes, intégrant des tests automatisés, des stratégies de déploiement et un contrôle de
version pour garantir la fiabilité et l’efficacité des versions logicielles.
BNP Paribas, division BP2I Paris, France
INGÉNiEUR INFRASTRUCTURE Jan. 2018 ‑ Mar. 2019
• Mission & contexte: maintien de la solution Splunk on‑premise pour la division BP2I de BNP Paribas.
• Environnement: redhat, Splunk, Git, GitLab CI, Ansible, Bash, Python, Jira, Service Now.
• Mise en place de solutions Splunk sur site pour BNP Paribas et sa division BP2I.
• Direction de la mise en œuvre de Git pour contrôler le code dans une perspective CI.
• Déploiement et tests en CI/CD à l’aide de pipelines GitLab CI.
• Déploiement de l’infrastructure à l’aide d’Ansible, assurant des processus de déploiement efficaces et cohérents.
• Collaboration avec des équipes interfonctionnelles pour concevoir et déployer une infrastructure évolutive et sécurisée.
• Utilisation de systèmes de contrôle de version, en particulier Git, pour gérer les fichiers de configuration et le code d’infrastructure.
• Travail sur l’optimisation des performances du système, l’identification et la résolution des problèmes liés à l’infrastructure.
• Contribution au développement et à la mise en œuvre des meilleures pratiques pour la gestion de l’infrastructure.
• Collaboration avec les membres de l’équipe pour améliorer l’observabilité générale du système et la surveillance.

Synalabs Paris, France
ADMiNiSTRATEUR SYSTÈME Sept. 2017 ‑ Dec. 2017
• Rôle: Administrateur systèmes, Ingénieur d’Exploitation
• Mission & contexte: Gestion et administration des systèmes d’hébergement web pour divers clients chez Synalabs.
• Environnement: web hosting, Apache, Nginx, MySQL, PostgreSQL, Jenkin...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Ingénieur hadoop, Missions Ingénieur hadoop, Ingénieur hadoop freelance, Ingénieur hadoop hive, Ingénieur hadoop hdfs, Ingénieur hadoop zookeeper, Ingénieur hadoop hbase

Les nouvelles missions d'Ingénieur hadoop

Développeur Big data senior sur Paris

SQL DATASTAGE COGNOS BIG DATA
ASAP
Paris
6 mois
Voir la mission

Développeur Décisionnel DATA

JAVA TERADATA APACHE HADOOP
ASAP
paris
6 mois
Voir la mission

Expert Hadoop (Cloudera CDP) maîtrisant Ansible

APACHE HADOOP HASHICORP TERRAFORM ANSIBLE Cloudera
ASAP
puteaux
12 mois
Voir la mission

Développeur Big Data / Data Engineer H/F

DATA PYTHON APACHE HADOOP SCALA APACHE SPARK
ASAP
Paris
36 mois
Voir la mission

Expert Hadoop (Cloudera CDP)

LINUX SHELL UNIX PYTHON AGILE ANSIBLE
ASAP
92
12 mois
Voir la mission

Senior Data Engineer

JAVA PYTHON SCALA ANSIBLE APACHE HADOOP
ASAP
92
12 mois
Voir la mission

Architecte Train Data

ORACLE APACHE HADOOP SAFE
ASAP
92
18 mois
Voir la mission

DATA ENGINEER

JAVA APACHE SPARK APACHE HADOOP
ASAP
Télétravail
36 mois
Voir la mission

Développeur .NET à Charenton-le-Pont

.NET
ASAP
94 - Charenton-le-Pont
6 mois
Voir la mission

Consultant Big data Hadoop

APACHE SCRIPT SHELL APACHE HADOOP
ASAP
94 - FONTENAY-SOUS-BOIS
6 mois
Voir la mission
Je trouve ma mission

Les profils d'Ingénieur hadoop ont postulé à :

Data analyst

SQL Google Cloud Platform BIGQUERY TABLEAU SOFTWARE Qlik
ASAP
91 - MASSY
12 mois
Voir la mission

Architecte Cloud (AWS)

Cloud AWS
ASAP
69 - LYON
24 mois
Voir la mission

Développeur Java J2EE (H/F) en full remote

JAVA SQL GIT APACHE KAFKA Kubernetes
ASAP
69 - LYON
24 mois
Voir la mission

Business analyst / Product Owner

AGILE
ASAP
92 - COURBEVOIE
12 mois
Voir la mission

Chef de Projet AMOA

AGILE JIRA CONFLUENCE
ASAP
75 - PARIS
6 mois
Voir la mission

Expert Java

JAVA Spring Boot DOCKER Kubernetes
ASAP
75 - PARIS
6 mois
Voir la mission

Tech Lead Talend

TALEND
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Expert DevOPS

LINUX GITLAB DEVOPS ANSIBLE Kubernetes
ASAP
92 - MALAKOFF
7 mois
Voir la mission

Data Analyst

TERADATA INFORMATICA TABLEAU SOFTWARE
ASAP
92 - BAGNEUX
6 mois
Voir la mission
Je trouve ma mission

Les derniers CV d'Ingénieur hadoop disponibles

CV Architecte QLIKVIEW
Jules

Architecte QLIKVIEW

  • Montrouge
QLIKVIEW BUSINESS OBJECTS BIG DATA
CV Ingénieur développeur Python/DevOps/Systèmes
Renaud

Ingénieur développeur Python/DevOps/Systèmes

  • CASTELNAU-LE-LEZ
PYTHON SQL LINUX API RESTful TRANSACT SQL DJANGO OPEN SOURCE CI/CD NoSQL BIG DATA
CV Product Owner - Scrum Master
Javier

Product Owner - Scrum Master

  • TOURS
SCRUM AGILE KANBAN JIRA SQL DATAVIZ EXCEL
CV Data Engineer
Maxime

Data Engineer

  • LA ROCHELLE
BIG DATA Google Cloud Platform PYTHON SQL BIGQUERY LINUX DATAWAREHOUSE CI/CD JAVASCRIPT DATAVIZ
CV Expert CyberSécurité
Djasra

Expert CyberSécurité

  • PARIS
PKI JAVA J2EE OPENTRUST BIG DATA SCRIPT SHELL PYTHON DEVOPS Kubernetes
CV Architecte ORACLE
Jean-Luc

Architecte ORACLE

  • ROISSY-EN-BRIE
ORACLE APACHE SPARK APACHE KAFKA UNIX SYSTEMES EMBARQUES APACHE HADOOP APACHE HIVE
CV Manager, expert Business Intelligence, blockchain, AI, banking payments
Younes

Manager, expert Business Intelligence, blockchain, AI, banking payments

  • Asnieres-Sur-Seine
BI BIG DATA DATA BLOCKCHAIN
CV Expert Bigdata/DevOps
Michel

Expert Bigdata/DevOps

  • Vigneux de Bretagne
BIG DATA Kubernetes APACHE KAFKA LINUX APACHE HADOOP ELK Cloudera PYTHON MYSQL POSTGRESQL
CV Architecte Applicatif / Tech Lead / DevOps
Evariste

Architecte Applicatif / Tech Lead / DevOps

  • PARIS
API RESTful Microservices DEVOPS GIT GITLAB DOCKER OAUTH JAVA Spring Boot Cloud AWS
CV Consultant API
Mouhamadou

Consultant API

  • Asnières-Sur-Seine
HTML LINUX ORACLE J2EE LDAP TOMCAT ECLIPSE VMWARE SCRUM SOA
Je trouve mon freelance