Missions Data lake : Une multitude d'offres déposées tous les jours

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions Data lake à pourvoir

Ingénieur Devops

LINUX PYTHON GIT DEVOPS AZURE
ASAP
75 - PARIS
36 mois
Voir la mission

DataOps AWS F/H

DATA Cloud AWS Amazon Kinesis AWS LAMBDA
ASAP
92 - BAGNEUX
3 mois
Voir la mission

Ingénieur DevOps AZURE F/H

GIT DEVOPS AZURE DOCKER CI/CD
ASAP
69 - DARDILLY
3 mois
Voir la mission

Data Analyst

DATA
ASAP
75010-Paris
90 jours ouvrés
Voir la mission

Ingénieur développeur Cloud full-stack Python / Angular

PYTHON Angular
ASAP
Montpellier
6 mois
Voir la mission

DevOps Cloud Azure ou AWS

DEVOPS AZURE DOCKER Kubernetes
ASAP
75
6 mois
Voir la mission

Expert fonctionnel Salesforce

SALESFORCE
21/10/2024
44 - NANTES
24 mois
Voir la mission

Consultant DevOps

DATA PYTHON AZURE Cloud AWS
ASAP
92 - ANTONY
12 mois
Voir la mission

Développeur Big Data

ASAP
75
6 mois
Voir la mission

Data Engineer - Spécialiste Singlestore

MYSQL DATA BIG DATA IBM
ASAP
75 - PARIS
6 mois
Voir la mission
Je trouve ma mission Data lake

Les intervenants Data lake ont aussi candidaté à :

Data Analyst E-commerce

SQL DATA PYTHON
ASAP
94 - IVRY-SUR-SEINE
12 mois
Voir la mission

Architecte urbaniste applicatif

AGILE MONETIQUE SQL ORACLE
ASAP
75 - PARIS
3 mois
Voir la mission

Tech Lead DATA F/H

DATA AGILE AMAZON WEB SERVICES
ASAP
75 - PARIS
12 mois
Voir la mission

Tech Lead Talend

TALEND
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Tech Lead (AWS)

SQL PYTHON Cloud AWS PYSPARK
ASAP
75 - PARIS
12 mois
Voir la mission

CLoud Architect GCP

Google Cloud Platform
ASAP
75 - PARIS
6 mois
Voir la mission

ANALYTICS ENGINEER

SQL PYTHON
ASAP
92 - BOULOGNE-BILLANCOURT
130 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Product Owner - Data

SQL PYTHON AGILE DATAVIZ
ASAP
92 - BOULOGNE-BILLANCOURT
3 mois
Voir la mission
Je trouve ma mission Data lake
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Sofiane,
freelance DATA LAKE résidant dans le Val-de-Marne (94)

  • Intégrateur Big Data & DevOps

    SOCIETE GENERALE
    Jan 2022 - Jan 2023

    Contexte : La Société Générale doit jumeler les entités Crédit du Nord et Société Générale. Il faut donc
    trouver un moyen unique de gérer les données des deux entités.
    Au sein de l’équipe Intégrateur, constituée de 7 personnes, nous intégrons le code dans les environnements de
    production.
    Missions :
    ● Création des tables Hive (interne / externe)
    ● Création et gestion des jobs Control-M
    ● Déploiement des applications avec des pipelines ci/cd sous Jenkins
    ● Gestion des incidents sous Jira
    ● Ecriture des scripts python et Shell pour la copie des données entre clusters
    ● Gestion des habilitations
    ● Déployer des jobs Talend
    ● Rédaction de la documentation
    ● Exécution des modèles AWX
    ● Utilisation des pipelines Jenkins
    ● Échange et coordination avec les intégrateurs de Bangalore.

    Environnement technique : Python v.3,CDP, DevOps, CI/CD, Jenkins, Talend, Control-M, CDP v.7, HDP v.6, Ansible Awx, Scripting Bash/Unix, Oozie, Hive, Spark, git, linux, Jira, Cyberark, HDFS, Kerberos, Artifactory
  • DevOps

    BNP (BP2i)
    Jan 2019 - Jan 2022

    Missions :
    ● Installer, tester et mettre en production les solutions d'infrastructure et logiciel Big Data
    ● Assurer le RUN des projets passés en production : Traiter les incidents de niveau 2 et 3 et remettre en
    service dans les meilleurs délais
    ● Assurer le support HNO 24/7 (par des astreintes)
    ● Mettre en œuvre les actions correctives à court et moyen terme
    ● Accompagner la maîtrise d'ouvrage dans la validation des livrables et l'assistance à la recette
    utilisateurs
    ● Renouvellement et création des certificats de sécurité.
    ● Mise en pilotage des services Hadoop (HDP) dans l'environnement BNP
    ● Participer à l'accompagnement au changement
    ● Maintien en condition opérationnel du parc BigData (1200 VM Redhat 6/7)
    ● Industrialisation des tâches récurrentes système et applicative (Ansible)
    ● Rédaction de document d'exploitation, pour le support utilisateur
    2
    ● Développement de checks applicatif pour la supervision
    ● Création playbook de migration IOP vers HDP
    ● Industrialisation et déploiement (Ansible, bash)
    ● Upgrade du système d’exploitation RedHat (Rhel 7.9 actuellement)
    ● Application de Patch correctif sur les clusters
    Environnement Technique : Ansible, Git, RedHat, HDP, Kerberos, LDAP, Ranger, Knox, Zookeeper, HDFS, Yarn,
    Spark, Hive, Hbase, Jupyter, HDFS, Hue, RStudio, Python, CLOUD

  • BOUYGUES CONSTRUCTION
    Jan 2018 - Jan 2019

    Contexte : Industrialisation & Développement d'une plateforme Big Data pour répondre aux besoins
    d'hébergement des données brutes du groupe, et qui seront traitées par les data scientistes des différentes
    structures clientes du centre de compétence des solutions d'infrastructure de BYCN IT
    Responsabilités :
    ● Réalisation de différentes études de cas :
    → Inventaire des métriques pertinents/vitaux sur Azure Data-lake storage afin de mettre en place
    une solution adaptée pour remonter et centraliser les logs & métriques ainsi qu'une solution pour
    les exploiter
    → Chiffrement des données confidentielles sur le Data-Lake (Savoir comment et quoi chiffrer parmi
    les données confidentielles sur le Data-Lake afin d’assurer la protection et la confidentialité des
    données)
    → Étude sur l'organisation du Data Lake (Réalisation d’un schéma d’architecture contenant les outils
    installés dans chaque host ainsi que les bus de réseau et de communication)
    ● Création de graph & dashboard sur des métriques (Yarn, Spark, Tez, RAM)
    ● Création de VM sur Microsoft Azure
    ● Réalisation d’un playbook Ansible contenant des tâches telles que :
    → Groupadd & Useradd
    → Ajout du rôle : yum clean all
    → Add Confluent repo
    → Substitution d’un string, ou d’une chaîne de caractère
    ● Réalisation d'un script Python d'agrégation/Split des csv en fichier de 256 mo
    ● Migration de données source (5 To) d'un data lake vers un autre data lake
    ● Lister les répertoires de déversement des logs sur chaque nœud dans chaque host du cluster
    (Hadoop, Kafka)
    Environnement Technique : CentOS 7, Python, Elasticsearch, Kibana, Ansible, Hadoop/Spark, de l’Architecture,
    Grafana, Microsoft Azure, GitLab, VMware
    3

  • Data Engineer

    SMILE
    Jan 2017 - Jan 2018

    Contexte : Développement d'un use case avec Spark pour alimenter un cluster Hadoop afin de ressortir les
    tweets avec des hashtags spécifiques et projeter des KPI
    Responsabilités :
    ● Veille technologique
    ● Monitoring et supervision de l’infrastructure Big Data
    ● Mise en place d'un cluster Big Data
    ● Extraction des données (Tweet)
    ● Application des modèles de machine learning

    Environnements techniques : Python, Elastic Search, Kibana, Langage R, Hadoop/Spark, Scala, Hortonworks
  • Consultant Big Data / Datascience

    ESIC
    Jan 2017 - Jan 2017

    Contexte : Étude de l’impact des crimes sur le prix du loyer dans les zones urbaines américaines
    Responsabilités :
    ● Analyser les prix mensuels moyens du loyer par mètre carré pour différentes villes des USA de
    novembre 2010 à janvier 2017
    ● Analyser les crimes perpétrés dans ces villes ainsi que leurs impacts sur l’augmentation ou la diminution
    des prix
    ● Traitement et nettoyage des données
    ● Visualisation
    ● Prédiction des loyers 2017

    Environnements techniques : Langage R, BDD Cassandra, Talend, Elastic Search, Kibana, Méthode Agile, Microsoft Microstrategy
  • Développeur Big Data

    LABORATOIRE UNIVERSITE PARIS 8
    Jan 2016 - Jan 2016

    Contexte : Gold standard morphologique extrait de Wiktionnaire
    ● Étude de la structure du Wiktionnaire ainsi que les standards du tagging morphologique
    ● Nettoyage des données et intégration dans une BDD
    ● Production d’une ressource

    Environnements techniques : Ubuntu, Text Mining, programmation C
Voir le profil complet de ce freelance