Consultant Big Data freelance : Principaux freelances dispos et nouvelles missions mises en ligne

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Heni,
Consultant Big Data habitant les Hauts-de-Seine (92)

  • Consultant BigDATA

    Mission Groupe euro-information
    Jan 2019 - aujourd'hui

    Equipe infrastructure : 3A60
    Gestion des clusters HADOOP des environnements de travail pour le groupe euroinformation.
    Projet Monitoring Ambari Alertes : Remonter les alertes d𠆚mbari dans l’outil de monitoring BEM.
     Développement d’un POC en Python pour API REST pour récupérer les alertes d𠆚mbari de tous les environnements (DEV, RECETTE, PRE-PRO, PROD)
     Gestion d’une base de données SQLITE contenant les configs utilisées.
     Formatage et standardisation des alertes récupérées pour les envoyer avec XSURVEI vers BEM.
     Développement des tests unitaires.
     Mise en production du POC et création du RPM.

    Projet Monitoring Ambari Manage users-groups: Gérer les utilisateurs et groupes d𠆚mbari
     Développement d’un POC en Python pour API REST pour gère (get /delete) des (users/groups) d𠆚mbari de tous les environnements (DEV, RECETTE, PRE-PRO, PROD).
     Récupération des users/groupe via ligne de commande ou des fichiers.
     Gestion d’une base de données SQLITE contenant les configs utilisées.
     Développement des tests unitaires.
     Mise en production du POC et création du RPM.

    Projet Monitoring Ambari STOP-START-RESTART des composants d𠆚mbari
     Développement d’un POC en Python pour API REST pour STOPSTART-RESTART des composants d𠆚mbari de tous les environnements (DEV, RECETTE, PRE-PRO, PROD).
     Récupération des actions via ligne de commande.
     Gestion d’une base de données SQLITE contenant les configs utilisées
     Développement des tests unitaires.
     Mise en production du POC et création du RPM.

    Projet Monitoring Ambari : Dump-Restore toutes les bases de données Postgres
     Développement d’un POC Bash pour Dump-Restore de toutes les bases de données Postgresql de tous les environnements et renvoie des fichiers de Backup d e la machine Ambari Prod vers Ambari StandBy s’il existe.
     Assurer l’échange des clés entre la machine Ambari Prod et StanBy
     Mise en production du POC et création du RPM

    Environnement Technique: Python 2.7, Hadoop, PostgreSq, Shell, Hive, Sqlite, Linux, Junit, Git, MremoteNG.
  • Consultant Big DATA

    Mission Groupe Adeo
    Jan 2018 - aujourd'hui

    DATA LAB :
    Chercher de la valeur depuis les données Adeo à travers de pocs de 10 jours pour toutes les BU.

    En méthodologie AGILE :
     Accompagner les Data Scientists et les data Analysts.
     Préparer l’infrastructure pour le lab afin de réaliser des pocs
     Soutien technique à l’équipe lors de la réalisation des pocs
     Gérer les flux de données entre les bases de données relationnelles et Hadoop via Stambia
     Gérer les bases de données et le HDFS
     Faire la relecture et la validation des codes.
     Mise en Prod ou industrialisation des pocs prouvés.

    L’équipe Data Solution
    La mise en production des pocs sur la plateforme GCP et les exposer pour toutes les BU d�o partout dans le monde.
     Projet CPQ : Le projet Customer Purchase Quantity vise à connaitre la quantité achetée par client et par article.
     Projet API Complémentaire : Vise à identifier les produits complémentaires afin de les suggérer aux clients.

    En méthodologie AGILE :
     Etude de l𠆚rchitecture à mettre en place sur la GCP.
     Consommer des données déjà sauvegardé sur FireStore ou BigQuery
     Développer les fonctionnalités en python
     Assurer le logging de l𠆞xécution des requetés sur BigQuery
     Créer des tests unitaires
     Faire la relecture et la validation des codes

    Environnement Technique: Google Cloud Platform, Python, JAVA7, Teradata, HDFS, Shell, Stambia, Hive, Sql, Linux, Junit, Git, SVN.
  • Consultant Big DATA

    Jan 2017 - aujourd'hui

    Projet Supervision Agence
    Le projet vise à optimiser et industrialiser le processus de pilotage des flux de colis dans les sites Chronopost. Il s'agit d'une application web avec un back-end en micro services REST.

    En méthodologie AGILE :
     Développement des batch qui permettent d'alerter quelques catégories de colis
     Consommer les résultats des batch via une interface web sous forme d'indicateur.
     Ajout de fonctionnalités sur l'application Web supervision.
     Mettre en place Elasticsearch (client rest basic + kibana) pour étudier les logs utilisateurs
     Faire la relecture et la validation des codes.

    Projet Vision
    Le projet vise à créer une plateforme de micro-services REST dont le but de centraliser les services de plusieurs applications Chronopost.
    En méthodologie AGILE :
     Gestion de la base de données Cassandra
     Amélioration des micro-Services existants
     Développement des nouveaux micros services
     Créer des tests d'acceptante et des tests unitaires
     Faire la relecture et la validation des codes

    Environnement Technique : JAVA7, Tomcat7, micro-services (Dropwizard), REST (Jersey, Swagger), Spring MVC, Spring (IOC, AOP, security, Batch), Apache Tiles, Log4j, Cassandra (Datastax DevCenter, CQL),Maven 3.1, Jenkins, GIT, SourceTree, Gitflow, TestNG, Mockito 1.10.8, JSP, HTML, Javascript, JQuery, CSS, ElasticSearch : restClient, Kibana, tranportClient, API-Java Mise en place d’une plateforme Big DATA pour l’Observatoire de la Mobilité Electrique Consultant Big DATA chez Enedis. n
  • Consultant Big DATA

    Labsoft Ingénierie - Mission Chez Airbus Toulouse
    Jan 2015 - Jan 2017

    Développement d’une application pour enregistrer et manager les données provenant des essais en vols
    En méthodologie AGILE :
     Développement d’une application pour enregistrer et manager les données
     provenant des essais en vols.
     Gestion de la base de données Ingres et H2.
     Développement de Web Services Restful
     Phase robustification des fonctionnalités de l𠆚pplication existante Back end.
     Développement des Web Services pour la migration des données en J2EE.
     Développement des Tests Unitaires et Tests d’Intégration.

    Environnement Technique : Java 8, Jersey/JAX-RS, SQL, Json, Eclipse, Maven, Jenkin
  • StagiaireStage de fin d’étude

    chez le Laboratoire LGP de l𠆞NI de Tarbes
    Jan 2015 - aujourd'hui

    Amélioration d’un prototype logiciel de planification distribuée multi-site
     Migration de la solution crée en C++ de Windows vers Linux.
     Ajout des fonctionnalités et des interfaces sur le prototype.
     Gestion et enregistrement des données sur la base de données.

    Environnement Technique : Ubuntu 14.10, Windows 7, Code Blocks, Microsoft Visual studio 2010, MySQL, UML, GIT, Scrum
  • Stage

    chez la Startup IcodeVision
    Jan 2014 - aujourd'hui

    Conception et développement d’une application mobile pour l’insertion des clients.
    Stagiaire
     Rédaction des spécifications fonctionnelles.
     Création des Web Service en Java.
     Consommation des Web Services à travers une application Android.

    Environnement technique : Androïd 4.2 - Ubuntu 12.04 – Eclipse – WebServices – MySQL – GIT – Scrum
  • (1 année universitaire) StagiaireStage

    chez Laboratoires de l’IIT
    2012 - 2013

    Développement et mise en place d'un outil d'administration de Cloud Computing
    en ligne.
     Installation, modification et configuration OpenStack Essex
      Élaboration des interfaces pour le Dashboard
     Élaboration des bureaux distants pour les clients en utilisant le composant VNC proxy.

    Environnement technique : OpenStack Essex - Ubuntu 12.04 - Python Django.
  • Développement et étude du projet Big DATA

    Global Marketing Forecast pour le département Stratégie Airbus
    aujourd'hui

    En méthodologie AGILE :
     Développement d’une application afin d𠆞stimer le marché de transport aérien pour les 20 prochaines années en se basant sur les données du marché transport aérien actuel.
     Gestion de la base de données SQL Server.
     Assurer le bon fonctionnement de la méthodologie Scrum
     Phase de maintenance des fonctionnalités de l𠆚pplication existante Backend et Front-end.
     Développement des Web Services en C# déjà maquettés en Python.
     Consommation des Web Services Back-end via des interfaces développées en ExtJS

    Environnement Technique : C#, ExtJS, Python, Ubuntu14.10, Windows 7, Visual Studio 2010, SQL Server, IntelliJ15.03, Tomcat 7.0, SVN, Agile-Scrum
  • Stage

    chez la Société PROLOGIC
    aujourd'hui

Voir le profil complet de ce freelance

Freelances similaires parfois recherchés

Consultant fonctionnel big data

Les nouveaux profils de Consultant Big Data freelance

CV Technical Leader data
Yanis

Technical Leader data

  • TOURNAN-EN-BRIE
Data Python SQL Apache Spark Cloud AWS
Bientôt disponible
CV Data Engineer / Full Stack
Aniss

Data Engineer / Full Stack

  • MAISONS-LAFFITTE
Apache Spark Python Scala SQL Cloud AWS Docker React.js Rust Airflow Kubernetes
CV Chef de projet
Irene

Chef de projet

  • TINQUEUX
SQL Agile Oracle Microsoft Power BI
CV Data Engineer SCALA
Abdallah

Data Engineer SCALA

  • MELUN
Scala Apache Spark Databricks PySpark Git Jira Jenkins Apache Hadoop Maven
CV Data Engineer Senior
Abdellah

Data Engineer Senior

  • FRESNES
Python Linux GitLab CI/CD Jenkins DevOps Ansible Docker Java Kubernetes
CV Formateur informatique full stack
Atef

Formateur informatique full stack

  • BEAUVAIS
Java PowerPoint Word Linux PHP Symfony C# JSP React Native
CV Senior Data Engineer / Tech Lead
Moez

Senior Data Engineer / Tech Lead

  • PARIS
Apache Spark BigQuery Scala Google Cloud Platform SQL Python Cassandra
Bientôt disponible
CV DataOps
Mehdi

DataOps

  • PARIS
Apache Hadoop Python Ansible Kubernetes Docker CI/CD PySpark HashiCorp Terraform Google Cloud Platform GO
CV Consultant Big Data | Data Engineer
Dabah Cyrille Jethro

Consultant Big Data | Data Engineer

  • PARIS
Python Bash Apache Spark Azure Synapse Kubernetes Elasticsearch Docker Apache Hadoop Kafka Apache Hive
CV Data Engineer
Moncef

Data Engineer

  • PARIS
Apache Spark Kafka Scala Cassandra Git SQL Agile Jenkins Amazon AWS
Je trouve mon freelance

Nos dernières missions de Consultant Big Data freelance

Consultant Big data Hadoop

Apache Script Shell Apache Hadoop
ASAP
94 - FONTENAY-SOUS-BOIS
6 mois
Voir la mission

Consultant BIG DATA

HORTONWORKS Apache Spark Apache Kafka
ASAP
37 et télétravail
3 mois
Voir la mission

Consultant Big Data

Big Data Apache Spark Scala Apache Hive
ASAP
44 - Nantes / Remote
3 mois
Voir la mission

Consultant BIG DATA

Cloudera Apache Spark Python Apache Kafka Dataiku
ASAP
33 - Bordeaux
3 mois
Voir la mission

Consultant Big Data

Apache Spark Apache Hive Python HDFS
ASAP
31 - Toulouse
3 mois
Voir la mission

Consultant Big Data

Apache Hadoop Talend Big Data
ASAP
79 - Niort
3 mois
Voir la mission

Consultant BIG DATA

Big Data Cloudera Apache Hadoop HORTONWORKS
ASAP
29 - Brest
3 mois
Voir la mission

Consultant Big Data

Apache Hadoop Apache Hive HORTONWORKS
ASAP
33 - Bordeaux
3 mois
Voir la mission

Admin HADOOP / Consultant BIG DATA

Big Data Apache Hadoop Elasticsearch
ASAP
Guyancourt
3 mois
Voir la mission

Consultant BIG DATA

Big Data Apache Hadoop Cloudera HORTONWORKS
ASAP
75013 - PARIS
12 mois
Voir la mission
Je trouve ma mission