Missions Big Data : Une multitude d'offres publiées chaque jour

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions Big Data à pourvoir

Ingénieur DBA / DevOps (Cloud AWS)

Oracle POSTGRES HashiCorp Terraform DevOps CI/CD
ASAP
92 - PUTEAUX
36 mois
Voir la mission

🚀 Consultant Data Scientist / Machine Learning – Environnement GCP & MLOps

Big Data BigQuery Microsoft Azure Machine Learning DataRobot MLOps
ASAP
75 - PARIS
86 mois
Voir la mission

PARIS - Ingénieur Data / Ingénieur Cloud

SQL Server Data Big Data Azure Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

développeur Ruby on rails

HTML POSTGRES Ruby on Rails Node.js Google Cloud Platform
ASAP
75 - PARIS
12 mois
Voir la mission

Expert IT

Active Directory VMware DevOps Blockchain Cloud AWS
ASAP
81 - CASTRES
5 jours ouvrés
Voir la mission

Tech Lead Data Dataiiku

Data ODI Big Data Microsoft Power BI Dataiku
ASAP
79 - NIORT
36 mois
Voir la mission

Product manager senior plateformes & architecture Data IA

Gestion multi-projets
ASAP
75 - PARIS
12 mois
Voir la mission

Expert OpenStack

Linux Grafana ELK OpenStack Ansible
ASAP
78 - VERSAILLES
12 mois
Voir la mission

DATA ENGINEER

Python Git Django Docker Python (Pandas, NumPy)
ASAP
75 - PARIS
12 mois
Voir la mission

Ingénieur de production / DevOps

Linux CFT Autosys Ansible Kubernetes
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission Big Data

Les intervenants Big Data ont aussi candidaté à :

Data Engineer

SQL Data Python Git PySpark
15/12/2025
92 - COURBEVOIE
12 mois
Voir la mission

consultant data / API / BI

XML JSON
ASAP
92 - MONTROUGE
6 mois
Voir la mission

Consultant Sécurité ISO 27001/2

Cybersécurité Normes ISO 27001
ASAP
75 - PARIS
6 mois
Voir la mission

⚙️ Chef(fe) de Projet IoT – Énergie & Innovation – Mission Longue – 500 €/jour

IoT
ASAP
92 - NANTERRE
86 mois
Voir la mission

Data Analyst / Data Scientist Confirmé SIRH (WORKDAY) – Mission Long Terme – 450 €/jour

Microsoft Power BI Workday Gestion SIRH
ASAP
92 - MONTROUGE
86 mois
Voir la mission

PMO - Program Management Officer IT

Excel Agile Jira PMO PMO (Project Management Office)
ASAP
75 - PARIS
12 mois
Voir la mission

3 business analyst compétence crédit à la consommation

SQL Agile
ASAP
75 - PARIS
12 mois
Voir la mission

Product Owner sur des activités Run et change IAutomation (RPA)

Agile
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur Python Confirmé (H/F) – Secteur Assurance – Paris Centre

SQL Excel Python Git Pandas
ASAP
75 - PARIS
12 mois
Voir la mission

Chef de projet avec une double expertise digital / IA gen

Transformation digitale IA Générative
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission Big Data
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé d'expériences de Djim,
freelance BIG DATA habitant la Seine-Saint-Denis (93)

  • Consultant Big Data

    Eradah capital Dubai, Émirats Arabes Unis
    Jan 2019 - aujourd'hui

    Mise en place d’une solution de reporting bancaire en temps réel avec kafka Stream
    Développent de solutions big data en temps réel
    Migration de la sérialisation et de dé-sérialisation de json à avro avec kafka schema registry
    Développent d’applications de temps réels avec KAFKA Stream
    Mise en place de Kafka connect applications pour intégrer les données depuis les bases transactionnelles.
    Création de connecteurs débezium
    Développement d’un programme Spark Streaming
    Implémentation des « kafka Producer » de données pour stocker les erreurs
    Mise en place des tests Unitaires
    Gestion des logs des pods avec Fluentd
    Création de tableaux de bords des logs avec kibana

    Technology: Kafka, Kafka Stream, Kafka Connect, Debezium, Hadoop, Kubernetes, Docker, Microsoft Azure, Spark, SQL Server, Fluentd, Elasticsearch, Kibana
  • Consultant Big Data

    Société Générale Paris, France
    Jan 2016 - Jan 2019

    Mise en place d’une solution Big Data vison 360 pour le département ressources humaines
    Mise en place d’une application Big Data pour certifier de données bancaires
    Mise en place d’une application Big Data d’exploitation des données de ServiceNow

    Définition de solutions techniques Big Data pour différents use cases
    Spécifications fonctionnelles et techniques
    Conception de modèle de données Big Data
    Développement de traitements d'extraction et de transformation de données
    Développement d’un programme Spark Streaming
    Conception et développement de modules de traitements de données en Spark
    Tuning pour les performances d’applications Spark
    Migration programme Spark 1.6 vers Spark 2.2
    Intégration de données dans de tables Hive
    Création et gestion d’indexes avec Elasticsearch et Kibana
    Création de tableaux de bord en Kibanna
    Création de workflows Oozie pour l’ordonnancement des programmes
    Création des tests Unitaires

    Environnement: Hortonworks, Java, Scala, Spark, Apache, Github, Hadoop, Oozie, Maven, Hue, Hive, HBase, Elasticsearch et Kibana
  • Consultant Big Data

    Société Générale Paris, France
    Jan 2016 - Jan 2019

    Définition de solutions techniques Big Data pour différents use cases
    Spécifications fonctionnelles et techniques
    Conception de modèle de données Big Data
    Développement de traitements d'extraction et de transformation de données
    Développement d’un programme Spark Streaming
    Conception et développement de modules de traitements de données en Spark
    Tuning pour les performances d’applications Spark
    Migration programme Spark 1.6 vers Spark 2.2
    Intégration de données dans de tables Hive
    Création et gestion d’indexes avec Elasticsearch et Kibana
    Création de tableaux de bord en Kibanna
    Création de workflows Oozie pour l’ordonnancement des programmes
    Création des tests Unitaires

    Environnement: Hortonworks, Java, Scala, Spark, Apache, Github, Hadoop, Oozie, Maven, Hue, Hive, HBase, elasticsearch et Kibana
  • Consultant Big Data

    Capgemini Rennes, France
    Jan 2016 - Jan 2016

    Analyse de faisabilité de migration buisines intelligence vers le Big Data
    Définition d'architecture et de solutions Big Data
    Développement de traitements d'extraction et de transformation de données
    Modélisation de données avec Cassandra
    Chargement de données sur Cassandra
    Conception et développement de modules de traitements de données en Spark
    Création des « User Defined Functions » pour les transformations Big Data
    Réaliser de la veille technique Big Data

    Environnement: Spark, Cassandra, Scala, Hadoop, Eclipse, Maven
  • Consultant Business Intelligence

    Capgemini Rennes, France
    Jan 2012 - Jan 2016

    Analyse des besoins des évolutions techniques
    Etude d’impact des évolutions des applications Business intelligence
    Rédaction des spécifications fonctionnelles
    Rédaction des spécifications techniques
    Développent SSRS reports avec SSRS 2012 pour les applications de facturations, d’achats et finances
    Conception de Datawarehouses et Datamarts
    Chargement des données de fichiers plats et Excel dans une base de données Oracle en utilisant SQL * Loader
    Création de packages SSIS pour charger des données dans une base de données centralisée SQL Server (à partir de sources de données diversifiées)
    Création et / ou modification des procédures stockées, des tables et des requêtes
    Création de plans de test et les scripts de test en fonction des besoins
    Gestion des validations fonctionnelles et d’intégrations
    Rédaction documentation technique et d’installation pour la pré-production
    Rédaction documentation technique et d’installation pour la production

    Environnement: Unix/Shell, Oracle, Quality Center, SQL avancé, SSIS (SQL Server Integration Services), SSRS (SQL Server Reporting Services), SQL Server Studio
  • Stage de fin d’étude en Business Intelligence

    Orange Grenoble, France
    Jan 2011 - Jan 2011

    Mise en place de solutions de business intelligence pour le secteur médical
    Modélisation d'un Datawarehouse (création, paramétrage et configuration)
    ETL : création de jobs et conception de flux d'alimentation
    Création de procédures stockées, d'informations map, de cubes, de Reporting et de tableaux de bord

    Environnement: SAS (Enterprise guide, Web Report Studio, Enterprise Miner, Information Map), Oracle DB, UML
Voir le profil complet de ce freelance