Freelance APACHE SPARK : Nos meilleurs consultants inscrits

Je dépose une mission gratuitement
Je dépose mon CV

APACHE SPARK : définition

Apache Spark est un framework open source. Spark était initialement développé à par AMPLab. Apache Spark est une infrastructure de traitement parallèle qui permet d'exécuter des applications analytiques, en utilisant des machines en clusters.

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois de Dr. Ahmed,
freelance APACHE SPARK habitant les Yvelines (78)

  • CEO – Tizwal-IT – Paris (Freelance et projets en forfait)
    Jan 2019 - aujourd'hui

    Accompagner mes clients dans leurs projets RPA et de Process Mining. J’ai l’ambition de
    rendre le RPA accessible à toutes les entreprises quelles que soient leurs tailles et leurs
    maturités IT. Quelques réalisations que j’ai effectuées dans ce cadre :
    • Réalisation :
    o CompetitorWatch : application de veille concurrentielle destinée à la grande
    distribution leur permettant d’avoir des données concurrentielles précises, à jour
    et fiable. Ces données, collectées à l’aide de robots UiPath, englobent le
    catalogue des produits, les prix et les promotions peuvent être regroupées par
    zone géographique et gamme de produits
    o UbiquiStore : afin d’aider les commerçants à renforcer leurs présences en ligne,
    j’ai développé une suite de robots automatisant la réplication du catalogue de
    produits créé sur une plateforme E-Commerce vers une autre. La suite de rebots
    supporte actuellement les réplications suivantes : Facebook ↔ Amazon, Google
    Shopping ↔ Amazon. Cette suite de robots est disponible sur UiPath et
    OpenBots
    o ProspAssist : destiné à une entreprise accompagnant les artisans dans les
    démarches de renouvèlement de leurs certifications RGE, j’ai construit une suite
    de robots permettant de collecter des certifications RGE disponibles au format
    PDF, de les parser pour extraire les informations de l’artisan, ses qualifications
    ainsi que leurs dates d’échéance. Ces informations sont croisées avec d’autres
    informations issues d’autres sources web pour construire une vue globale de
    l’activité de l’artisan. Un planning de prospection est établi à la base de ces
    données récupérées

    Environnement technique : UiPath, OpenBots, OpenRPA, Jira, Trello, Windows
  • Technical Leader Big Data/ML - Booper – Paris (Freelance)
    Jan 2019 - aujourd'hui

    • Réalisation : Mission de conseil pour une Startup spécialisée dans le
    développement d'une solution de pricing destinée aux Retailers sur des
    environnements Big Data. Ma mission était :
    o Audit de l'existant et étude de faisabilité de la migration de l'application
    vers une architecture Big Data
    o Établissement d'une Roadmap sur 2 ans avec une priorisation des
    chantiers
    o Construction d'un Data Hub servant comme source de données unifiée et
    centralisée pour tous les modules de l'application
    o Refonte de l'application de pricing pour la porter sur des architectures Big
    Data
    o Développement d'un module d'analyse des tickets de caisse servant dans
    la construction des compagnes promotionnelles, l'agencement des rayons,
    les algorithmes de pricing, connaissance clients
    o Management et formation d'une équipe de 5 développeurs sur : Big Data,
    Machine Learning, RPA (UIPath et OpenRPA).
    o Automatisation des tests avec OpenBots, OpenRPA

    • Environnement technique : Hortonworks (HDP, HDF), Apache Spark, Spark ML, FP Mining, ElasticSearch, Apache Kafka, Apache HBase, HDFS, Machine Learning, Docker, Spring Boot, OpenRPA, Postgresql, Git, Jenkins, Jira, Trello, Linux
  • Directeur de la Practice Data Analytics

    Experis France – Paris
    Jan 2018 - Jan 2019

    J’étais en charge de la définition et la mise en place de la stratégie d’Experis France sur le
    Big Data, Data science, Business Intelligence, Intelligence Artificielle et du Process Mining
    (Process Excellence). Mes missions principales :
    • Définir et mettre en place l’orientation stratégique de la practice : technologie, RH,
    commerce, recrutement
    • Définir et mettre en place le Business Plan de la practice
    • Responsable du développement de la relation client et participation à des missions
    de conseil (engagement et livraison)
    • Développer la stratégie commerciale et valoriser les offres en compagnie d'une
    équipe commerciale dédiée
    • Organisation de séminaires/conférences/webinars de présentation de REX,
    vulgarisation et de sharing knowledge
    • Responsable de la gestion du personnel, de l'efficacité opérationnelle des équipes et
    de leurs formations
    • Responsable du développement des partenariats technologiques
    • Principal point de contact client sur le périmètre DATA
    • Définir les besoins RH et participer à la sélection et au recrutement des nouveaux
    collaborateurs au sein du service recrutement
    Accompagner les collaborateurs dans la définition de leurs plans de carrières

  • Senior Big Data Engineer

    Crédit Agricole CIB – Paris (via Experis France)
    2016 - 2018

    • Réalisation : Au sein de la cellule d’architecte Big Data intervenant sur les projets
    MASAI/FRTB, MIKA et MIFID II, j’étais en charge de :
    o Mise en place d’une plateforme BigData As A Service :
    § Automatisation du déploiement de HDP, HDF, Kafka, Elasticsearch
    § Sécurisation des plateformes HDP : Kerberos, Ranger, Knox
    o Automatisation du déploiement de plateforme Trifacta et support des
    utilisateurs
    o POCing de la plateforme de DataOps Streamsets pour l’intégration/curation
    des données dans les différentes briques du DataLake
    o Mise en place d’une plateforme centralisée de gestion de logs (Elasticsearch,
    Kibana et LogStash)
    o Participation à la mise en place du processus DRP
    o Formation et support dans équipes de RUN
    o Définition des best practices de développement (Apache Spark/Apache Spark
    Streaming)
    o Automatisation des déploiements des Jobs en utilisant un outil in-house
    HADeploy

    Environnement technique : HDP, HDF, Apache Spark, Elasticsearch, Kibana, Apache Kafka,Ansible, Streamsets, Trifacta, KVM, Python, Java, Postgresql, Git, Jenkens, Jira, Linux
  • Process Miner/Data scientiste - SwissLife - Paris (via Experis France)
    Jan 2015 - Jan 2015

    Réalisation : J’ai été en charge du développement d’un POC pour l’analyse de
    processus métiers via l’analyse de leurs empreintes techniques (logs,
    transactions, …) en utilisant les techniques de Process Mining. J’étais en charge
    de :
    o Sélection, récupération et préparation des données d’analyse
    o Reconstruction du processus, analyse du réseau social, contrôle de
    conformité, analyse du flux d’activité, …

    • Environnement technique : Python, Scikit Learn, Numpy, ProM, Postgresql
  • Big Data/Data Science Leader

    Ikayros – Paris
    Jan 2014 - Jan 2015

    Réalisation : au sein d’Ikayros, une startup spécialisée dans la data, j’étais en
    charge :
    o Du développement d’un algorithme probabiliste pour la géolocalisation
    Indoor en se basant sur les logs des bornes WIFI.
    o Du développement d’un algorithme combinant la théorie des graphes,
    les techniques de Machine Learning et les bases de données orientées
    graphes qui permet de monitorer, optimiser et prédire le déroulement
    des processus. Il peut être appliqué pour : optimiser des chaines
    logistiques en se basant sur les données issues des capteurs, monitorer
    des Jobs de Data Warehousing en se basant sur les logs des
    orchestrators
    o De l’encadrement de 3 stagiaires

    Environnement technique : HDP, Neo4J, Apache Spark, Java, Postgresql, Apache Spark ML, Python, Git, Jenkins, Jira
  • Chargé de recherche en Bio-Informatique-

    San Francisco State Univ. – San
    Jan 2013 - Jan 2014

    Francisco (USA)
    Dans le cadre d’un projet de recherche destiné ayant pour objectif de réduire le coût de la
    découverte de molécules agissant contre des maladies dites « négligées » (telles que la
    filariose, l'onchocercose et la schistosomiase), j’étais en charge de développer des
    algorithmes d’analyse de vidéos issues d’expériences de « High-throughput screening
    drug scanning ».
    J’ai été en charge du développement d'un algorithme d'indexation de vidéos capturant la
    réaction de parasites exposés à différentes molécules. L'idée est de représenter les
    vidéos sous forme de Time-Series et les indexer dans une base de données No-SQL
    (HBase) et de développer un moteur de recherche en dessus de cette représentation

Voir le profil complet de ce freelance

Les derniers freelances APACHE SPARK

CV Data Scientist PYTHON
Yosr

Data Scientist PYTHON

  • SARTROUVILLE
APACHE SPARK DATA PYTHON SQL
Disponible
CV Manager Data Scientist & Big Data
Romeo

Manager Data Scientist & Big Data

  • ISSY-LES-MOULINEAUX
Google Cloud Platform Dataiku BIG DATA PYTHON APACHE SPARK PROJECT MANAGEMENT OFFICE DATA
Bientôt disponible
CV Data Scientist ML/DL
Achraf

Data Scientist ML/DL

  • LE MESNIL-SAINT-DENIS
APACHE HADOOP APACHE SPARK AZURE PYTHON DATA SCALA SQL BIG DATA Google Cloud Platform
Bientôt disponible
CV Ingénieur de développement
Rhouma

Ingénieur de développement

  • CERGY
SQL JAVA
Disponible
CV Développeur JAVA
Mohamed Amine

Développeur JAVA

  • NICE
JAVA J2EE Spring Boot JAVASCRIPT POSTGRESQL SQL
Bientôt disponible
CV Développeur APACHE SPARK Scala
Ousmane 3

Développeur APACHE SPARK Scala

  • ARGENTEUIL
APACHE SPARK SCALA APACHE HADOOP GIT JENKINS
Disponible
CV Data Analyst  BI
Jihane

Data Analyst BI

  • ALFORTVILLE
Microsoft Power BI PYTHON BIG DATA SAS JAVA BI SSAS SQL SQL SERVER APACHE SPARK
Bientôt disponible
CV Data Scientist PYTHON
Nour

Data Scientist PYTHON

  • CHÂTILLON
APACHE SPARK BIG DATA Cloud AWS DOCKER PYTHON SQL DATA Microsoft Power BI Dataiku Data science
Bientôt disponible
CV Data Scientist PYTHON
Valentin

Data Scientist PYTHON

  • LAMBERSART
APACHE SPARK APACHE HADOOP AZURE BIG DATA Google Cloud Platform PYTHON SQL DATA
Disponible
CV Développeur Python/Data
Corentin

Développeur Python/Data

  • PARIS
APACHE SPARK Cloud AWS SQL PYTHON C
Bientôt disponible
Je trouve mon freelance APACHE SPARK

Les nouvelles missions APACHE SPARK

Consultant HADOOP / SPARK / SCALA

APACHE HADOOP APACHE SPARK SCALA
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Big Data / Data Engineer H/F

DATA PYTHON APACHE HADOOP SCALA APACHE SPARK
ASAP
Paris
36 mois
Voir la mission

Admin SPARK - Kubernetes

APACHE SPARK Kubernetes
ASAP
Montreuil
12 mois
Voir la mission

Data Engineer Scala / AWS

SCALA APACHE SPARK Cloud AWS PYTHON
ASAP
Paris
6 mois
Voir la mission

DATA ENGINEER

JAVA APACHE SPARK APACHE HADOOP
ASAP
Télétravail
36 mois
Voir la mission

Responsable technique/développeur Flink

JAVA APACHE SPARK APACHE KAFKA
ASAP
Télétravail
12 mois
Voir la mission

Consultant Formateur

BI BIG DATA APACHE SPARK Microsoft Power BI BI MICROSOFT
ASAP
Télétravail
5 jours ouvrés
Voir la mission

Data Engineer sur GCP obligatoire

PYTHON APACHE HIVE SCALA APACHE SPARK Google Cloud Platform
ASAP
PARIS
12 mois
Voir la mission

Formateur Cloudera Spark (Certifiant CCA)

BIG DATA APACHE SPARK Cloudera
ASAP
Télétravail
4 jours ouvrés
Voir la mission

Développeur Java / Angular

JAVA SPRING APACHE KAFKA Angular APACHE SPARK
ASAP
Paris
210 jours ouvrés
Voir la mission
Je trouve ma mission APACHE SPARK

Les freelances maîtrisant APACHE SPARK ont postulé à :

Data engineer AWS

SQL DATA DEVOPS Cloud AWS
ASAP
PARIS
6 mois
Voir la mission

Data Scientist Marketing

SQL PYTHON MARKET DATA CRM
ASAP
06
8 mois
Voir la mission

DATA SCIENTIST

DATA PYTHON APACHE HADOOP APACHE HIVE APACHE SPARK
ASAP
paris
12 mois
Voir la mission

Développeur BIG DATA

BIG DATA
ASAP
75 - Paris
3 mois
Voir la mission

Formateur Big Data

BIG DATA
A définir
75011
30 jours ouvrés
Voir la mission

Formateurs BIG DATA

BIG DATA
ASAP
75 - Paris
3 jours ouvrés
Voir la mission

Consultant formateur BIG DATA

BIG DATA
ASAP
75 - paris
5 jours ouvrés
Voir la mission
Je trouve ma mission APACHE SPARK