Freelance APACHE SPARK : repérez les talents nécessaires à votre projet

Déposez votre CV ou Déposez une mission gratuitement
Nos derniers

freelances APACHE SPARK

Nos dernières

offres de missions APACHE SPARK

Définition de APACHE SPARK

Apache Spark est un framework open source. Spark était initialement développé à par AMPLab. Apache Spark est une infrastructure de traitement parallèle qui permet d'exécuter des applications analytiques, en utilisant des machines en clusters.

Aperçu d'expériences de Dr. Ahmed, freelance APACHE SPARK résidant dans les Yvelines (78)

E X P E R I E N C E PROFESSIONNELLE

Sept. 2019 – Aujourd’hui CEO – Tizwal-IT – Paris (Freelance et projets en forfait)
Accompagner mes clients dans leurs projets RPA et de Process Mining. J’ai l’ambition de
rendre le RPA accessible à toutes les entreprises quelles que soient leurs tailles et leurs
maturités IT. Quelques réalisations que j’ai effectuées dans ce cadre :
• Réalisation :
o CompetitorWatch : application de veille concurrentielle destinée à la grande
distribution leur permettant d’avoir des données concurrentielles précises, à jour
et fiable. Ces données, collectées à l’aide de robots UiPath, englobent le
catalogue des produits, les prix et les promotions peuvent être regroupées par
zone géographique et gamme de produits
o UbiquiStore : afin d’aider les commerçants à renforcer leurs présences en ligne,
j’ai développé une suite de robots automatisant la réplication du catalogue de
produits créé sur une plateforme E-Commerce vers une autre. La suite de rebots
supporte actuellement les réplications suivantes : Facebook ↔ Amazon, Google
Shopping ↔ Amazon. Cette suite de robots est disponible sur UiPath et
OpenBots
o ProspAssist : destiné à une entreprise accompagnant les artisans dans les
démarches de renouvèlement de leurs certifications RGE, j’ai construit une suite
de robots permettant de collecter des certifications RGE disponibles au format
PDF, de les parser pour extraire les informations de l’artisan, ses qualifications
ainsi que leurs dates d’échéance. Ces informations sont croisées avec d’autres
informations issues d’autres sources web pour construire une vue globale de
l’activité de l’artisan. Un planning de prospection est établi à la base de ces
données récupérées
• Environnement technique : UiPath, OpenBots, OpenRPA, Jira, Trello, Windows

Jun. 2019 – Jun. 2021 Technical Leader Big Data/ML - Booper – Paris (Freelance)
• Réalisation : Mission de conseil pour une Startup spécialisée dans le
développement d'une solution de pricing destinée aux Retailers sur des
environnements Big Data. Ma mission était :
o Audit de l'existant et étude de faisabilité de la migration de l'application
vers une architecture Big Data
o Établissement d'une Roadmap sur 2 ans avec une priorisation des
chantiers
o Construction d'un Data Hub servant comme source de données unifiée et
centralisée pour tous les modules de l'application
o Refonte de l'application de pricing pour la porter sur des architectures Big
Data
o Développement d'un module d'analyse des tickets de caisse servant dans
la construction des compagnes promotionnelles, l'agencement des rayons,
les algorithmes de pricing, connaissance clients
o Management et formation d'une équipe de 5 développeurs sur : Big Data,
Machine Learning, RPA (UIPath et OpenRPA).
o Automatisation des tests avec OpenBots, OpenRPA
• Environnement technique : Hortonworks (HDP, HDF), Apache Spark, Spark
ML, FP Mining, ElasticSearch, Apache Kafka, Apache HBase, HDFS, Machine
Learning, Docker, Spring Boot, OpenRPA, Postgresql, Git, Jenkins, Jira, Trello,
Linux

Avr. 2018- Juin-2019 Directeur de la Practice Data Analytics - Experis France – Paris
J’étais en charge de la définition et la mise en place de la stratégie d’Experis France sur le
Big Data, Data science, Business Intelligence, Intelligence Artificielle et du Process Mining
(Process Excellence). Mes missions principales :
• Définir et mettre en place l’orientation stratégique de la practice : technologie, RH,
commerce, recrutement
• Définir et mettre en place le Business Plan de la practice
• Responsable du développement de la relation client et participation à des missions
de conseil (engagement et livraison)
• Développer la stratégie commerciale et valoriser les offres en compagnie d'une
équipe commerciale dédiée
• Organisation de séminaires/conférences/webinars de présentation de REX,
vulgarisation et de sharing knowledge
• Responsable de la gestion du personnel, de l'efficacité opérationnelle des équipes et
de leurs formations
• Responsable du développement des partenariats technologiques
• Principal point de contact client sur le périmètre DATA
• Définir les besoins RH et participer à la sélection et au recrutement des nouveaux
collaborateurs au sein du service recrutement
Accompagner les collaborateurs dans la définition de leurs plans de carrières

Déc. 2016 – Mar. 2018 Senior Big Data Engineer - Crédit Agricole CIB – Paris (via Experis France)
• Réalisation : Au sein de la cellule d’architecte Big Data intervenant sur les projets
MASAI/FRTB, MIKA et MIFID II, j’étais en charge de :
o Mise en place d’une plateforme BigData As A Service :
§ Automatisation du déploiement de HDP, HDF, Kafka, Elasticsearch
§ Sécurisation des plateformes HDP : Kerberos, Ranger, Knox
o Automatisation du déploiement de plateforme Trifacta et support des
utilisateurs
o POCing de la plateforme de DataOps Streamsets pour l’intégration/curation
des données dans les différentes briques du DataLake
o Mise en place d’une plateforme centralisée de gestion de logs (Elasticsearch,
Kibana et LogStash)
o Participation à la mise en place du processus DRP
o Formation et support dans équipes de RUN
o Définition des best practices de développement (Apache Spark/Apache Spark
Streaming)
o Automatisation des déploiements des Jobs en utilisant un outil in-house
HADeploy
• Environnement technique : HDP, HDF, Apache Spark, Elasticsearch, Kibana,
Apache Kafka,Ansible, Streamsets, Trifacta, KVM, Python, Java, Postgresql, Git,
Jenkens, Jira, Linux

Oct. 2015 – Déc. 2015 Process Miner/Data scientiste - SwissLife - Paris (via Experis France)
• Réalisation : J’ai été en charge du développement d’un POC pour l’analyse de
processus métiers via l’analyse de leurs empreintes techniques (logs,
transactions, …) en utilisant les techniques de Process Mining. J’étais en charge
de :
o Sélection, récupération et préparation des données d’analyse
o Reconstruction du processus, analyse du réseau social, contrôle de
conformité, analyse du flux d’activité, …
• Environnement technique : Python, Scikit Learn, Numpy, ProM, Postgresql

Oct. 2014 – Sept. 2015 Big Data/Data Science Leader - Ikayros – Paris
• Réalisation : au sein d’Ikayros, une startup spécialisée dans la data, j’étais en
charge :
o Du développement d’un algorithme probabiliste pour la géolocalisation
Indoor en se basant sur les logs des bornes WIFI.
o Du développement d’un algorithme combinant la théorie des graphes,
les techniques de Machine Learning et les bases de données orientées
graphes qui permet de monitorer, optimiser et prédire le déroulement
des processus. Il peut être appliqué pour : optimiser des chaines
logistiques en se basant sur les données issues des capteurs, monitorer
des Jobs de Data Warehousing en se basant sur les logs des
orchestrators
o De l’encadrement de 3 stagiaires
• Environnement technique : HDP, Neo4J, Apache Spark, Java, Postgresql,
Apache Spark ML, Python, Git, Jenkins, Jira

Mar. 2013 – Août. 2014 Chargé de recherche en Bio-Informatique- San Francisco State Univ. – San
Francisco (USA)
Dans le cadre d’un projet de recherche destiné ayant pour objectif de réduire le coût de la
découverte de molécules agissant contre des maladies dites « négligées » (telles que la
filariose, l'onchocercose et la schistosomiase), j’étais en charge de développer des
algorithmes d’analyse de vidéos issues d’expériences de « High-throughput screening
drug scanning ».
J’ai été en charge du développement d'un algorithme d'indexation de vidéos capturant la
réaction de parasites exposés à différentes molécules. L'idée est de représenter les
vidéos sous forme de Time-Series et les indexer dans une base de données No-SQL
(HBase) et de développer un moteur de recherche en dessus de cette représentation

Voir le profil complet de ce freelance