Entreprises, SSII, DSI
Trouvez rapidement les meilleurs intervenants pour tous vos projets informatiques
Photo de Youssef, Consultant BIG DATA

Youssef Consultant BIG DATA

CV n°200622S005
  • Profil

    Consultant, Développeur (34 ans)

  • Domicile

    79000 NIORT

  • Mobilité Totalement mobile
  • Domaines d'expertise

    Etudes / développements, Bases de données, Décisionnel / Datawarehouse

Études et formations

Certification
2020 Certification Elastic Search, Logstash, Filebeat, Kibana (Elastic)
2019 Certification Talend (Udemy)
2018 Certification Hortonworks : Nifi, Hive, Ranger, Hadoop, Ranger

Compétences techniques
Big Data Hadoop, Spark, Kafka, Hive, Suite ELK, MongoDB, Cassandra, Talend Big Data
Hive, Talend, Scoop
DevOps Ansible, GitLab, Kubernetes, Puppet, Jenkins, Docker swarm, Control M
Conteneurs et VM VirtualBox , Vagrant, VMware, Docker Portainer
Data Viz Tableau, QlikSense, Google Data Studio
Cloud Google Cloud AWS & IBM Cloud Azure
Langages Java, Python, SQL, Shell Unix
IDE Visual Studio Code, Eclipse, IntelliJ
SGBDR MySQL, PostgreSQL, SQLite3
Modélisation UML, JMesire, GenMyModel
Systèmes Linux, Windows, Android
Projets DevOps, Agile Scrum Cycle V
Autres Git, FileZilla, Maven, SonarQube, Jira Microsoft Teams, Shell, JSON, SQL

Formations
2016 Formation Big Data (400 heures)
2015 Doctorat en Big Data/Data Scientist
2012 Master 2 Analyse appliqué et modélisation
2011 Master 1 en mathématique et informatique

Langue(s)
Anglais Professionnel
Français Courant

Expériences professionnelles

Expérience professionnelle

MACIF Septembre 2019 – Juillet 2020
Fonction : DEVELOPPEUR SENIOR BIG DATA
Dans la cadre d’une mission en tant que consultant senior Big Data je participe à deux projets.

Projet 1 : Mise en place d’u Data Lake et la restitution du trafic du site macif.fr
Domaine d’intervention :
 Définir l’implémentation des Uses Cases sous GCP
 Définir les indicateurs clés (données quanti/quali) de suivi de la performance des visiteurs sur les sites
/applications du groupe
 Mise en place des tableaux de bord Google Data Studio, Tableau, Adobe Analytic
 Ingestion de données dans Big Query
 Automatisation des Processus d’ingestion dans Big Query
 Récolter des données pertinentes et définir les reporting adaptés
 Rédiger des documents de normes et bonnes pratiques
 Outiller la gestion de la sécurité de la plateforme
 Participation à la démarche exploratoire des fonctionnalités GCP, réaliser des POC
Projet 2 : Conception et réalisation d’une solution de supervision pour la MACIF en adoptant une démarche
MVP:
 Analyse des besoins et définition de l’architecture fonctionnelle et technique
 Conception d’une architecture Lambda permettant de stocker et également de visualiser des
données
 en temps réel avec Elastic Search
 Automatisation des processus d’ingestion dans Elastic
 Création du pipeline d’ingestion des données dans Elastic Search
 Mise en place de tableau de bord Kibana, Grafana
Environnement technique :
Big Query, Google Cloud Plateforme, Google Data Studio, Cloud Storage, MongoDB, Adobe Analytic, Talend
Big Data Control-M, Python, ElasticSearch, Logstsh, Kibana, Grafana, Python, Contol-M, Docker swarm

Conseil Départemental Décembre 2018 – Aout 2019
Fonction : Consultant expert Data engineer
Projet : Dans le cadre de mise en place de nouveaux projets et intervention sur l’existant en tant que Tech Lead
Talend
Domaine d’intervention :
 Référent Talend sur plusieurs projets Talend
 Conception/Développement des Jobs Talend
 Préparation et suivi des mises en Production
 Modélisation de l’entrepôt de données « Data Warehouse »
 Conception, Développement et Alimentation d’un entrepôt de données avec TALEND
 Etude, conception et développement d'univers /rapports Business Objects
 Maintenance et surveillance des interfaces TALEND
 Expertise sur les composants Talend
 Chiffrage de la charge, établissement et envoi des devis
 Pilotage et management de l'activité de plusieurs ETP
 Rédaction des conceptions applicatives détaillées CAD des contrats d’interface
 Identification des risques et remontée des alertes auprès de la gouvernance
 Garant des développements des applications DWH
 Chargement, intégration, documentation et préparation des livraisons
 Rédaction des rapports de comptes rendus d’activités hebdomadaires
 Suivi du plan de capacité de l'équipe et affectation des taches
 Validation des imputations des collaborateurs de l’ensemble de l’activité Hors SID
Environnement technique :
Talend , PostgreSQL, SQL, Shell Unix, Redmine, Java, Jenkins, Control M, GIT/Gitlab ,Sql Developer, SAP Business
Objects XI

CAISSE DEPOT Octobre 2018 – Mars 2019
Fonction : Consultant freelance expert Big Data
Projet : Dans le cadre d'un POC (Proof Of Concept) Big data dans le domaine de data finance, en tant que
consultant expert Big Data
Domaine d’intervention :
 Installation et paramétrage de la plateforme Talend Platform for Big Data en tenant compte des
contraintes et de l’environnement
 Conception et rédaction d'un document d'architecture cible pour le POC
 Développement du Job Talend et Talend Big Data
 Développement des flux d’alimentations avec Data Intégration et Big Data Intégration de TALEND
 Mise en place de data quality (nettoyage des données)
Environnement technique :
Talend, Talend Big Data, Nifi, Hadoop, Hive, Sqoop, HDFS, Data Platform (HDP), Hortonworks, Ambari, SHell Unix,
Python

LEROY MERLIN Janvier 2018 – Décembre 2018
Fonction : Consultant freelance expert Big Data
Projet : Dans le cadre d'une mission en tant que expert Big Data pour le client Leroy Merlin
Domaine d’intervention :
 Modélisation et implémentation des Datamarts et Datawarehouses (DWH)
 Développement des flux d'alimentation avec Talend (ETL) et Talend Big Data: Alimentation des Data
Warehouses et DataMart
 Création des Dashboard et visualisation des données avec Tableau, Qlik Sense et Grafana
 Analyse et transformation des données en fonction des besoins
 Ingestion et transformation de donnée avec Nifi et Talend Big Data
 Création de nouveaux templates et process Nifi pour traiter de nouveaux types de flux
 Développement de bundles Nifi en Java
 Gérer les comptes, les droits d'accès : augmenter la capacité d'hébergement pour un nombre plus
élevé de projets, réaliser des benchmarks pour anticiper les éventuels besoins en nouvelles machines
 Assurer le support aux utilisateurs BI et Data Scientists à l'utilisation de la plateforme pour l'ingestion et
le traitement des données
Environnement technique :
Nifi, Talend, Talend Big Data, Java, ZooKeeper, Sqoop, Hortonworks Data Platform (HDP), Shell script, Jira,
Ambari, Gitlab, Python, ORC, Avro, Json, Control-M, Jenkins, Control-M, Hive, Spark, YARN, Ranger, Atlas,
Kerberos, HDFS, Hbase, PostgreSQL, MongoDB, Google Cloud Platform, BigQuery, Google Search Console,
Tableau, Qlik Sense, Adobe Analytic, Google Data Studio

CNAM (caisse de l’assurance maladie) Février 2017 – Janvier 2018
Fonction : Consultant freelance expert Big Data
Projet : Dans le cadre d'un POC (Proof Of Concept) pour le client CNAMTS dans le but de mise en œuvre d'un
POC Big Data portant sur l'ingestion des factures quotidiennement reçues par l'Assurance Maladie et la recherche
de doubles paiements potentiellement frauduleux.
4/5
Domaine d’intervention :
 Développement d'un POC (Proof Of Concept) mettant en œuvre une architecture Big Data (Nifi,
Kafka, Hadoop, Spark)
 éploiement d’architectures Big Data scalables (Nifi, Spark, Hadoop, Kafka, Kafka Connect,
Elasticsearch, Logstash, Kibana, Hbases...) conteneurisé avec Docker et mis en place en production
avec Docker
 Développement de nouveaux flux sous Talend( ESB)
 Ingestion de donnée via Apache Nifi
 Création de nouveaux templates et process Nifi pour traiter de nouveaux types de flux
 Concevoir et mettre en œuvre des flux d’intégration de données
 Développement de composants Kafka (kafka Stream, kafka Connect)
 Installation des clusters Zookeeper, Kafka, Spark, Hadoop, NiFi
 Réaliser des études autour de solutions et définir les architectures / solutions Big Data à mettre en
œuvre
 Dimensionnement et mise en place d’un cluster Hortonworks
 Mise en place d’une plateforme d’intégration continue (Docker, Jenkins, Git)
 Participer à la réalisation technique de chargement / traitement des données, tests de performance
 Création des dahsboards et visualisation des données avec Kibana
Environnement technique :
Java, Script Shell, Spark, Hadoop (HORTONWORKS- HDP + HDF), Jenkins/Git, Docker, Docker Compose, Ansible,
Kafka, Kafka Connect, Kafka Confluent, Kafka streeming, Hbases, PostgresSQL, Elastic Search, Logstash ,
Kibana , Beats,Eclipse, Jira, Gitlab, Ambari, Nifi, ZooKeeper, Putty, Schema-registry, Avro schema, artifactory,
Ranger, Talend, Maven, Talend Big Data

MACIF Mars 2016 – Février 2017
Fonction : Consultant expert Talend/Informatica
Projet : Dans le cadre d'un Projet pour but de mettre en place un DWH, en tant que consultant au sein de l'équipe
BI: Conception et développement des flux Talend et informatica
Domaine d’intervention :
 Modélisation de l’entrepôt de données « Data Warehouse »
 Conception, Développement et Alimentation d’un entrepôt de données avec TALEND/Informatica
 Amélioration et l’optimisation des interfaces TALEND existantes
 Développement des flux avec Talend (ETL)
 Intégration de données avec Talend Open Studio for Data Integration
 Documentation des Job Talend : Dossier d’exploitation
 Coordination des différentes équipes impliquées dans le projet
 Suivi de production
Environnement technique :
Talend, Informatica, Java, Shell Unix, SQLServer, PostgreSQL, Git, Jenkins, Putty, Nexus, Sonar, Control-M

INRIA Aout 2012– Mars 2016
Fonction : Consultant expert Big Data / Data Scientist
Projet : Dans le cadre d’un partenariat avec INRIA (Centre national de la recherche scientifique) de Bordeaux.
Domaine d’intervention :
 Développement des modèles d’apprentissage pour l’analyse de données
 Analyse des données et les traduire en modèles de scoring ou de Machine Learning
 Modélisation et simulation numérique des modèles mathématique statistiques
5/5
 Développement et optimisation d'algorithmes de machine learning et/ou deep learning
 Assurer la modélisation des données nécessaires afin de répondre aux besoins exprimés
 Conception et développement des évolutions
 Rédaction de livrables et présentation des travaux dans les réunions internes
Environnement technique :
Big Data, Fortran, Frefeem, Python, C++, Latex, Matlab, Java, R, Talend, Jupyter