Profil
6 ans d’expérience en R&D autour des problématiques du Big Data
Bonne connaissance technique de l’écosystème Big Data et des architectures distribuées
Bonne connaissance de Machine Learning
Maîtrise des outils d’Analyse de données à grande échelle (batch et stream)
Bonne connaissance des outils Java, Python, Scala, Hadoop, Spark, Kafka, Flink, Elasticsearch, Logstash, Kibana etc.
Peut apporter un réel plus value à des projets de mise en place de Data Lake, d’Analyse prédictive, de Détection de fraudes, de Segmentation de clients, de text mining, de Systèmes de recommendation, d’Analyse des tickets clients, de développement de Moteurs de recherche, etc...
Très bon relationnel
Compétences techniques
• SGBD: Oracle, MySQL,
• NoSQL: Cassandra, Couchbase, Redis, MongoDB, HBase
• Gestion de données distribuées : Hadoop, Spark, ETL Talend, Hive, Presto, Pig latin, Avro, Parquet, ORC, très bonne connaissance distribution MapR/Cloudera/Hortonworks
• Traitement de données continues : Kafka, Storm (Heron), InfluxDB
• Autres outils : SQL, Shell, C, Java, Git, Maven, Junit, Jenkins.
• DevOps: Vagrant, Puppet, Ansible, Terraform, Docker.
• Clouds: AWS
• Système(s): Unix, windows
• Modélisation: UML, Merise
• Méthode(s): ITIL, Scrum
Formation
2011 : Doctorat en Informatique - Option: Gestion des Données Massives et Distribuées
Université de Nantes.
2007 : Master en Informatique
Institut de Mathématiques et de Sciences Physiques.
Compétences
APACHE HADOOP
APACHE HIVE
APACHE KAFKA
Études et formations