Slim - Architecte DATA et Cloud

Ref : 121205T001
Email vérifié
Photo de Slim, Architecte DATA et Cloud
Compétences
Expériences professionnelles
  • Expérience professionnelle

    GCP Landing Zone | (Juin 2022 - Juillet 2022)
    GCP Security auditor | BPCE/Natixis (France/Suresnes)
    Revu de sécurité de la Landing Zone GCP et propositions d’améliorations.

    Servier Data Platform | (Novembre 2020 - Juin 2022)
    Architecte Cloud/Data- Laboratoires Servier (France/Suresnes)
    Mise en place de la plateforme Data et son infrastructure basée sur GCP:
    • Definition de l’architecture de la plateforme
    • Mise en place des composantes transverses (Réseaux, Hiérarchie, IAM, CICD, GKE, Gouvernance,…)
    • Mise a disposition des environnements des Business Units
    • Sécurisation de la plateforme pour être habilité a contenir des données de santé.
    • Assistance et aide a la montée en compétences des Features Teams des Business Units.
    • Environnement technique : Google Cloud Platform, Kubernetes (GKE), Terraform, Kustomize, Python

    Copyright, Slim ********, 2022.
    Vous ne pouvez pas modifier le contenu de ce document ni le re-utiliser (même en partie) sans une autorisation expresse et écrite de la part de 'Slim ********'. Vous ne pouvez également pas distribuer
    ce CV à d'autres parties sans une autorisation expresse et écrite de la part de 'Slim ********.

    Usage-Based-Maintenance | (Juillet 2018 - Novembre 2020)
    Architecte Data/ML/Cloud - renault (France/Paris)
    Le projet Usage Based Maintenance a pour objectif de tirer profit des données d’usage (ou de conduite) issues
    du système embarqué des véhicules pour mieux gérer leurs maintenance.
    Je suis intervenu dans la phase POC qui a précédé le projet pour valider l’approche ainsi que la pertinence des
    données.
    Ensuite et pour l’industrialisation des processus j’ai défini l’architecture, mis en place l’infrastructure de
    collecte et traitement des données et participé a l’implémentation des pipelines de machine learning.
    • Environnement technique : Google Cloud Platform, Kubernetes, TensorFlow eXtended, Docker, Spark,

    Terraform, Python, Scala, Golang, Kubeflow, APIs.
    sl-datahub | (Mai 2017 - Juillet 2018)
    Architecte Data - ******** (France/Paris 18e)
    Le projet consistait essentiellement à la création d'une plateforme Data:
    - initialisation de l'infrastructure adéquate.
    - sensibilisation a l'état d'esprit Data et aux bonnes pratiques associées en général (DevOps, CI,...)
    - Implémentation des premieres Data Pipeline qui exploitent la donnée du site en y appliquant les algorithmes
    de Data Science et les mettre a disposition (exposition)
    - Création d'un premier noyau de l'équipe Data.
    Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install,
    gestion, evolution ) avec ansible via l’API d’ambari.
    Ensuite, j’ai travaillé sur l’industrialisation des algorithmes développés par les Data Scientists aussi bien sur
    leur implémentation que sur la Data Pipeline dans la quelle ils s’intègrent: ingestion de données, nettoyage/
    preparation des données, training, pré-calcul et enfin exposition des API.
    La deuxième phase de ma mission fut de migrer le projet d’une infrastructure on premise vers le cloud Amazon
    Web Services.
    • Environnement technique : Hortonworks Data Platform, spark, scala, airflow, grafana, influxdb, nginx,
    Ansible, Amazon Web Services, akka, rocksdb, python, terraform.

    sl-datahub | (Mai 2017 - Aujourd’hui)
    ******** (France/Paris 18e)
    Le projet consiste essentiellement à la mise en place d’un datalake.
    Je suis intervenu en tant architecte de l’équipe Data.
    Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install, gestion, evolution ) avec ansible via l’API d’ambari.
    Ensuite, j’ai travaillé sur l’industrialisation de l’algorithme de recommandation défini par l’équipe de datascientists: ingestion de données, nettoyage/preparation des données, training, pré-calcul et enfin exposition des API.
    Actuellement je travaille sur la migration du cluster “on-premises” sur le cloud Amazon.
    • Rôle : Architecte Data
    • Environnement technique : Hortonworks Data Platform, play, airflow, grafana, influxdb, nginx, Ansible, Amazon Web Services, scala, python, terraform.

    Vision360 | (Février 2017 - Mai 2017)
    Generali (France/Saint-Denis)
    Mise place d’une plateforme offrant une vision 360 du client.
    J’interviens en tant que expert Kafka et stream processing.
    • Rôle : Expert Kafka
    • Environnement technique : Confluent Platform ( Kafka, Kafka-Streams, Kafka-Connect, Schema-Registry), Avro.

    Phenix | (Janvier 2015 - Janvier 2017)
    Carrefour (France/Massy - Evry)
    Phenix est une plate-forme distribuée d’ingestion, de préparation, d’analyse et d’exposition de données opérationnelles (ventes, stocks, logistique,..) en temps réel (ou commercial);
    Je suis intervenu dés la phase de définition de la plateforme et défini en grande partie les choix architecturaux et technologiques aussi bien en terme de frameworks et backends, que de méthodes et outils de développement ou encore sur les aspects ‘ops’ (provisionning, deploiement, monitoring,…).
    L’architecture que j’ai définie consistait en une plateforme avec deux composantes principale:
    - une composante “on-line” qui était responsable premièrement de la collecte de données depuis les magasins et les backoffices de stock ainsi que les données de référentiels des bases centrales; ensuite une infrastructure de traitement de données en temps réel basée sur kafka,mesos et spark-streaming pour effectuer la normalisation, les agrégations et l’enregistrement des résultats soit dans Cassandra, soit dans Elasticsearch ou parfois les deux. En fin une couche d’API en micro-services expose ces résultat aux applications clientes.
    - une composante off-line, qui se rapproche d’un datalake classique contenant toutes les données ingérée dans les topic kafka, les référentiels et quelques datasets d’enrichissement et qui servait a faire des traitement en batch pour sortir des métriques et des agrégations avec une profondeur, une précision et richesse plus importante que celles fournie par la composante online.
    Outre les réalisations et les choix technique j’ai insisté et travaillé sur les bonnes pratique de développement (agilité, TDD, CI,…) et l’industrialisation de la solution (ansible, docker, rundeck) ainsi que les process de recrutement (exercices de code, entretien face a toute l’équipe,…) pour constitué une équipe de haut niveau.
    • Rôle : Lead Data Architect
    • Environnement technique : Kafka, Spark (Streaming), Mesos, Docker, Cassandra, Hadoop, Elasticsearch, Micro-Services, NRT, ansible, …

    Eureka | (Juillet 2014 - Janvier 2015)
    Canal+ (France/Issy les Moulineaux)
    Eureka est un moteur de recommendation pour les videos “live” et “à la demande”.
    Je suis intervenu pour proposer et implementer une solution qui permet d’exploiter des algorithmes de recommandations développés par des équipes tierces (marketing et data-scientist).
    La solution se base sur un cluster hadoop pour la préparation des données et le training des algorithmes; un cluster Elasticsearch et une base Redis comme backends et quelques micro-services (REST) qui exposent les résultats.
    • Rôle : Big Data Senior Developer
    • Environnement technique : Akka, Spray.io, Elasticsearch, Scala, Java, Redis, Hadoop
    Data Innovation Lab | ( Janvier - Juin 2014).
    AXA Technology Services (France/La Defense)
    Le Data Innovation Lab est une initiative qui vise à promouvoir l'exploitation de la donnée et sa valorisation au sein des entités de AXA.
    J'interviens en tant que “Expert Hadoop” pour la mise en place d'un cluster Hadoop “As A Service” pour les entités.
    J’ai essentiellement conseillé sur les bonnes pratiques et les pièges à éviter pour la mise en place d’un tel projet. J’ai aussi accompagné l’équipe d’exploitation du cluster, et participer aux ateliers d’architecture pour les différents use-cases en développement.
    • Rôle : Domain Expert, Architecte.
    • Environnement technique : Hadoop, Multi-tenancy, YARN, Kerberos, Sentry, Data governance, Data privacy.

    Projet Kasper | (Mai - Décembre 2013).
    Viadeo (France/Paris)
    Kasper est une plateforme d'exposition de services internes de Viadeo. Elle est basée sur une architecture CQRS, Event-Sourcing.
    Je suis intervenu essentiellement sur les problématique d’indexation de gros volume de données et la “testabilité”. J'ai pu aussi participer aux choix architecturaux et techniques liées aux problématiques de quantités et de qualité de la donnée en général.
    • Rôle : Architecte.
    • Environnement technique : Hadoop, Elasticsearch, Event Sourcing, Axon, Protocolbuffer.

    Projet embix | (Aout 2012 - Octobre 2013)
    Embix (France/Issy-les-Moulineaux)
    Embix est une solution innovante d’optimisation de la performance énergétique.
    Je suis intervenu sur différentes problématiques du développement du produit telle la sécurité des services REST exposés ou la migration des données depuis l'ancienne application.
    Ma principale réalisation sur ce projet fut l'implémentation du “Batch Layer” du produit. Cette brique consiste à retraiter les informations brutes déja analysées en temps réel. Le but étant de réaliser des analyses plus poussées et plus fiables sur les informations en se libérant des contraintes imposées par le serveur temps réel.
    Les “jobs” hadoop réalisés dans ce cadre ont étaient testés et bench-marqués en collaboration avec Intel France.
    • Rôle : Developpeur Big Data Senior.
    • Environnement technique : Hadoop, Mapreduce, Hbase, Event Sourcing, Apache Cassandra, Netty, Lmax Disruptor, Protocolbuffer.

    Projet smart-track | (Janvier 2012 - Aout 2012)
    ******** (France/Paris, Espagne/Barcelone)
    Le projet smart-track consiste à créer une plateforme Big Data de smart advertising.
    Je suis intervenu sur le démarrage du projet pour définir les choix architecturaux et participer à la définition du produit final.
    J'ai, ré-écrit l'ETL propriétaire déja en place en se basant sur Hadoop MapReduce et Hbase.
    J'ai aussi implémenté une solution de de déduplication d'utilisateurs.
    • Rôle : Tech-lead equipe Big Data
    • Environnement technique : Hadoop, Hbase, Pig, Puppet, MRUnit, tsung, TDD, Mockito, Junit, Amazon DynamoDB, Amazon ElasticMapreduce, Amazon EC2.

    Plateforme E-Commerce multicanal | (Juillet 2011 - Janvier 2012)
    Adeo (France/Lille)
    Le projet consiste à créer une plateforme e-commerce multi-canal (web, mobile) orientée projet plutôt que la simple vente de produit sur catalogue.
    Je suis intervenu en tant que référent technique Hadoop/Hbase en support à l'equipe de développement. J'ai ainsi, mis en place les mécanismes de provisioning automatique du cluster Hadoop/Hbase. De plus j'ai mis en place un socle de tests d'intégration pour améliorer la productivité et la qualité des développements.
    • Rôle : Réferent Technique Hadoop/Hbase
    • Environnement technique : Lily CMS, Hadoop, Hbase, Apache Whirr, Solr, Amazon EC2, Git, Cloudbees, Junit, Mockito, TDD, Scrum.

    Plateforme E-Commerce Arme | (Janvier 2011 - Juin 2011)
    ******** (France/Courbevoie)
    Arme est une plateforme de vente de voyage en ligne. Elle est déployée sur des sites comme ********, ******** (vols secs) et quelques marque blanches de ce secteur.
    Ma mission principale fut de refondre le mécanisme en place de collecte de log utilisateurs qui se base sur Postgres et qui est arrivé au bout de ses capacités en terme de stockage et de requêtage donc d'exploitation de la données. Ainsi, j'ai mis en place une nouvelle solution en appliquant les principes du “web-usage mining”. Ensuite j'ai proposé un cas d'usage concret de cette nouvelle architecture et qui consiste à analyser le comportement utilisateur pour détecter les “prospect chaud” et par la suite agir pour les inciter à l'achat.
    • Rôle : Référent Technique Hadoop/Hbase
    • Environnement technique : Apache Mahout, Apache Hadoop, Apache Pig, Amazon SimpleDB, Amazon EC2, Java.
    Autres Expériences :
    Enseignant vacataire en charge du cours sur Hadoop et le projet fil rouge à “Centrale Supelec”.
    Formateur Hadoop: BNP, MAAF, La Poste, Excelerate Systems, …
    Proof of concepts : Lacub ,betomorrow (hbase), sacem (elasticsearch), mediametrie(hadoop/security), fifty-five, Eleven(Hadoop), snapp…

    Nouvelles Frontières (2010) : Java/JEE, Spring, Oracle, TDD, Tomcat
    Renault / plateforme E-Commerce (2009) : Java/JEE, Spring Batch, Oracle, DDD

    GENERALI Assurances (2008) : Java/JEE, AspectJ, Websphere, Oracle, EJB, Spring
    Direction Générale des Impôts du Maroc (2007) : Java/JEE, Websphere, DB2, Hibernate, Spring, strut

    Officier de la Garde Maritime Tunisienne (2004-2006)

Études et formations
  • Compétences:

    Architectures Distribuées, Big Data, Stream Processing, Hadoop, Spark, Mesos, Kafka, Yarn, HBase, Cassandra, Elasticsearch, Akka, Java, Scala, Python, Ansible, Docker, Event Sourcing, CQRS, DDD, Data Mining, DevOps, , Cloud, AWS, Encadrement, Formation,…

    Diplôme : Ingénieur en Systèmes Navals, 2005.

D'autres freelances
Architecte DATA

Ces profils pourraient vous intéresser !
CV Senior Data Engineer and Scientist NLP
Stefano

Senior Data Engineer and Scientist NLP

  • ANTIBES
BIG DATA SQL APACHE SPARK DATA PYTHON SCALA JAVA
Disponible
CV Data Scientist SQL
Julien

Data Scientist SQL

  • RENNES
SQL DATA MICROSOFT BI SQL SERVER Microsoft Power BI
CV Architecte DATA/AZURE/DATA ENGINEER
Irving

Architecte DATA/AZURE/DATA ENGINEER

  • COURBEVOIE
DATA AZURE BIG DATA Dataiku Data lake APACHE KAFKA Cloudera Cloud AWS Snowflake
CV Architecte AZURE
Anouar

Architecte AZURE

  • LA PLAINE-SAINT-DENIS
AZURE DATAWAREHOUSE DATA
CV Directeur Technique (CTO) / Big Data architect
Nassim

Directeur Technique (CTO) / Big Data architect

  • PARIS
DATA
CV Tech lead/Architect Data
Mourougan

Tech lead/Architect Data

  • LOGNES
PYTHON DATA DEVOPS SQL MONGODB APACHE SPARK RabbitMQ GO Cloud AWS Kubernetes
Bientôt disponible
CV Manager & Architecte Digital / BLOCKCHAIN
Tarek

Manager & Architecte Digital / BLOCKCHAIN

  • PARIS
JAVASCRIPT REACT.JS React Native HYPERLEDGER BLOCKCHAIN ETHEREUM DATA
Disponible
CV Architecte DATA
Hamza

Architecte DATA

  • CARRIÈRES-SUR-SEINE
DATA CRM BIGQUERY
CV Architecte DATA / chef de projet Data
Sabrin

Architecte DATA / chef de projet Data

  • ISSY-LES-MOULINEAUX
DATA BIG DATA
CV Data Scientist Architecte de solutions
Abdeslam

Data Scientist Architecte de solutions

  • COURBEVOIE
AMAZON AWS PYTHON DATA UML JAVA DATAVIZ AZURE AMAZON EMR Angular REACT.JS