Mohamed - Consultant BigData & Cloud / Devops

Ref : 200121I001
Email vérifié
Photo de Mohamed, Consultant BigData & Cloud / Devops
Compétences
APACHE KAFKA
Kubernetes
POSTGRESQL
Expériences professionnelles
  • EXPERIENCES PROFESSIONNELLES

    NOVEMBRE 2021 À AUJOURD'HUI – INGENIEUR BIG DATA & CLOUD / ASSISTANT PO AUCHAN
    Projet  : Mise en place d'un datalake (RDO) permettant de centraliser let referencer es données client
    Auchan
    Mission : Maintenance, évolution d'un datalake RDO (Referentiel de données opérationnelles) et migration
    de celui-ci de l'ancien socle vers le Cloud GCP.
    Réalisations / Tâches :
    Participation à la définition et validation des schemas des nouveaux RDO avec les clients Métier
    Évolutions et maintenance des API's permettant l'alimentation et l'extraction des données du
    datalake.
    Évolution, migration et fiabilisation des API's sur GCP.
    Support auprès des clients utilisant le Socle RDO et récolte des nouveaux besoins.
    Assurer les astreintes en production (24h/24) sur le projet.
    Développement de nouveaux services GCP (nouveau socle) pour satisfaire les nouveaux besoin du
    client
    Assister le PO sur le suivi, chiffrage des instanciations RDO et Migration,
    récolte, validation et ajout des nouveaux besoin clients dans le backlog.
    Assurer les mise en Qualif/production automatique via les outils Devops (gitlab-ci).
    Environnement technique :
    Stockage: Elasticsearch, Couhbase.
    Traitement des données : Integration Engine (Auchan).
    Securité : API Manager.
    Plateforme de messagerie : Apache Kafka.
    Orchestration : Kubernetes, docker, Rancher 1
    Développement :
    Back-end : Java, nodejs
    Methodologies: Agile, Kanban
    Devops: gitlab CD/CI, Nexus.
    Cloud GCP : pubSub, dataflow, BigQuery, IAM, BigTable, cloudStorage, fireStore
    Supervision : kibana, Grafana (prometheus), kafkaHQ, Rancher UI, Cerebro.
    Page 3 / 9
    Mohamed ********


    JANVIER 2019 À SEPTEMBRE 2021 – INGENIEUR BIG DATA – DEVOPS THALES (TDF/SIX
    GTS)
    Projet1 (20 mois) : Développement d'une plate-forme Big data Cloud/OnPremise (SDP), pour la
    gestion de la sécurité des villes intelligentes et des sites critiques.
    Mission : Assurer le workflow d’ingestion, de traitement des données sécurisées dans le data store.
    Réalisations / Tâches :
    Intervention dans les phases amonts (avant-vente, conseil) pour définir et concevoir les
    architectures big-data adaptées aux divers contextes clients.
    Modélisation et spécification des différentes interfaces clients pour les partenaires Thales.
    Participation à la mise en œuvre et intégration des différentes solutions definies :
    1. Développement d'Api’s, et Job ETL permettant l'alimentation de l'entrepôt de données.
    2. Mise en place des règles permettant le traitement et l'exploitation des données dans l'entrepôt
    de données.
    3. Développement d'outils de visualisation et dadshboard (KPI’s).
    4. Déploiement des services dans la plateforme Big data OnPremise.
    Support aux différents partenaires utilisant la plateforme Big data.
    Mentorer les nouveaux arrivant sur le projet pour les amener a développer les compétences
    nécessaires
    Veille technologiques et bench Mark
    Environnement technique :
    Stockage: Elasticsearch, Minio S3, posgresql.
    Traitement des données : apache Flink, Flink SQL, apache ustream.
    Securité : keycloak, casbin
    Plateforme de messagerie : Apache Kafka, Mqtt.
    Orchestration : Kubernetes, docker.
    ETL : Apache Nifi, Nod-red.
    Développement :
    Back-end : Go Lang, Java, python, nodejs
    Front-end: HTML, Javascript, echarts.js.
    Methodologies: Agile, Kanban, Jira
    Devops: gitlab CD/CI
    Déploiement : Ansible

    Autre: linux Centos, Cloud azure(IAAS), IOT, micro-services, MVP, Coworking (MVP),
    documentation (confluence, swagger)
    Page 4 / 9
    Mohamed ********
    Projet2 (11 mois) : Integration et deploiement de la solution SDP dans un projet de sécurisation et
    supervison de sites critiques.
    Mission : Deploiment du Cluster SDP et intefaçage de ce dernièr avec les sous systemes de l'ecosysteme
    existant.
    Réalisations / Tâches :
    Réception, vérification et paramétrages des livraisons reçues.
    Accompagnement et formation des differents intervenants sur le projets à la SDP et son utilisation
    (ingénieur IT et systemes, chefs de projet, developpeurs, testeurs, ingénieurs securité, ….)
    Remonter les differentes contraintes et failles ISO fonctionnelles liées aux exigences cients à
    l'equipe SDP et s'assurer que celles ci soit corrigerés ou implementées.
    Assurer le deploiment de la SDP sur les plateformes dediées :
    1. Verification des prerequis sur les machines livrées par l'IT et sur l'os endurci livré également
    2. deploiment de la solution SDP avec ansible.
    3. Analyse, detection des anomalies et création de patchs
    4. implémentation des régles métiers flink et ustream specifiques aux projet.
    5. Développenent des Job permettant l(integration des données specifiques pour
    l'industrialisation).
    Demonstration de la solution fonctionelle au client final (gendarmes & police).
    Environnement technique :
    Stockage: Elasticsearch, Minio S3, posgresql.
    Traitement des données : apache Flink, Flink SQL, apache ustream.
    Securité : keycloak, casbin
    Plateforme de messagerie : Apache Kafka, Mqtt.
    Orchestration : Kubernetes, containerd.
    Methodologies: Agile, Kanban
    Déploiement : Ansible
    Autre: linux Redhat 8.

    FEVRIER 2018 à aujourd’hui – INGENIEUR BIG DATA – Thales (TDF/SIX GTS)

    Projet : Développement d'une plateforme Big data Cloud/OnPremise, pour la gestion de la sécurité des villes intelligentes et des sites critiques.

    Mission : Assurer le workflow d’ingestion, de traitement des données sécurisées dans le data store.

    Réalisations / Tâches :

    Modélisation des événements provenant des différentes sources de données.
    Spécification des différentes interfaces pour les partenaires Thales.
    Développement d'Api’s, et Job ETL permettant l'alimentation de l'entrepôt de données.
    Mise en place des règles permettant le traitement et l'exploitation des données dans l'entrepôt de données.
    Développement d'outils de visualisation et dadshboard (KPI’s).
    Déploiement des services dans la plateforme Big data OnPremise.
    Support aux différents partenaires utilisant la plateforme Big data.

    Environnement technique :
    Stockage: Elasticsearch, Minio S3, posgresql.
    Traitement des données : apache Flink, Flink SQL, apache ustream.
    Securité : keycloak, casbin
    Plateforme de messagerie : Apache Kafka, Mqtt.
    Orchestration : Kubernetes, docker.
    ETL : Apache Nifi, Nod-red.
    Développement :
    Back-end : Go Lang, Java, python, nodejs
    Front-end: HTML, Javascript, jQuery, Ajax, echarts.js.
    Methodologies: Agile, Kanban
    Devops: gitlab CD/CI
    Déploiement : Ansible
    Autre: linux Centos, Cloud azure(IAAS), IOT, micro-services, MVP, Coworking (MVP), documentation (confluence, swagger)




















    Novembre 2017 – JANVIER 2018 Formation Consultant BigData FITEC

    Formation à l’écosystème Big Data

    Cycle de production (DevOps, Intégration Continue, Déploiement continue)
    Architecture distribuée BigData (Data lake, lambda, Batch, micro-batch, micro-services, …)
    Traitement des données avec Spark/Scala
    Architecture de l’écosystème Hadoop
    Méthodologie Agile.
    Intégration de données avec Talend, Kafka et Flume
    Base de données NoSQL (Cassandra, Hbase)
    Data Visualisation avec Tableau.

    Projet de fin de formation : Mise en place d’un Data Lake et développement d’une vision 360° client pour une boutique de vente de produits cosmétiques.

    Réalisations / Tâches :

    Mise en place de l’architecture BIG-DATA fonctionnelle, applicative et physique du Data lake.
    Benchmarking et étude des différents outils existants pour définir la solution adaptée au besoin
    Redimensionnement et administration du cluster HADOOP
    Conception des traitements à mettre en place.
    Développement et optimisation des traitements Spark en batch et en streaming.
    Contribution à l’exposition et à l’analyse des données pour la visualisation.

    Environnement technique :

    Spark & Spark streaming, Scala, shell, HortonWorks (Ambari, Ranger), zeppelin, FileBeat, ELK (LogStach, Elastic search, Kibana)


    VALEO EQUIPEMENTS ELECTRIQUES
    Septembre 2016-Octobre 2017

    Ingenieur Systèmes UDS

    Réalisation de l’architecture UDS pour assurer les fonctions de diagnostic sur la nouvelle génération d’alterno-démarreurs VALEO

    Réalisations
    Analyse des besoins du client en termes de fonctions de diagnostic à implémenter
    Définition de l’architecture UDS du logiciel embarqué sur la machine (bootloader primary, secondary, application, transitions entre les sessions de diagnostic, …).
    Définition de la stratégie DTC de gestion de default sur la machine (détection, confirmation, Snapshot, Aging, …)
    Définition des opérations de calibration effectuées par l’UDS en phase de production et de fin de ligne.
    Rédaction et Raffinement des exigences internes pour les équipes de développement et de test
    Support des équipes de développement et de test.
    Workshop organisées chez les constructeurs pour définir et étudier la faisabilité de l’implémentation des besoins du client.

    Environnement technique :
    Outil de spécification : Word (VBA)
    Développement des outils de tests : CANoe 8.0, CANalyser 8.5, CANDela Studio 8.5, CAPL, Canoe.Diva, CAPL.

    Continental
    Octobre 2015-Septembre 2016

    Ingénieur Système fonctionnel HMI
    Gestion des exigences relatives au fonctionnement des écrans IHM des autos radios MultiMedia automobiles
    Réalisations
    Rédaction, Convergence et acceptante des spécifications client.
    Rédaction et Raffinement des exigences internes pour les équipes de développement et de test
    Support des équipes de développement et de test.
    Analyses et spécification des nouvelles demandes du client sur le produit.
    Coordination avec le client final et gestion des livraisons du client.
    Gestion de projet et d’équipe.

    Environnement technique :
    Outil de spécification : DOORS
    Outils de gestion de configuration : IBM Rational Synergy, IBM Rational Change.

    Spetembre 2013-Octobre2015
    Ingénieur d’études et de développement logiciel
    Développement logiciel en Qt/Qml d’applications embarquées pour les auto-radios tactiles Multimédia dans le domaine de l’automobile.

    Projet : Développement logiciel de génération de code qml embarqué à partir des spécifications client XML

    Réalisations

    Développement des nouvelles fonctions à convertir dans l’outil.
    Développement de prototype (POC : démonstration de faisabilité).
    Gestion, Analyse, de la base de suivi d’anomalies.
    Support technique auprès de fournisseurs étrangers (inde, Roumanie, Pologne et Tunisie)
    Coordination avec le client final et gestion des livraisons du client.
    Gestion de projet et d’équipe.

    Environnement technique :
    Développement logiciel embarqué : Langage C++, Qml, Qt Creator.
    Environnement technique : Linux embarqué.
    Outils de gestion de configuration : IBM Rational Synergy, IBM Rational Change.

    Enerdis CHAUVIN-ARNOUX
    MARS 2012- Juin 2013
    Ingénieur d’études et de développement logiciel et Web
    Développement d’une passerelle réseaux intelligente permettant l’échange de données métiers entre les systèmes de supervision (PC) et les différents compteurs d’énergie sur site.

    Projet : Développement logiciel et implémentation des différentes couches de communication réseaux afin d’assurer la supervision à distance de l’énergie :

    Développement du protocole réseaux assurant la communication avec les PC de supervision.
    Développement des pages web embarquées sur la passerelle pour faciliter la configuration et la supervision des compteurs par le client.
    Réalisations
    Animation de la réunion de validation des solutions techniques avec l’équipe marketing :
    Détermination des Web Services réseaux à implémenter sur la passerelle.
    Présentation de la maquette du site web embarqué sur la passerelle.
    Analyse des besoins et rédaction des documents de spécification et de conception.
    Développement, validation et consolidation logicielles.
    Réponse aux évolutions fonctionnelles demandées par l’équipe de marketing.
    Environnement technique :
    Langage C, HTML5, CSS3, JavaScript, jQuery, Ajax, HighChart.js, http (REST/JSON), SQLight Linux embarqué, SVN, Mantis
    Environnement fonctionnel :

    VALEO INTERIOR CONTROL
    MAI 2010 – FEVRIER 2012
    Ingénieur d’études et de développement logiciel embarqué
    Projet : Evolutions logicielles dans le cadre du développement de calculateurs de climatisation pour des constructeurs automobile français

    Analyse des besoins du client
    Rédactions des documents de spécifications et d’architectures.
    Mise en place des modules logiciels de diagnostic embarqués sur les calculateurs de climatisation.
    Développement d’outils de simulation permettant la communication avec d’autres modules.
    Elaboration des plans de test et de validation.
    Environnement technique :
    Langage C, CAPL, PC-LINT, MISRA, CANOE, STATEMATE, CANDELA Studio, CANAPE, RECTIFY, PVCS
    Environnement fonctionnel :
    Cycle en V, Qualité logicielle, gestion d’exigences, CMMI 3

    Projet au forfait pour A2J LASER
    juin 2009 – décembre 2009
    Ingénieur d’études et développement logiciel C++/MFC
    A2j développe un produit de radiologie permettant le traitement des tumeurs des patients par Laser.
    Un logiciel est connecté à des axes Laser à l’intérieur de cet appareil afin de piloter ces derniers et gérer la sauvegarde et la restitution des données des patients.

    Projet : Evolution du logiciel de pilotage suite aux nouveaux besoins exprimés par le client
    Environnement technique :
    Langage C++, MFC, OpenGL, Visual Studio 6.0, SVN, Mantis, UML

    Projet au forfait pour infoparc
    octobre 2008 – mai 2009
    Ingénieur d’études
    Développement d’une nouvelle solution télématique LOW-COT basée sur un produit existant et comprenant moins de fonctionnalités.

    Projet : Etude du portage de l’application logicielle existante vers la nouvelle plateforme pour la nouvelle solution télématique
    Environnement technique :
    C, C++, Java, Windows CE 6.0, Visual Studio Embedded 4, Platform Builder

    Sagem mobiles
    février 2008 – septembre 2008 (stage de fin d’études)
    Ingénieur d’études et de développement logiciel C++/MFC
    Projet: Dans le cadre du développement et de la maintenance des logiciels embarqués dans les plateformes 2G. Sagem mobiles a mis en place un simulateur qui s’exécute sur des postes de travail Windows et qui permet d’interagir avec le code embarqué du téléphone porté également sur Windows.
    Mission : amélioration des performances, des fonctionnalités et de l’interface graphique du simulateur.
    Environnement technique :
    Langage C++, MFC, Visual Studio 6.0, UML 2.0, Nucleus, Windows, WinCVS

Études et formations
  • compétences mÉtier
    Analyse et gestion des exigences client
    Réalisation des documents de spécifications et d’architectures.
    Rédaction des documents de test, de validation et d’intégration
    Coordination et gestion de projet
    Connaissances des méthodologies Agiles (KANBAN, Scrum), Cycle en V (Incrémental), CMMI3

    TECHNOLOGIES MAÎTRISÉES
    Langages : Scala, Go, C/C++, HTML, CSS, JavaScript, Ajax, jQuery, HighChart, QML
    Systèmes d’exploitation : Linux Ubuntu, CentOs, Windows Server
    Réseaux et Protocoles : HTTP (REST/JSON)
    Méthodes : Cycles en V, Agile (KANBAN, Scrum), CMMI 3, DevOps
    Gestion d’anomalies : Mantis, IBM Rational Synergy
    Standards et Normes : PC-LINT, MISRA, UDS, KWP 2000
    IHM : MFC
    Base de données : SQLight, MySQL
    Intégration de données : Talend Big Data
    Analyse de données : Spark, Hadoop, Yarn, Hive
    Ordonnencement des flux : Oozie
    Gestion de configuration : SVN, PVCS, WinCVS, Mantis
    Data Visualisation : HighChart (JS)
    Conception : UML, DOORS, RHAPSODY
    Outils : Visual Studio 6.0, Embedded Visual C++, IntelliJ, Eclipse, Maven
    Notions : Machine Learning, Deep Learning, Apache Flink

    dIPLÔMES
    2008 : Master 2 option ingénierie des systèmes embarqués – INSSET – Saint Quentin
    2006 : Licence Option ingénierie des systèmes embarqués – INSSET – Saint-Quentin
    2005 : BTS IRIS (Informatique Industrielle) – Lycée Condorcet – Saint-Quentin

    FORMATIONS COMPLÉMENTAIRES
    2018 : Formation Fitec Concepteur Big Data – Mention très bien
    2018 : Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization Licence RC6EWBSLZ6YN (Coursera)
    2018 : Neural Networks and Deep Learning Licence RCV7HYKPZE4G (Coursera)
    2018 : Machine Learning Licence M545N9DWLBKZ (Coursera)SIONNELLEs
    LANGUES
    Anglais : Technique

D'autres freelances
Développeur APACHE KAFKA

Ces profils pourraient vous intéresser !
CV Data Engineer / Développeur Python
Marouane

Data Engineer / Développeur Python

  • PARIS
PYTHON PYSPARK APACHE SPARK Kafka APACHE KAFKA TALEND DI BIG DATA
Disponible
CV Ingénieur de développement JAVA
Didier

Ingénieur de développement JAVA

  • PARIS
JAVA DOCKER JENKINS ORACLE POSTGRESQL GIT SCRUM Angular Kubernetes APACHE KAFKA
Disponible
CV Développeur Angular
Mohamed

Développeur Angular

  • LYON
Angular JAVA SPRING APACHE KAFKA JAVASCRIPT SQL GIT MAVEN DOCKER
CV Développeur Full Stack Java React/Angular
Harinirina Stéphane

Développeur Full Stack Java React/Angular

  • NEUILLY-SUR-MARNE
JAVA SQL GIT Angular REACT.JS PYTHON DOCKER Kubernetes MONGODB APACHE KAFKA
Disponible
CV Développeur FullStack Java/Angular
El Mehdi

Développeur FullStack Java/Angular

  • SAINT-ÉTIENNE
Angular EMBER.JS JAVA Spring Boot API RESTful APACHE KAFKA POSTGRES PostGIS DOCKER GITLAB
Disponible
CV Développeur JAVA JEE Backend
Issam

Développeur JAVA JEE Backend

  • SAINT-GRATIEN
JAVA Spring Boot Microservices J2EE HIBERNATE ORACLE APACHE KAFKA OAUTH DOCKER Kubernetes
Disponible
CV Développeur JAVA
Roland

Développeur JAVA

  • NOISIEL
JAVA Spring Boot SPRING Angular Vue.js DOCKER Microservices JENKINS Kubernetes APACHE KAFKA
Disponible
CV Ingénieur de développement J2EE
Arbi

Ingénieur de développement J2EE

  • ASNIÈRES-SUR-SEINE
J2EE SPRING REST JAVA HIBERNATE POSTGRES SQL JUnit Microservices APACHE KAFKA
Disponible
CV Développeur JAVASCRIPT
Mohammed Zakaria

Développeur JAVASCRIPT

  • BAGNOLET
JAVASCRIPT JAVA Angular GIT TypeScript Spring Boot APACHE KAFKA
Disponible
CV Data Engineer | Developpeur Big Data
Mounir

Data Engineer | Developpeur Big Data

  • CHÂTENAY-MALABRY
APACHE SPARK SQL BIG DATA APACHE HADOOP SCALA JAVA PYTHON APACHE KAFKA NoSQL Cloudera
Disponible