Mohamed - Architecte Big Data / Expert Cloud AWS/GCP/Azure

Ref : 100518Z001
Actuellement disponible Email vérifié
Photo de Mohamed, Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Compétences
APACHE HADOOP
AMAZON WEB SERVICES
APACHE KAFKA
AZURE
Expériences professionnelles
CV plus récent en cours de mise à jour
  • Expérience professionnelle

    FUJITSU Service

    Durée Depuis 01/11/2022 Data Architecte-Expert Big Data / Cloud Architecte AWS
    Projet OneData
    Mission Au sein de l’équipe DX, OneData a pour objectif de promouvoir le développement à l'échelle de l'entreprise de l'utilisation et la gestion des données pour
    réaliser "DATA DRIVEN" .

    OneData Plateforme Data déployé sur le cloud AWS Multi région.

    Conception de l’architecture technique et applicative,
    Mise en place de l’architecture et des choix technologiques
    (AWS)

    Mise en place de la gouvernance de la data du système d’information en utilisant AWS Glue Catalog , Amazon DataZone

    Conception et Implémentations des services ( data-centric services)

    Développement des pipelines de migration pour quelques projets dans le ONEdata.

    Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.



    Projet : SAFRAN Landing Zone


    Mise en place de Landing Zone AWS
    Migration des applications
    Conception et Mise en place de la sécurité périmétrique sur AWS (Organisation,Comptes,VPC, Subnet , Security Groups … )


    Technologies AWS, AWS Transit Gateway; AWS ACM; AWS SSO , Glue , Glue Datacatalog, AWS DAtazone , ECS,EKS,EMR, Athena, Redshift Databricks, SageMaker , DATASync, Transfer for SFTP , Kinesis Data stream , S3 Glacier,API Gateway , Tablea , QliK , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python
    Equipe 6 Data ENGINEER, 1 chef de projet / Scrum master / 1 PO / 1 Architecte / 1 Tech Lead



    Expériences

    Decathlon Retail

    Durée De 01/02/2022 au 31/10/2022 Data Architecte-Expert Big Data / Cloud AWS
    Projet FORECAST
    Mission Au sein de l'AI Factory et de l’équipe Forecast on travaille
    plus spécifiquement sur les problématiques de prévisions au service des magasins Decathlon et sur les processus de data science de bout en bout.


    Conception de l’architecture applicative,
    Mise en place de l’architecture et des choix technologiques
    (AWS)

    Mise en place de la gouvernance de la data du système d’information en utilisant COLLIBRA et AWS Glue Catalog

    Instruire les chantiers de privacy by design et data security (chiffrement, déchiffrement et minimisation des données à caractères personnelles).

    Développement des pipelines ML Forecast / préparation des données.

    Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.

    Mise en place de procédures et de normes (CICD) (AWS, Airflow , Docker , Kubernetes )

    Technologies AWS, Databricks, SageMaker , EMR , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python, Archimate using Archi
    Equipe 2 DATASCIENTISTE, 4 Data ENGINEER, 1 chef de projet / Scrum master / 1 PO / 1 Architecte / 1 Tech Lead


    Decathlon Retail

    Durée Depuis 01/02/2022 Data Architecte-Expert Big Data / Cloud AWS
    Projet FORECAST
    Mission Au sein de l'AI Factory et de l’équipe Forecast on travaille
    plus spécifiquement sur les problématiques de prévisions au service des magasins Decathlon et sur les processus de data science de bout en bout.


    Conception de l’architecture applicative,
    Mise en place de l’architecture et des choix technologiques
    (AWS)

    Mise en place de la gouvernance de la data du système d’information en utilisant COLLIBRA et AWS Glue Catalog

    Instruire les chantiers de privacy by design et data security (chiffrement, déchiffrement et minimisation des données à caractères personnelles).

    Développement des pipelines ML Forecast / préparation des données.

    Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.

    Mise en place de procédures et de normes (CICD) (AWS, Airflow , Docker , Kubernetes )





    Technologies AWS, Databricks, SageMaker , EMR , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python, Archimate using Archi
    Equipe 2 DATASCIENTISTE, 4 Data ENGINEER, 1 chef de projet / Scrum master / 1 PO / 1 Architecte / 1 Tech Lead


    Decathlon Retail

    Durée Depuis 01/02/2022 Data Architecte-Expert Big Data / Cloud AWS
    Projet FORECAST
    Mission

    Développement des pipelines ML Forecast / préparation des données

    Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.

    Mise en place de procédures et de normes (CICD ) ( AWS , Airflow , Docker , Kubernetes )

    Technologies AWS, Databricks, SageMaker , EMR , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python

    Société Générale (SGSS) Banque

    Durée Depuis 01/03/2021 Data Architecte-Expert Big Data
    Projet DATHUB
    Mission
    Projet Réglementaires : CSDR, Trustee

    Mise en place de l’architecture et des choix technologiques
    Conception de l’architecture applicative.

    Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.

    Mise en place de procédures et de normes (CICD )

    Technologies Azure, EventHub, HDinsight, cosmosDB, Kafka, Datafactory,ADLS GEN 2, Informatica, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python

    SOLOCAL Service

    Durée De 01/01/2020 jusqu’à 01/02/2021 Data Architecte
    Projet Core Team SOLOCAL
    Mission
    Administration transverse de la plateforme GCP cloud de SOLOCAL.

    Conception et Développement des projets de gestion de contenu sur Cloud GCP sur Bigquery, cloud SQL, Salesforce, Dataproc

    Technologies GCP, BigQuery , Spark, Spark ML, AirFlow, Kubernetes, Scala & Python

    JohnSnowLabs Service industrie pharmaceutique

    Durée De 01/02/2020 – 06/07/2020 Senior Data/Machine Learning Engineer
    Projet Spark-OCR / Spark-NLP
    Mission
    Développement des librairies autour de OCR, NLP, Machine Learning et l’apprentissage automatique en utilisant le framework Spark.

    Développement des librairies de De-identification des objets Dicom

    Technologies AWS, S3, GCP , BigQuery , Spark, Spark ML, Databricks, AirFlow, Azure , Synapse , DataFactory Kubernetes, Tensorflow 2.0, Keras
    Tesseract, NLP, OCR, Scala & Python
    Equipe 1 Architecte, 1 développeur

    Weefin Service

    Durée 15/12/2019 jusqu’à 31-01-2020 Lead Architect Big Data
    Projet ESG-CONNECT : application SaaS (Software as a Service) pour l’analyse et le traitement de donnée ESG à destination des gestionnaires d’actifs.
    Mission
    Définition de l’architecture d’une plateforme Cloud sur AWS
    Mise en place de procédures et de normes DEVOPS dans l’exploitation de la plateforme

    Technologies AWS, S3, Terraform, Ansible, SnowFlake , Databricks Delta Lake , AirFlow
    CodePipeline,Tensorflow 2.0 , Keras
    Equipe 1 Architecte, 1 développeurs

    MYMONEYBANK
    Banque
    Durée
    Depuis 01/08/2018
    Lead Architect Big Data
    Projet
    DATAHUB : Refonte du système d’information MMB
    Mission

    Mise en place de l’architecture et des choix technologiques
    Conception de l’architecture applicative
    Mise en place de procédures et de normes dans l’exploitation de la plateforme
    Conception et Développement des projets d’intégrations des données au sein du datalake DATAHUB.
    Accompagnement des Data Scientists dans l’utilisation des outils de data science et de la préparation de la donnée
    Mise en place de solution de datagouvernance ( classification, lineage de donnée, préparation et check des données ).

    Technologies
    AWS,S3, Ecosystem HADOOP HDP 3 , SCALA , JAVA, SPARK, KAFKA, HIVE LLAP , OOZIE , ATLAS , Terraform , ansible

    Equipe
    1 CP, 1 Architecte , 3 développeurs

    Société Générale ( SGIB)
    Banque
    Durée
    Depuis 01/10/2017 jusqu’à 30/06/2018
    Architect Big Data
    Projet
    Travailler sur 3 projets au sein de la société Générale.
    1) MIFID2_Best_Execution
    2) GBIS Data Discovery
    3) Architecture Datalake FCC
    Mission

    Mise en place de l’architecture et des choix technologiques
    Accompagner les équipes de développements sur la mise en place des solutions.

    Technologies
    Ecosystem HADOOP HDP, JAVA, SPARK, KAFKA, HIVE, OOZIE

    Equipe
    1 CP, 1 Architecte , 3 développeurs

    Autorité des Marchés Financiers
    Banque
    Durée
    Depuis 01/02/2017
    Lead Architect
    Projet
    ICY, le nouvel outil de surveillance que l’AMF commence à développer en interne, reposera sur des technologies de type « Big Data », qui permettent d’exploiter rapidement des données représentant des volumes importants et de natures diverses. L’AMF souhaite ainsi renforcer sa faculté d’examen en temps réel pour une plus grande réactivité, mais aussi améliorer la détection des abus de marché grâce à des outils d’intelligence artificielle comme l’apprentissage automatique (machine learning). Certains modèles de détection, pour les manipulations de cours par exemple, pourront être ajustés automatiquement avec ce type de technologie.
    Mission

    Mise en place de l’architecture technique
    Mise en place de l’architecture applicative
    Mise en place de procédures et de normes dans l’exploitation de la plateforme
    Conception et Développement des projets d’intégrations des données au sein du datalake AMF.
    Accompagnement des Data Scientists dans l’utilisation des outils de data science

    Technologies
    Ecosystème HADOOP HDP, AKKA, SCALA, JAVA, PYTHON, SPARK, KAFKA, RANGER, KNOX ELASTICSEARCH

    Equipe
    1 CP, 3 PO , 1 Architecte , 8 développeurs
    Expériences

    LCL
    Banque
    Durée
    01/09/2016-31/01/2017
    Expert Big Data Architecte
    Projet
    MISE EN PLACE D’UNE PLATEFORME BIG DATA AFIN DE REPONDRE AUX BESOINS DES EQUIPES MARKETING
    Conception et Développement du projet DATA-LAYER au sein de
    SAB(Service Analytics Big Data)
    Mission

    Elaboration de la Roadmap Big Data 2016/2017

    Définition, construction, installation, tests et maintien de la plateforme Big Data
    Gestion de l’intégration de nouvelles données dans la plateforme

    Mise en place de procédures et de normes dans l’exploitation de la plateforme

    Accompagnement des Data Scientists dans l’utilisation des outils de data science

    Conception et Développement du projet DATA-LAYER au sein de
    SAB(Service Analytics Big Data)

    Technologies
    MainFrame z/os , MapR, MapRDB, Hadoop, Sqoop, Pig, Hive, Spark, Hue, Data Science

    Studio, Teradata, Oracle, Elasticsearch, Kibana, Logstash
    Equipe
    1 CP, 1 PO , 1 Architecte

    TERADATA
    Editeur
    Durée
    01/09/2015-31/08/2016
    Expert Big Data Architecte
    Projet
    Expertise Big Data Transverse au sein du Centre de compétence hadoop d’ORANGE

    Mission

    Rédaction du document d’architecture technique des différents projets
    Mise En Place du socle technique et Installation du cluster sur
    une dizaine de machines

    Mise en place de la sécurité dans le cluster et les projets Big Data (knox ,Ranger,Kerberos , SSL )

    Développement des API big Data spécifique
    Développement et réalisation des POC s

    Technologies
    Java, hadoop Maven, Shell, JIRA , GIT , FLUME , apache crunch hadoop pipeline , Spark , Kafka , Cassandra , ElasticSearch , logstash , hbase , Junit , D3.js , nvd3.js , apache camel , Scala , AKKA , Zookeeper , Kerberos , SSL ,Spark MLLIB , HUE , HIVE , PIG ,TEZ , KIbana , ZEPPELIN , Knox , Ranger , ElasticSearch Security ,SearchGuard
    Equipe
    1 CP, 1 PO , 7 Dev

    SACEM
    Service-Musique
    Durée
    01/02/2015-31/08/2015
    Senior Big Data Consultant
    Projet
    Projet « SHARON »
    New Online data repository & processing platform

    Mission

    Rédaction du document d’architecture technique
    Mise En Place du socle technique et Installation du cluster sur une dizaine de machines
    Conception et Développement des modules :
    i. Import et stockage des données dans Elasticsearch et Cassandra (Gisement ) en mode batch et streaming

    ii. Conception du module workflow et Intégration avec les systèmes externes
    iii. Génération des statistiques et des aggrégations
    iv. Data Analytics – Machine Learning Algorithme

    Déploiements du cluster hadoop , Spark , YARN , ElasticSearch , logstash , Cassandra (AMbari)

    Tests et validations des tâches effectuées (Test unitaire).

    Technologies
    Java, Spring, hadoop , avro ,Spring JDBC , Maven, Shell, JIRA , GIT , FLUME , apache crunch hadoop pipeline , Spark , Kafka , Cassandra , ElasticSearch , hbase , Junit , D3.js , nvd3.js , apache camel , Scala , AKKA , Zookeeper
    Equipe
    1 CP, 1 PO , 2 Dev

    IPTWINS
    Editeur de Logiciel
    Durée
    01/01/2015-31/01/2015
    Senior Big Data Consultant
    Projet
    Projet « Domain Search »
    Refonte du système d’information d’IPTWINS pour la recherche des noms de domaines
    Mission

    Rédaction du document d’architecture technique
    Etude, réalisation et le Développements du système d’information d’IPTWINS

    Conception et Développement des modules :
    v. Traitement automatique et stockage des données

    vi. Recherche des noms de domaines
    vii. Génération des statistiques

    Déploiements du cluster hadoop (cloudera Manager)
    Installation des outils Cloudera Search , Flume , Hbase

    Tests et validations des tâches effectuées (Test unitaire).

    Technologies
    Java, Spring, hadoop , avro ,Spring JDBC , Eclipse SQL Maven, Shell, JIRA , SVN , apache crunch hadoop pipeline , hbase , Junit , D3.js , nvd3.js , apache camel
    Equipe
    1 CP, 1 Développeur

    TOMTOM
    Localisation et Navigation Services
    Durée
    01/02/2014-31/12/2014
    Consultant technique
    Projet
    Projet « CPP Cycle Time »
    Refonte du système d’information de TomTom pour la génération de Map
    Mission
    Participation à l’étude, réalisation et le Développements du framework : TOMTOM Big Data API

    Conception et Développement des modules :
    viii. Visualization Display (Junction Views / 2DCM / ACM / 3DLM)
    ix. Voice Maps (Systèmes de génération de phonèmes pour alimenter la nouvelle plateforme)

    x. Speed Profiles
    xi. Map Artifacts

    Déploiements des projets en utilisant Jenkins, puppet

    Tests et validations des tâches effectuées (Test unitaire).

    Test d’intégrations (Jbehave/jenkins)
    Technologies
    Java, Spring, hadoop , avro ,Spring JDBC , Eclipse SQL, Oracle , PostgreSQL , Drools , JMS , Maven, Shell, JIRA , SVN , Git, Puppet , JENKINS , Sonar , apache crunch hadoop pipeline , hbase , Jbehave , Junit ,Selenium , D3.js , nvd3.js , Liquibase, apache camel
    Equipe
    2 CP, 5 Développeurs

    SFR
    TELECOM
    Durée
    01/02/2013-31/01/2014
    Consultant technique
    Projet
    Projet LEA
    Gestion de la facturation multi opérateur.
    Mission

    Développements du module Gestion des acomptes.

    Corrections des anomalies, chiffrages et développements des évolutions.

    Tests et validations des tâches effectuées (Test unitaire ).

    Déploiement des correctifs et des évolutions sur les différents serveurs.

    Mise en place d’un plan d’action d’analyse des performances de l’application

    Analyses et Tests de performance (JProfiler , SqlProfiler) et correction des problèmes.

    Technologies
    Java, J2ee, Spring, Jpa, hibernate ,Spring JDBC , Eclipse ,Oracle, SQL, PL/SQL, Maven, Tomcat, Shell, JIRA , SVN ,JENKINS , Wicket , Eh-Cache ,Sonar , Jprofiler, SqlProfiler
    Equipe
    2 CP, 4 Développeurs

    SFR
    TELECOM
    Durée
    01/02/2012-31/01/2013
    Consultant technique
    Projet
    Projet Selfcare unifié
    la fusion de l’application MonCompte destinée aux clients fixe, ADSL et THD de SFR et des différentes applications destinées aux clients mobiles de SFR.
    Mission

    Développements Java/J2EE, modifications de la base de données via des scripts SQL, PL/SQL.
    Exposition des services web aux systèmes applicatifs externes et internes.

    Mise en place d’un cluster hadoop avec l’outil puppet.

    Historisation des actes de gestion et statistiques utilisateurs (Hbase , Hadoop , Hive , Pig , Lucene/Solr …)

    Analyse des anomalies, des évolutions relevées par le client via JIRA.

    Corrections des anomalies, chiffrages et développements des évolutions.

    Tests et validations des tâches effectuées (Test unitaire , Test d’intégration , Mock des websercice).

    Déploiement des correctifs et des évolutions sur les différents serveurs.

    Echanges clients concernant les précédents points.

    Technologies
    Java, J2ee, Spring, Jpa, hibernate ,Spring JDBC , Eclipse ,Oracle, SQL, PL/SQL, Maven, Tomcat, Shell, JIRA , SVN ,JENKINS , CXF, Axis ,Struts, JIRA/Confluence, Eh-Cache , Memcached, Mockito ,JUNIT,DBUNIT, Hbase , Hadoop , Hive , MongoDb , Lucene/solr ,JQUERY, HTML 5 , CSS
    Equipe
    2 CP, 12 Développeurs
    Methodologie
    Agile (Scrum)
    Rédaction du backlog
    Préparation du Sprint
    Rétrospective /Demo

    Chorégie
    Mutuelle
    Durée
    01/08/11-31/01/2012
    Ingénieur d’Etude
    Projet
    TELESERVICE : Evolution du système d’information VITALE-CEAM
    Mission
    Etude et développement des modules « Déclaration Perte Vol d’une carte vitale », « Demande de carte CEAM » et « Renouvellement d’une carte vitale»

    Développement du WEB service « Déclaration Perte Vol d’une carte vitale ».
    Développement du WEB service « Demande de carte CEAM »
    Développement du WEB service « Renouvellement d’une carte vitale »
    Tests unitaires
    Traitement des fiches de retours recette

    Technologies
    Java 1.5, J2EE, EJB, WEB Service (Axis) , Hibernate, Oracle 10g, WAS 6 , Junit , RAD 7

    Chorégie
    Mutuelle
    Durée
    01/07/10 – 31 /07/11
    Ingénieur d’Etude
    Projet
    Mutation Inter-Régime Mutualisé.

    Mission
    Conception et développement de l’application Mutation Inter-Régime Mutualisé.

    Conception et spécification technique détaillée.
    Développement des IHMs et des services métiers dans le module «ORPER».
    Développement des services métiers dans le module «VITALE».
    Tests unitaires
    Traitement des fiches de retours recette

    Technologies
    Java 1.5, J2EE, EJB, FLEX 3 , FLASH Builder , Hibernate, Oracle 10g, WAS 6 , Junit , RAD 7
    Equipe
    1 CP, 2 Développeurs

    OALIA
    Edition Logicielle
    Durée
    01/11/09 – 30/06/10
    Ingénieur d’Etude
    Projet
    Evolution du produit OALIA SRM (Supplier RelationShip Management): plateforme de gestion des processus d’achat et des appels d’offre utilisée par BNP Paribas, Société Générale (RESAO : BDDF ; Phoenix : SGCIB), CACIB, Bouygues Telecom, RATP …
    Mission
    Etude et développement des modules « Forfait » et « E-Procurement» dédiés aux achats de services informatiques (assistance technique et projet)

    Evolution et développement de nouvelles fonctionnalités
    Développement des IHMs et des services métiers dans le module « Forfait ».
    Développement des IHMs et des services métiers dans le module «E- Procurement».
    Tests unitaires
    Traitement des fiches de retours recette
    Encadrement technique de 3 développeurs juniors

    Technologies
    Java 1.5 & 1.6, J2EE, Turbine (Framework de présentation), Velocity (Moteur de Template), JPA, Hibernate, Oracle 10g, Tomcat, Junit
    Equipe
    1 CP, 8 Développeurs

    Du 15 juillet 2007 au 30 Mai 2008:
    Ingénieur développement, Intégrateur J2EE/SOA GS1 Tunisia
    PROJET :
    • Conception et développement de l'application SMS Code à Barre : JBOSS, EJB 2.0, Servlet, J2ME
    • Conception et développement de l'application SMS Price_Comparaison : JBOSS, EJB 2.0, Servlet, J2ME
    • Développement d'un HUB de communication qui lie la partie back office et la partie front office de la plateforme de e-commerce "Tunicommerce V2" (ESB open source Petals et ServiceMIX, SOA, Web Services, JBI, BPEL)
    • Conception et développement des modules de sécurité de la plateforme "TunicommerceV2" (CAS (SSO) + Acegi + LDAP)
    • Conception et développement de l'application Tuni_RESTO : M-commerce (J2EE, J2ME, WAP)
    • Conception et développement des modules de statistiques dans le projet Syrcot (Registre de Commerce Local) (Spring, Struts, Hibernate, JasperReport, IReport)
    • Tuning et Optimisation des requêtes SQL (Hibernate, Oracle)

    Du 1 juin 2008 à ce jour :
    Ingénieur d'étude, architecte junior java/J2EE Talan Tunisie
    PROJET SIATM :
    • Conception IHM du projet SI-ATM GAZ DE France
    • Mise en place de l’architecture technique du développement du projet SI-ATM
    • Rédaction des documents de spécification technique et de conception du projet SIATM
    • Développement des modules d’administration et de sécurité du SI-ATM (Dojo, Struts2, EJB3, Spring…)
    • Développement du module internationalisation (i18n) du projet SI-ATM.
    • Développement des modules Mode dégradé et Echange (Intégration avec des systèmes externes via FTP et web services)
    • Analyse et Audit de code
    • Chargé d’optimiser la performance de l’application
    • Tests de performance et correction des problèmes.
    • Mise en place d’un plan d’action d’analyse des performances de l’application (Sql-Profiler, Jprofiler , GlassBox, Jmeter)
    • Administration et Tuning Weblogic (Clustering ,Load Balancing )

Études et formations
CV plus récent en cours de mise à jour
  • Domaines de compétences

    Langages de Programmation Java, Scala, python, PL/SQL, Pig Latin, HQL, R
    Designs Patterns
    Méthode et Outils GOF Design patterns, J2EE Design patterns, EJB Design patterns
    Modélisation avec UML, Merise
    Eclipse, JBuilder, Power AMC, DB Visualizer, TOAD, WinDesign
    Compétence en Développement WEB HTML, JSP, XML, XSL, XSLT, JavaScript/AJAX, Freemarker , Velocity, STRUTS (1,2) ,Turbine, Sitemesh,Tiles, Spring MVC, FLEX 3 , 4 ,Wicket
    Compétence AJAX Dojo(toolkit), Direct Web Remoting (DWR), Scriptaculous, Prototype, JQUERY
    Compétence Services et Sécurité Logiciel Spring (AOP, IOC), EJB, Hibernate, JPA, EhCache
    JAAS, Acegi, Spring Security, CAS, LDAP v3, SAML, XML Security, XACML, SSL, SASL, Kerberos

    Base de Données, Systèmes Distribués et Big Data DATAVAULT Modeling , Oracle 9i, SQL Server, MYSQL, POSTGRESQL, ORACLE 10g
    NOSQL DATASORES : MAP / REDUCE ,HADOOP , HBASE , HDFS , Pig ,Hive , CASSANDRA ,Puppet, Ganglia ,Sqoop, Flume, OOzie, Apache crunch, SPark , Neo4j, ElasticSearch,logstash ,Solr , Liquibase , SnowFlake , Databricks Delta lake , Hudi , Icebirg

    Cloud/DEVOPS/MLOPS AWS, Azure, GCP, Docker, AirFlow, Kubernetes, Kubeflow
    AWS Storage services: S3, Glacier, EFS, Storage Gateway and EBS,EMR,Athena,Glue , BigQuery , Cloud SQL , MLflow, Dataproc,Synapse Analytics , Datafactory , Azure Networking Vnets, Active Directory, Service Endpoint, Private Link )

    Machine Learning TensorFlow, Keras, Spark ML, Machine learning, Deep Learning, OCR, NLP
    Compétence SOA & Web Services GraphQL, Sangria, XFIRE, CXF, Axis, WSDL, JAX-WS, JAX-RS (REST), BPEL (ODE, PXE), ESB (ServiceMIX, Mule, Petals), Apache Camel Drools , OS Workflow, ApacheMQ , Lucene ,Solr , Elastic Search , GraphQL
    Infrastructure développement et Outils BuildForge, Hudson, Maven, ANT, CVS, Subversion,Git Groovy Scripting, Log4J, JUnit

    Infrastructure Applicative Apache, Tomcat, Weblogic 8.1, Weblogic 10 , JBOSS, Jetty , WAS 6.1
    Infrastructure Système MS-DOS, Windows, Linux
    Compétence en Développement Mobile Android, FLEX, Mobile, J2ME, WAP,
    Compétence en Business Intelligence et Autres Talend, JasperReport, Ireport, BIRT
    Sql-Profiler, Jprofiler, Grinder, Jmeter, GlassBox



    Etudes et diplômes


    2004-2007 Diplôme Nationale d’Ingénieur / Ecole Nationale des Sciences Informatiques de Tunis
    Juin 2004 Certificat de passage aux écoles d’Ingénieurs / Institut Préparatoire aux écoles d’Ingénieurs de Tunis
    Juin 2002 Baccalauréat / Lycée 2 Mars La Goulette Tunis

    Langues

    Anglais Courant et technique (lu, écrit et parlé)



    Formations et Certifications

    DATA VAULT 2.0 Practitoner LEGACY Certification 2023

    AWS Big Data Specialty Certification 2020

    Cloudera Data Analyst Training: Using Pig, Hive, and Impala with Hadoop (DATA-ANALYST) Exit Certified

    Big Data Analytics (********) Hadoop, Pig, Hive, MapReduce

    Projets

     Mise en place d’une plateforme IOT/SCADA/ALARMING
    - Rédaction de l’Architecture technique de la plateforme
    - Implémentation et développement des modules fonctionnels
    - Mise en place de la démarche devops de la plateforme

    -- Technologies:

    Kepware Server, Modbus, MQTT, RabbitMQ, Kafka 0.10, Akkad, Camel, Spark 2.0, Cassandra 3.0, Spring MVC, Akka Streams, slick
    Mesos , Marathon , Docker , Vagrant

D'autres freelances
Consultant JAVA

Ces profils pourraient vous intéresser !
CV Développeur TALEND
Boussad

Développeur TALEND

  • RUEIL-MALMAISON
TALEND SQL ORACLE SQL SERVER JAVA
Disponible
CV Architecte JAVA
Hatem

Architecte JAVA

  • PUTEAUX
JAVA J2EE LINUX ORACLE SQL
Disponible
CV Développeur C++
Camille

Développeur C++

  • MÉRÉVILLE
C++ PYTHON JAVASCRIPT SQL C# ASSEMBLEUR PHP .NET JAVA
Disponible
CV Développeur JAVA full remote
Contact

Développeur JAVA full remote

  • LYON
JAVA SQL ORACLE Angular
Disponible
CV Tech lead
Fabien

Tech lead

  • GRATENTOUR
JAVA SPRING SQL SAFE HIBERNATE LINUX
Disponible
CV Développeur DevOps
Rida

Développeur DevOps

  • DUNKERQUE
C++ JAVA C# CI/CD REACT.JS Angular SQL PL SQL .NET J2EE
Disponible
CV Analyste développeur moyen de paiement CASHPOOLER
Yacine

Analyste développeur moyen de paiement CASHPOOLER

  • PARIS
ORACLE SQL AGILE SQL SERVER UNIX WINDOWS LINUX JAVA
Disponible
CV Développements logiciels
Loic

Développements logiciels

  • SAINTE-MARIE
PHP SYMFONY PHP LARAVEL WINDEV JAVA
Disponible
CV Architecte JAVA
Fabien

Architecte JAVA

  • ORLÉANS
JAVA J2EE REST Spring Boot SOA APACHE KAFKA POSTGRESQL AGILE DOCKER CASSANDRA
Disponible
CV Développeur full stack JAVA
Abdallah

Développeur full stack JAVA

  • SADA
JAVA J2EE Spring Boot API RESTful REACT.JS ORACLE SQL PHP JAVASCRIPT LINUX
Disponible