Mohamed - Architecte Big Data / Expert Cloud AWS/GCP/Azure
Ref : 100518Z001-
91120 PALAISEAU
-
Consultant, Architecte, Data Analyst (40 ans)
-
Télétravail uniquement
-
Bientôt freelance
Expérience professionnelle
FUJITSU Service
Durée Depuis 01/11/2022 Data Architecte-Expert Big Data / Cloud Architecte AWS
Projet OneData
Mission Au sein de l’équipe DX, OneData a pour objectif de promouvoir le développement à l'échelle de l'entreprise de l'utilisation et la gestion des données pour
réaliser "DATA DRIVEN" .
OneData Plateforme Data déployé sur le cloud AWS Multi région.
Conception de l’architecture technique et applicative,
Mise en place de l’architecture et des choix technologiques
(AWS)
Mise en place de la gouvernance de la data du système d’information en utilisant AWS Glue Catalog , Amazon DataZone
Conception et Implémentations des services ( data-centric services)
Développement des pipelines de migration pour quelques projets dans le ONEdata.
Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.
Projet : SAFRAN Landing Zone
Mise en place de Landing Zone AWS
Migration des applications
Conception et Mise en place de la sécurité périmétrique sur AWS (Organisation,Comptes,VPC, Subnet , Security Groups … )
Technologies AWS, AWS Transit Gateway; AWS ACM; AWS SSO , Glue , Glue Datacatalog, AWS DAtazone , ECS,EKS,EMR, Athena, Redshift Databricks, SageMaker , DATASync, Transfer for SFTP , Kinesis Data stream , S3 Glacier,API Gateway , Tablea , QliK , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python
Equipe 6 Data ENGINEER, 1 chef de projet / Scrum master / 1 PO / 1 Architecte / 1 Tech Lead
Expériences
Decathlon Retail
Durée De 01/02/2022 au 31/10/2022 Data Architecte-Expert Big Data / Cloud AWS
Projet FORECAST
Mission Au sein de l'AI Factory et de l’équipe Forecast on travaille
plus spécifiquement sur les problématiques de prévisions au service des magasins Decathlon et sur les processus de data science de bout en bout.
Conception de l’architecture applicative,
Mise en place de l’architecture et des choix technologiques
(AWS)
Mise en place de la gouvernance de la data du système d’information en utilisant COLLIBRA et AWS Glue Catalog
Instruire les chantiers de privacy by design et data security (chiffrement, déchiffrement et minimisation des données à caractères personnelles).
Développement des pipelines ML Forecast / préparation des données.
Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.
Mise en place de procédures et de normes (CICD) (AWS, Airflow , Docker , Kubernetes )
Technologies AWS, Databricks, SageMaker , EMR , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python, Archimate using Archi
Equipe 2 DATASCIENTISTE, 4 Data ENGINEER, 1 chef de projet / Scrum master / 1 PO / 1 Architecte / 1 Tech Lead
Decathlon Retail
Durée Depuis 01/02/2022 Data Architecte-Expert Big Data / Cloud AWS
Projet FORECAST
Mission Au sein de l'AI Factory et de l’équipe Forecast on travaille
plus spécifiquement sur les problématiques de prévisions au service des magasins Decathlon et sur les processus de data science de bout en bout.
Conception de l’architecture applicative,
Mise en place de l’architecture et des choix technologiques
(AWS)
Mise en place de la gouvernance de la data du système d’information en utilisant COLLIBRA et AWS Glue Catalog
Instruire les chantiers de privacy by design et data security (chiffrement, déchiffrement et minimisation des données à caractères personnelles).
Développement des pipelines ML Forecast / préparation des données.
Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.
Mise en place de procédures et de normes (CICD) (AWS, Airflow , Docker , Kubernetes )
Technologies AWS, Databricks, SageMaker , EMR , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python, Archimate using Archi
Equipe 2 DATASCIENTISTE, 4 Data ENGINEER, 1 chef de projet / Scrum master / 1 PO / 1 Architecte / 1 Tech Lead
Decathlon Retail
Durée Depuis 01/02/2022 Data Architecte-Expert Big Data / Cloud AWS
Projet FORECAST
Mission
Développement des pipelines ML Forecast / préparation des données
Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.
Mise en place de procédures et de normes (CICD ) ( AWS , Airflow , Docker , Kubernetes )
Technologies AWS, Databricks, SageMaker , EMR , kafka , S3, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python
Société Générale (SGSS) Banque
Durée Depuis 01/03/2021 Data Architecte-Expert Big Data
Projet DATHUB
Mission
Projet Réglementaires : CSDR, Trustee
Mise en place de l’architecture et des choix technologiques
Conception de l’architecture applicative.
Mise En Place du socle technique de développement Big Data / Cloud / Best Practises.
Mise en place de procédures et de normes (CICD )
Technologies Azure, EventHub, HDinsight, cosmosDB, Kafka, Datafactory,ADLS GEN 2, Informatica, Terraform, Ansible, Spark, Spark ML, AirFlow, Kubernetes, Scala & Java & Python
SOLOCAL Service
Durée De 01/01/2020 jusqu’à 01/02/2021 Data Architecte
Projet Core Team SOLOCAL
Mission
Administration transverse de la plateforme GCP cloud de SOLOCAL.
Conception et Développement des projets de gestion de contenu sur Cloud GCP sur Bigquery, cloud SQL, Salesforce, Dataproc
Technologies GCP, BigQuery , Spark, Spark ML, AirFlow, Kubernetes, Scala & Python
JohnSnowLabs Service industrie pharmaceutique
Durée De 01/02/2020 – 06/07/2020 Senior Data/Machine Learning Engineer
Projet Spark-OCR / Spark-NLP
Mission
Développement des librairies autour de OCR, NLP, Machine Learning et l’apprentissage automatique en utilisant le framework Spark.
Développement des librairies de De-identification des objets Dicom
Technologies AWS, S3, GCP , BigQuery , Spark, Spark ML, Databricks, AirFlow, Azure , Synapse , DataFactory Kubernetes, Tensorflow 2.0, Keras
Tesseract, NLP, OCR, Scala & Python
Equipe 1 Architecte, 1 développeur
Weefin Service
Durée 15/12/2019 jusqu’à 31-01-2020 Lead Architect Big Data
Projet ESG-CONNECT : application SaaS (Software as a Service) pour l’analyse et le traitement de donnée ESG à destination des gestionnaires d’actifs.
Mission
Définition de l’architecture d’une plateforme Cloud sur AWS
Mise en place de procédures et de normes DEVOPS dans l’exploitation de la plateforme
Technologies AWS, S3, Terraform, Ansible, SnowFlake , Databricks Delta Lake , AirFlow
CodePipeline,Tensorflow 2.0 , Keras
Equipe 1 Architecte, 1 développeurs
MYMONEYBANK
Banque
Durée
Depuis 01/08/2018
Lead Architect Big Data
Projet
DATAHUB : Refonte du système d’information MMB
Mission
Mise en place de l’architecture et des choix technologiques
Conception de l’architecture applicative
Mise en place de procédures et de normes dans l’exploitation de la plateforme
Conception et Développement des projets d’intégrations des données au sein du datalake DATAHUB.
Accompagnement des Data Scientists dans l’utilisation des outils de data science et de la préparation de la donnée
Mise en place de solution de datagouvernance ( classification, lineage de donnée, préparation et check des données ).
Technologies
AWS,S3, Ecosystem HADOOP HDP 3 , SCALA , JAVA, SPARK, KAFKA, HIVE LLAP , OOZIE , ATLAS , Terraform , ansible
Equipe
1 CP, 1 Architecte , 3 développeurs
Société Générale ( SGIB)
Banque
Durée
Depuis 01/10/2017 jusqu’à 30/06/2018
Architect Big Data
Projet
Travailler sur 3 projets au sein de la société Générale.
1) MIFID2_Best_Execution
2) GBIS Data Discovery
3) Architecture Datalake FCC
Mission
Mise en place de l’architecture et des choix technologiques
Accompagner les équipes de développements sur la mise en place des solutions.
Technologies
Ecosystem HADOOP HDP, JAVA, SPARK, KAFKA, HIVE, OOZIE
Equipe
1 CP, 1 Architecte , 3 développeurs
Autorité des Marchés Financiers
Banque
Durée
Depuis 01/02/2017
Lead Architect
Projet
ICY, le nouvel outil de surveillance que l’AMF commence à développer en interne, reposera sur des technologies de type « Big Data », qui permettent d’exploiter rapidement des données représentant des volumes importants et de natures diverses. L’AMF souhaite ainsi renforcer sa faculté d’examen en temps réel pour une plus grande réactivité, mais aussi améliorer la détection des abus de marché grâce à des outils d’intelligence artificielle comme l’apprentissage automatique (machine learning). Certains modèles de détection, pour les manipulations de cours par exemple, pourront être ajustés automatiquement avec ce type de technologie.
Mission
Mise en place de l’architecture technique
Mise en place de l’architecture applicative
Mise en place de procédures et de normes dans l’exploitation de la plateforme
Conception et Développement des projets d’intégrations des données au sein du datalake AMF.
Accompagnement des Data Scientists dans l’utilisation des outils de data science
Technologies
Ecosystème HADOOP HDP, AKKA, SCALA, JAVA, PYTHON, SPARK, KAFKA, RANGER, KNOX ELASTICSEARCH
Equipe
1 CP, 3 PO , 1 Architecte , 8 développeurs
Expériences
LCL
Banque
Durée
01/09/2016-31/01/2017
Expert Big Data Architecte
Projet
MISE EN PLACE D’UNE PLATEFORME BIG DATA AFIN DE REPONDRE AUX BESOINS DES EQUIPES MARKETING
Conception et Développement du projet DATA-LAYER au sein de
SAB(Service Analytics Big Data)
Mission
Elaboration de la Roadmap Big Data 2016/2017
Définition, construction, installation, tests et maintien de la plateforme Big Data
Gestion de l’intégration de nouvelles données dans la plateforme
Mise en place de procédures et de normes dans l’exploitation de la plateforme
Accompagnement des Data Scientists dans l’utilisation des outils de data science
Conception et Développement du projet DATA-LAYER au sein de
SAB(Service Analytics Big Data)
Technologies
MainFrame z/os , MapR, MapRDB, Hadoop, Sqoop, Pig, Hive, Spark, Hue, Data Science
Studio, Teradata, Oracle, Elasticsearch, Kibana, Logstash
Equipe
1 CP, 1 PO , 1 Architecte
TERADATA
Editeur
Durée
01/09/2015-31/08/2016
Expert Big Data Architecte
Projet
Expertise Big Data Transverse au sein du Centre de compétence hadoop d’ORANGE
Mission
Rédaction du document d’architecture technique des différents projets
Mise En Place du socle technique et Installation du cluster sur
une dizaine de machines
Mise en place de la sécurité dans le cluster et les projets Big Data (knox ,Ranger,Kerberos , SSL )
Développement des API big Data spécifique
Développement et réalisation des POC s
Technologies
Java, hadoop Maven, Shell, JIRA , GIT , FLUME , apache crunch hadoop pipeline , Spark , Kafka , Cassandra , ElasticSearch , logstash , hbase , Junit , D3.js , nvd3.js , apache camel , Scala , AKKA , Zookeeper , Kerberos , SSL ,Spark MLLIB , HUE , HIVE , PIG ,TEZ , KIbana , ZEPPELIN , Knox , Ranger , ElasticSearch Security ,SearchGuard
Equipe
1 CP, 1 PO , 7 Dev
SACEM
Service-Musique
Durée
01/02/2015-31/08/2015
Senior Big Data Consultant
Projet
Projet « SHARON »
New Online data repository & processing platform
Mission
Rédaction du document d’architecture technique
Mise En Place du socle technique et Installation du cluster sur une dizaine de machines
Conception et Développement des modules :
i. Import et stockage des données dans Elasticsearch et Cassandra (Gisement ) en mode batch et streaming
ii. Conception du module workflow et Intégration avec les systèmes externes
iii. Génération des statistiques et des aggrégations
iv. Data Analytics – Machine Learning Algorithme
Déploiements du cluster hadoop , Spark , YARN , ElasticSearch , logstash , Cassandra (AMbari)
Tests et validations des tâches effectuées (Test unitaire).
Technologies
Java, Spring, hadoop , avro ,Spring JDBC , Maven, Shell, JIRA , GIT , FLUME , apache crunch hadoop pipeline , Spark , Kafka , Cassandra , ElasticSearch , hbase , Junit , D3.js , nvd3.js , apache camel , Scala , AKKA , Zookeeper
Equipe
1 CP, 1 PO , 2 Dev
IPTWINS
Editeur de Logiciel
Durée
01/01/2015-31/01/2015
Senior Big Data Consultant
Projet
Projet « Domain Search »
Refonte du système d’information d’IPTWINS pour la recherche des noms de domaines
Mission
Rédaction du document d’architecture technique
Etude, réalisation et le Développements du système d’information d’IPTWINS
Conception et Développement des modules :
v. Traitement automatique et stockage des données
vi. Recherche des noms de domaines
vii. Génération des statistiques
Déploiements du cluster hadoop (cloudera Manager)
Installation des outils Cloudera Search , Flume , Hbase
Tests et validations des tâches effectuées (Test unitaire).
Technologies
Java, Spring, hadoop , avro ,Spring JDBC , Eclipse SQL Maven, Shell, JIRA , SVN , apache crunch hadoop pipeline , hbase , Junit , D3.js , nvd3.js , apache camel
Equipe
1 CP, 1 Développeur
TOMTOM
Localisation et Navigation Services
Durée
01/02/2014-31/12/2014
Consultant technique
Projet
Projet « CPP Cycle Time »
Refonte du système d’information de TomTom pour la génération de Map
Mission
Participation à l’étude, réalisation et le Développements du framework : TOMTOM Big Data API
Conception et Développement des modules :
viii. Visualization Display (Junction Views / 2DCM / ACM / 3DLM)
ix. Voice Maps (Systèmes de génération de phonèmes pour alimenter la nouvelle plateforme)
x. Speed Profiles
xi. Map Artifacts
Déploiements des projets en utilisant Jenkins, puppet
Tests et validations des tâches effectuées (Test unitaire).
Test d’intégrations (Jbehave/jenkins)
Technologies
Java, Spring, hadoop , avro ,Spring JDBC , Eclipse SQL, Oracle , PostgreSQL , Drools , JMS , Maven, Shell, JIRA , SVN , Git, Puppet , JENKINS , Sonar , apache crunch hadoop pipeline , hbase , Jbehave , Junit ,Selenium , D3.js , nvd3.js , Liquibase, apache camel
Equipe
2 CP, 5 Développeurs
SFR
TELECOM
Durée
01/02/2013-31/01/2014
Consultant technique
Projet
Projet LEA
Gestion de la facturation multi opérateur.
Mission
Développements du module Gestion des acomptes.
Corrections des anomalies, chiffrages et développements des évolutions.
Tests et validations des tâches effectuées (Test unitaire ).
Déploiement des correctifs et des évolutions sur les différents serveurs.
Mise en place d’un plan d’action d’analyse des performances de l’application
Analyses et Tests de performance (JProfiler , SqlProfiler) et correction des problèmes.
Technologies
Java, J2ee, Spring, Jpa, hibernate ,Spring JDBC , Eclipse ,Oracle, SQL, PL/SQL, Maven, Tomcat, Shell, JIRA , SVN ,JENKINS , Wicket , Eh-Cache ,Sonar , Jprofiler, SqlProfiler
Equipe
2 CP, 4 Développeurs
SFR
TELECOM
Durée
01/02/2012-31/01/2013
Consultant technique
Projet
Projet Selfcare unifié
la fusion de l’application MonCompte destinée aux clients fixe, ADSL et THD de SFR et des différentes applications destinées aux clients mobiles de SFR.
Mission
Développements Java/J2EE, modifications de la base de données via des scripts SQL, PL/SQL.
Exposition des services web aux systèmes applicatifs externes et internes.
Mise en place d’un cluster hadoop avec l’outil puppet.
Historisation des actes de gestion et statistiques utilisateurs (Hbase , Hadoop , Hive , Pig , Lucene/Solr …)
Analyse des anomalies, des évolutions relevées par le client via JIRA.
Corrections des anomalies, chiffrages et développements des évolutions.
Tests et validations des tâches effectuées (Test unitaire , Test d’intégration , Mock des websercice).
Déploiement des correctifs et des évolutions sur les différents serveurs.
Echanges clients concernant les précédents points.
Technologies
Java, J2ee, Spring, Jpa, hibernate ,Spring JDBC , Eclipse ,Oracle, SQL, PL/SQL, Maven, Tomcat, Shell, JIRA , SVN ,JENKINS , CXF, Axis ,Struts, JIRA/Confluence, Eh-Cache , Memcached, Mockito ,JUNIT,DBUNIT, Hbase , Hadoop , Hive , MongoDb , Lucene/solr ,JQUERY, HTML 5 , CSS
Equipe
2 CP, 12 Développeurs
Methodologie
Agile (Scrum)
Rédaction du backlog
Préparation du Sprint
Rétrospective /Demo
Chorégie
Mutuelle
Durée
01/08/11-31/01/2012
Ingénieur d’Etude
Projet
TELESERVICE : Evolution du système d’information VITALE-CEAM
Mission
Etude et développement des modules « Déclaration Perte Vol d’une carte vitale », « Demande de carte CEAM » et « Renouvellement d’une carte vitale»
Développement du WEB service « Déclaration Perte Vol d’une carte vitale ».
Développement du WEB service « Demande de carte CEAM »
Développement du WEB service « Renouvellement d’une carte vitale »
Tests unitaires
Traitement des fiches de retours recette
Technologies
Java 1.5, J2EE, EJB, WEB Service (Axis) , Hibernate, Oracle 10g, WAS 6 , Junit , RAD 7
Chorégie
Mutuelle
Durée
01/07/10 – 31 /07/11
Ingénieur d’Etude
Projet
Mutation Inter-Régime Mutualisé.
Mission
Conception et développement de l’application Mutation Inter-Régime Mutualisé.
Conception et spécification technique détaillée.
Développement des IHMs et des services métiers dans le module «ORPER».
Développement des services métiers dans le module «VITALE».
Tests unitaires
Traitement des fiches de retours recette
Technologies
Java 1.5, J2EE, EJB, FLEX 3 , FLASH Builder , Hibernate, Oracle 10g, WAS 6 , Junit , RAD 7
Equipe
1 CP, 2 Développeurs
OALIA
Edition Logicielle
Durée
01/11/09 – 30/06/10
Ingénieur d’Etude
Projet
Evolution du produit OALIA SRM (Supplier RelationShip Management): plateforme de gestion des processus d’achat et des appels d’offre utilisée par BNP Paribas, Société Générale (RESAO : BDDF ; Phoenix : SGCIB), CACIB, Bouygues Telecom, RATP …
Mission
Etude et développement des modules « Forfait » et « E-Procurement» dédiés aux achats de services informatiques (assistance technique et projet)
Evolution et développement de nouvelles fonctionnalités
Développement des IHMs et des services métiers dans le module « Forfait ».
Développement des IHMs et des services métiers dans le module «E- Procurement».
Tests unitaires
Traitement des fiches de retours recette
Encadrement technique de 3 développeurs juniors
Technologies
Java 1.5 & 1.6, J2EE, Turbine (Framework de présentation), Velocity (Moteur de Template), JPA, Hibernate, Oracle 10g, Tomcat, Junit
Equipe
1 CP, 8 Développeurs
Du 15 juillet 2007 au 30 Mai 2008:
Ingénieur développement, Intégrateur J2EE/SOA GS1 Tunisia
PROJET :
• Conception et développement de l'application SMS Code à Barre : JBOSS, EJB 2.0, Servlet, J2ME
• Conception et développement de l'application SMS Price_Comparaison : JBOSS, EJB 2.0, Servlet, J2ME
• Développement d'un HUB de communication qui lie la partie back office et la partie front office de la plateforme de e-commerce "Tunicommerce V2" (ESB open source Petals et ServiceMIX, SOA, Web Services, JBI, BPEL)
• Conception et développement des modules de sécurité de la plateforme "TunicommerceV2" (CAS (SSO) + Acegi + LDAP)
• Conception et développement de l'application Tuni_RESTO : M-commerce (J2EE, J2ME, WAP)
• Conception et développement des modules de statistiques dans le projet Syrcot (Registre de Commerce Local) (Spring, Struts, Hibernate, JasperReport, IReport)
• Tuning et Optimisation des requêtes SQL (Hibernate, Oracle)
Du 1 juin 2008 à ce jour :
Ingénieur d'étude, architecte junior java/J2EE Talan Tunisie
PROJET SIATM :
• Conception IHM du projet SI-ATM GAZ DE France
• Mise en place de l’architecture technique du développement du projet SI-ATM
• Rédaction des documents de spécification technique et de conception du projet SIATM
• Développement des modules d’administration et de sécurité du SI-ATM (Dojo, Struts2, EJB3, Spring…)
• Développement du module internationalisation (i18n) du projet SI-ATM.
• Développement des modules Mode dégradé et Echange (Intégration avec des systèmes externes via FTP et web services)
• Analyse et Audit de code
• Chargé d’optimiser la performance de l’application
• Tests de performance et correction des problèmes.
• Mise en place d’un plan d’action d’analyse des performances de l’application (Sql-Profiler, Jprofiler , GlassBox, Jmeter)
• Administration et Tuning Weblogic (Clustering ,Load Balancing )
Domaines de compétences
Langages de Programmation Java, Scala, python, PL/SQL, Pig Latin, HQL, R
Designs Patterns
Méthode et Outils GOF Design patterns, J2EE Design patterns, EJB Design patterns
Modélisation avec UML, Merise
Eclipse, JBuilder, Power AMC, DB Visualizer, TOAD, WinDesign
Compétence en Développement WEB HTML, JSP, XML, XSL, XSLT, JavaScript/AJAX, Freemarker , Velocity, STRUTS (1,2) ,Turbine, Sitemesh,Tiles, Spring MVC, FLEX 3 , 4 ,Wicket
Compétence AJAX Dojo(toolkit), Direct Web Remoting (DWR), Scriptaculous, Prototype, JQUERY
Compétence Services et Sécurité Logiciel Spring (AOP, IOC), EJB, Hibernate, JPA, EhCache
JAAS, Acegi, Spring Security, CAS, LDAP v3, SAML, XML Security, XACML, SSL, SASL, Kerberos
Base de Données, Systèmes Distribués et Big Data DATAVAULT Modeling , Oracle 9i, SQL Server, MYSQL, POSTGRESQL, ORACLE 10g
NOSQL DATASORES : MAP / REDUCE ,HADOOP , HBASE , HDFS , Pig ,Hive , CASSANDRA ,Puppet, Ganglia ,Sqoop, Flume, OOzie, Apache crunch, SPark , Neo4j, ElasticSearch,logstash ,Solr , Liquibase , SnowFlake , Databricks Delta lake , Hudi , Icebirg
Cloud/DEVOPS/MLOPS AWS, Azure, GCP, Docker, AirFlow, Kubernetes, Kubeflow
AWS Storage services: S3, Glacier, EFS, Storage Gateway and EBS,EMR,Athena,Glue , BigQuery , Cloud SQL , MLflow, Dataproc,Synapse Analytics , Datafactory , Azure Networking Vnets, Active Directory, Service Endpoint, Private Link )
Machine Learning TensorFlow, Keras, Spark ML, Machine learning, Deep Learning, OCR, NLP
Compétence SOA & Web Services GraphQL, Sangria, XFIRE, CXF, Axis, WSDL, JAX-WS, JAX-RS (REST), BPEL (ODE, PXE), ESB (ServiceMIX, Mule, Petals), Apache Camel Drools , OS Workflow, ApacheMQ , Lucene ,Solr , Elastic Search , GraphQL
Infrastructure développement et Outils BuildForge, Hudson, Maven, ANT, CVS, Subversion,Git Groovy Scripting, Log4J, JUnit
Infrastructure Applicative Apache, Tomcat, Weblogic 8.1, Weblogic 10 , JBOSS, Jetty , WAS 6.1
Infrastructure Système MS-DOS, Windows, Linux
Compétence en Développement Mobile Android, FLEX, Mobile, J2ME, WAP,
Compétence en Business Intelligence et Autres Talend, JasperReport, Ireport, BIRT
Sql-Profiler, Jprofiler, Grinder, Jmeter, GlassBox
Etudes et diplômes
2004-2007 Diplôme Nationale d’Ingénieur / Ecole Nationale des Sciences Informatiques de Tunis
Juin 2004 Certificat de passage aux écoles d’Ingénieurs / Institut Préparatoire aux écoles d’Ingénieurs de Tunis
Juin 2002 Baccalauréat / Lycée 2 Mars La Goulette Tunis
Langues
Anglais Courant et technique (lu, écrit et parlé)
Formations et Certifications
DATA VAULT 2.0 Practitoner LEGACY Certification 2023
AWS Big Data Specialty Certification 2020
Cloudera Data Analyst Training: Using Pig, Hive, and Impala with Hadoop (DATA-ANALYST) Exit Certified
Big Data Analytics (********) Hadoop, Pig, Hive, MapReduce
Projets
Mise en place d’une plateforme IOT/SCADA/ALARMING
- Rédaction de l’Architecture technique de la plateforme
- Implémentation et développement des modules fonctionnels
- Mise en place de la démarche devops de la plateforme
-- Technologies:
Kepware Server, Modbus, MQTT, RabbitMQ, Kafka 0.10, Akkad, Camel, Spark 2.0, Cassandra 3.0, Spring MVC, Akka Streams, slick
Mesos , Marathon , Docker , Vagrant