CV Apache Samza : Les nouveaux indépendants inscrits

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Apache Samza connectés

CV Data Analyst BIG DATA
Kamal

Data Analyst BIG DATA

  • Vélizy
Big Data Apache ZooKeeper Apache Spark CentOS Apache Kafka Apache Hadoop Cassandra Apache Hive Apache Samza
CV Data Analyst BIG DATA
Mostapha

Data Analyst BIG DATA

  • Oujda
Big Data Python Java Elasticsearch Kibana Logstash Unix Apache Kafka Angular MongoDB
Je trouve un CV Apache Samza
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des missions de Sami,
freelance APACHE SAMZA résidant dans Paris (75)

Expérience professionnelle

Data Ingénieur - Projet Renault EASY CONNECT | Renault Group | Paris,France | Fév 2023 - Présent
Ingénieur Data sur le projet Renault EASY CONNECT, une initiative visant à développer une plateforme connectée pour les véhicules
Renault, optimisant la gestion des données et améliorant l'expérience utilisateur. Dans ce rôle, j'ai :
● Conçu et architecturé l'infrastructure data en définissant les meilleures pratiques pour la gestion des pipelines de données en
temps réel, l'automatisation des déploiements et l'orchestration des microservices distribués, garantissant ainsi une scalabilité
et une résilience optimales.
● Développé et optimisé des pipelines de données en temps réel avec Apache Kafka et Apache Flink pour la gestion des flux de
données, intégrés à des microservices distribués, améliorant ainsi la performance et la scalabilité de la plateforme.
● Implémenté des solutions de traitement des données avec Apache Spark sur Databricks, permettant de traiter des volumes
importants de données, tout en intégrant des données provenant de Snowflake et d'AWS S3 pour des analyses complexes.
● Conçu et automatisé des workflows ETL en utilisant Apache Airflow, dbt, et Fivetran, facilitant l'intégration de données
provenant de plusieurs sources pour améliorer la qualité des analyses.
● Mis en place des analyses de données distribuées avec Presto, permettant des requêtes SQL rapides sur des volumes massifs de
données pour améliorer la prise de décision.
● Automatisé l'infrastructure des données avec Terraform et Ansible pour des déploiements reproductibles et cohérents sur AWS
(Glue, Redshift, Kinesis, S3), tout en assurant la surveillance avec Prometheus et Grafana.
Compétences : Git | Linux | Bash/Shell scripting | Python | Apache Spark | Databricks | Snowflake | Apache Kafka | Apache
Flink | Presto | Apache Airflow | Fivetran | dbt | Terraform | Ansible | AWS (Glue, Redshift, Kinesis, S3) | Prometheus |
Grafana | PostgreSQL | MongoDB

Ingénieur Data/DevOps - Projet Datavenue | Orange | Paris,France | Jan 2021 - Jan 2023
Ingénieur DevOps/Data sur le projet Datavenue d'Orange, une initiative clé exploitant les données et l'Internet des objets (IoT) pour
offrir des solutions innovantes et améliorer la prise de décision. Dans ce rôle, j'ai :
● Optimisé les pipelines de traitement des données en temps réel avec Apache Spark, permettant de traiter efficacement de
larges volumes de données et d'assurer une scalabilité et des performances optimales.
● Géré les flux de données en temps réel avec Apache Kafka, facilitant l'intégration continue des données IoT pour améliorer la
fluidité des opérations et la réactivité des systèmes.
● Mis en œuvre des workflows ETL complexes avec Apache Airflow, automatisant les tâches de traitement des données et
assurant leur intégration fluide à travers des environnements cloud.
● Implémenté des solutions de stockage et de transformation des données avec Fivetran et dbt, assurant l'automatisation des
transformations complexes dans un environnement AWS Glue et Azure Data Factory.
● Orchestré l'infrastructure de données en utilisant Terraform et Ansible pour déployer et gérer des clusters Kubernetes sur AWS
EKS, automatisant la gestion des ressources, la mise à l'échelle des pipelines, et la configuration sécurisée des environnements
multi-clouds.
● Surveillé les performances des modèles et des pipelines avec Prometheus et Grafana, assurant une visibilité complète sur les
performances des modèles en production et optimisant leur efficacité en temps réel
Compétences : Apache Spark | Apache Kafka | Apache Airflow | Fivetran | dbt | AWS Glue | Azure Data Factory | Git | Linux
| Bash/Shell scripting | Python | Docker | Kubernetes | Helm | Istio | Terraform | Ansible | Prometheus | Grafana

Voir le profil complet de ce freelance