Missions Amazon Kinesis : Découvrez les dernières offres déposées

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions Amazon Kinesis à pourvoir

Consultant Digital Factory Lead Technique

Python Big Data Apache Spark Cloud AWS .NET
01/06/2026
78 - Vélizy-Villacoublay
12 mois
Voir la mission

Data Scientist /Machine Learning Engineer

Python Cloud AWS Google Cloud Platform DataRobot MLOps
11/05/2026
75 - PARIS
12 mois
Voir la mission

Architecte Cloud AWS /N3

HashiCorp Terraform Cloud AWS Microservices CI/CD
18/05/2026
92 - MONTROUGE
12 mois
Voir la mission

Architecte DevSecOps GitLab

GitLab DevOps Cloud AWS
06/05/2026
92 - NANTERRE
12 mois
Voir la mission

Expert en IA & Data Science

Python Cloud AWS RGPD PySpark TensorFlow
01/06/2026
75 - PARIS
3 mois
Voir la mission

DBA Oracle, SQL Server et AWS

SQL Server Oracle Cloud AWS
01/06/2026
77 - MELUN
3 mois
Voir la mission

Intégrateur technique Senior - Istya

GED Elasticsearch Amazon AWS Data
04/05/2026
75 - Paris
6 mois
Voir la mission

Data Engineer Innovation AWS/Python

Data Python Amazon AWS
ASAP
92 - NEUILLY-SUR-SEINE
35 mois
Voir la mission

Expert AWS Agentic

Amazon AWS
ASAP
Télétravail
6 mois
Voir la mission

Cloud Data Engineer AWS

Data GitLab Cloud AWS Airflow Microsoft Power BI
29/06/2026
75 - PARIS
3 mois
Voir la mission
Je trouve ma mission Amazon Kinesis
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple des emplois de Rania,
freelance AMAZON KINESIS habitant les Hauts-de-Seine (92)

Expérience professionnelle

Avril 2022-Aujourd’hui : HEPTASYS
Mission :
Client : Ingenico Paris
Poste : Ingénieur Ops/DevOps
Titre : Subject Matter Expert for the TEM (The Estate Manager) Solution.
Tâches DevOps effectuées :
Migration des clusters Elasticsearch de la version 7.17 à la version 8.7 pour les infrastructures de
production et préproduction :
Raison de la migration : Les clusters Elasticsearch en version 7.17 hébergent des indices
de la version 6.8. Or, la version 8.7 d'Elasticsearch ne prend pas en charge les indices de
version 6.8.
• Étapes :
▪ Création d'une nouvelle infrastructure sur GCP via Terraform, incluant les VMs,
disques, configurations firewalls …
▪ Installation de Elasticsearch et Logstash version 8.7 sur les nouveaux
serveurs(ansible , gitlab-ci).
▪ Whitelisting des connexions entre les nouveaux clusters et les anciens.
▪ Élaboration de scripts pour effectuer le réindexage à distance entre l'ancien cluster
et le nouveau.(python / bash scripts)
▪ Redirection de l'application vers le nouveau cluster Elasticsearch sans interrompre
les services.
Déploiement d'une application (from scratch):
▪ Création d'une infrastructure sur GCP à l'aide de Terraform, comprenant des VPCs,
sous-réseaux, NAT gateway, buckets, VMs, firewalls, Cloud SQL, et Cloud DNS.
▪ Mise en place d'un pipeline CI/CD à l'aide de GitLab-CI, utilisant Git, GitLab, et
Ansible (avec rôles et playbooks) pour installer l'application.
Création d'un job pour notifier par mail des dates d'expiration des licences et certificats de
production :
▪ Un script Python, exécuté sur un cronjob Kubernetes, télécharge les dépôts
contenant les licences et certificats. Il extrait ensuite les dates d'expiration et envoie
un email si des certificats sont sur le point d'expirer dans un mois
Migration des données de Keycloak et intégration avec l'application.
Création d'une infrastructure avec Terrfaorm pour un cluster EMQX.
Élaboration de scripts pour les tests de migration donnes.

Tâches opérationnelles effectuées :
• Résolution des incidents systèmes des environnements de production et préproduction
(RAM, CPU, disque, etc.).
• Rédaction de documentations sur Confluence.
• Traitement des tickets Jira escaladés par l'équipe de support.
• Les upgrades et les patchs applicatifs sur les environnements de production et
préproduction.
• Création des keystores contenant des certificats
• Mise à jour des keystores et des licences sur les environnements de production et
préproduction.

7 - 10 Décembre 2021: HEPTASYS
Projet interne
Mission
Mise en place d'une infrastructure cloud GCP avec Terraform et réalisation d’un exemple de
connexion de base de données via Vault.
Tâches effectuées :
⚫ Réalisation d’une infrastructure sur GCP avec Terraform : VPC , private subnet , 2
private VMs , load balancer, MySQL SQL cloud, remote state backend avec GSB.
⚫ réalisation d'un script python qui génère à chaque fois nom d'utilisateur et mot de
passe à partir de Vault (docker) pour se connecter à mysql (docker) (le nom
d'utilisateur et le mot de passe expirent après un délai configuré dans Vault)
Technologies utilisées:
Cloud GCP( VPC, LoadBalancer, SQL Cloud, Cloud Storage, Compute Engine),
Terraform, Vault, Python, Docker.

Juin 2021 – Février 2022 : Tayara Group
Ingénieur Cloud DevOps
Mission
Gestion de l’infrastructure sur Cloud GCP et mise en place des pipelines DevOps
Tâches effectuées :
● Mise en place infrastructure cloud sur GCP (création: réseau vpc, cloud sql
postgres, memorystore redis, kubernetes engine gke).
● Mise en place d’un cluster mongodb sur Cloud Mongodb Atlas.
● Mise en place des pipelines bitbucket-pipelines.yml dans chaque microservice (deux
stages: build-image, push-gcp (GCP container Registry )) qui se lance dans chaque tag git
pushed action
● dockerisation backend golang GRPC et frontend angular
● Création des fichier yamls kuberentes dans chaque service (ClusterIPs,
StatefulSets, , Deployments, Secrets, HorizontalPodAutoscalers,
CronJobs)
Mise en place d’un service mesh Istio ( Gateways, VirtualServices, DestinationRules
, ServiceEntry)
● Mise en place des sous-domaines (Types : CNAME et A) sur Cloudflare
● deployment Argocd dans cluster ( ssh auth avec bitbucket) , création kustomization.yaml
● Création script python (CronJob Kubernetes) qui déplace les annonces expirées
ou supprimées vers une autre collection dans mongodb (vérification chaque jour.
● Développement CRUD (get update delete create list) categories (grpc golang)
● Développement deux services send/read messages de rabbitmq (golang)

Octobre 2020-Juin 2021 : Fekr Technologies
Consultante Devops
Mission :
Mise en place des infrastructures DevOps et migration de données.
Tâches effectuées :
1ère mission: avec Groupado
● Mise en place d'une infrastructure cloud sur AWS (Dev, Prod, Staging) (création: Amazon
VPC, Amazon ElastiCache for Redis, kubernetes engine EKS, RDS Amazon Aurora
Postgresql).
● dockerisation backend nodejs et frontend ReactJS
● Création des fichier yamls kuberentes dans chaque service (ClusterIPs,
StatefulSets, Deployments, Secrets, HorizontalPodAutoscalers)
● Mise en place des sous-domaines (Types : CNAME) sur Cloudflare
● deployment Argocd dans kubernetes ( ssh auth avec bitbucket) , création
kustomization.yaml
● Mise en place des pipelines gitlab-ci.yaml dans chaque microservice

2ème mission: avec Tayara Group
● Migration de données : contient deux catégories : migration des utilisateurs et migration
des annonces
Migration des annonces (27 millions fichiers json contiennent chacun des informations sur une version
d'annonce (modifiée, supprimée ou créée), le message au format gzip et crypté en base64):
● Création d’un script python qui lit tous les fichiers de version d'annonce (AWS S3 Bucket)
et les écrit dans AWQ SQS (un conteneur exécute le script sur Amazon ECS)
● Création d’un script python qui lit tous les messages publiés dans SQS et les écrit dans
mongodb (find_one_and_update avec upsert true) (plusieurs conteneurs exécutent en
parallèle chacun le script sur Amazon ECS)
Migration des utilisateurs (le fichier csv contient 2 millions utilisateurs):
● création d’un script python qui télécharge (AWS S3 Bucket) et lit le fichier csv puis
envoie les utilisateurs à sqs (un conteneur contenant le script s'exécute sur Amazon ECS)
● création d’un script python qui lit tous les messages des utilisateurs dans SQS et le écrit
dans mongodb et postgresql (keycloak)(plusieurs conteneurs exécutent en parallèle
chacun le script sur Amazon ECS)

Septembre 2019-Septembre 2020: Ghazela Technology Academy
Mission :
Conception et développement d’une plateforme de test en ligne avec la mise en place d’un pipeline CI/CD
Tâches effectuées :
● conception et développement d’une plateforme fournit des examens de certification simulés
en ligne visant à aider les professionnels à obtenir des certifications internationales :
technologies utilisé python django , bootstrap css html ajax javascript ( architecture 2 tiers)
● réalisation d’un module de paiement en ligne( Django) - Fournisseur tunisien
GPGCheckout.
● Réalisation d’un Dockerfile d’une application Python Django sous image Docker Centos 8
● Configuration d'un cluster kubernetes (un maître et deux esclaves) (installation de kubernetes
et affectation de serveurs esclaves avec kubeadm), installation également de kubelet et mise
en place réseau calico
● Création des fichiers yamls kuberentes dans chaque service (ClusterIPs, StatefulSets,
Deployments, Secrets, HorizontalPodAutoscalers,Ingress(traefik ingress controller))
● Installation jenkins , ajout des plugins (kubernetes plugin, GitLab Plugin) et ajout des
credentials ( docker hub (username, password) et config file kubernetes ) dans Jenkins
● Faire liaison jenkins gitlab généré paire de clés ssh, mettre clé publique dans gitlab et la clé
privée dans jenkins. Puis créé job jenkins et ajouté une option qui automatise et construit le build
lorsqu’une modification est envoyée à GitLab(généré un jeton jenkins et le mettre dans gitlab)
● Création Jenkinsfile contient les quatre étapes suivantes : Clone source from gitlab. Build
image docker, Push Image dans Docker Hub (private registry) et Deploy App in kubernetes.
● Mise en place Prometheus et Grafana Chart stable/prometheus operator de helm.
● Réalisation d’une stratégie de déploiement Canary (configuré Ingress avec les annotations
traefik ingress pour rediriger 10% du trafic vers la dernière version du projet et 90% du trafic
vers la version avant dernière du projet)

Voir le profil complet de ce freelance