CV BASH : Sélectionnez facilement les profils qui vous intéressent

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils BASH connectés

CV Cloud Architect
Loic

Cloud Architect

  • Rampillon
ANSIBLE Cloud AWS HASHICORP TERRAFORM DOCKER ELASTICSEARCH
Disponible
CV Data Scientist | Machine Learning Engineer
Mohamed Amine

Data Scientist | Machine Learning Engineer

  • COLOMBES
Data science SQL DATA PYTHON GIT DOCKER Google Cloud Platform PANDAS DATAVIZ PYSPARK
Disponible
CV Ingénieur sécurité Cloud AWS
Donfred

Ingénieur sécurité Cloud AWS

  • VITRY-SUR-SEINE
Cloud AWS JAVASCRIPT PYTHON REACT.JS HASHICORP TERRAFORM BASH
Disponible
CV DevOps
Saaid

DevOps

  • ANTONY
DEVOPS LINUX DYNATRACE SQL CI/CD Kubernetes ANSIBLE AZURE Cloud AWS Google Cloud Platform
Disponible
CV Technicien informatique
Crédoël

Technicien informatique

  • CHÂTILLON
ITIL JAVA WINDOWS AGILE ORACLE ACTIVE DIRECTORY LINUX JIRA IVANTI SCCM
Disponible
CV Développeur/Data scientist
Jordan

Développeur/Data scientist

  • PARIS
PYTHON C++ JENKINS AGILE LINUX CI/CD Jupyter Data science DATAVIZ BAMBOO
Disponible
CV Développeur full stack & devOps
Amin

Développeur full stack & devOps

  • PARIS
PHP LARAVEL MYSQL Angular NODE.JS DOCKER GIT
Disponible
CV DevOps Kubernetes
Alex

DevOps Kubernetes

  • PARIS
Kubernetes DOCKER DEVOPS ANSIBLE JENKINS Cloud AWS CI/CD AZURE PYTHON Google Cloud Platform
Disponible
CV Ingénieur de développement JAVA
Abdelilah

Ingénieur de développement JAVA

  • LILLE
JAVA SQL Angular JAVASCRIPT J2EE
Disponible
CV Ingénieur de développement
Fahim

Ingénieur de développement

  • NICE
REACT.JS Angular JAVASCRIPT TypeScript JAVA NODE.JS Spring Boot SCRUM UX DESIGN Vue.js
Je trouve un CV BASH
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple des emplois de Soufiane,
freelance BASH résidant dans le Nord (59)

Expérience professionnelle

Août 2020 – Novembre 2022
Senior Technical Team Lead - Cloud Infrastructure Architect, IBM/Kyndryl, Lille.
Missions en tant que Lead Architecte Infrastructure Cloud/DevOps
Tâches:
{ Collaboration avec l’équipe Sales durant la phase de pre-sale
{ Etude de faisabilité technique de projets et participation à la rédaction des documents pour la réponse technique
et financière aux appels d’offre
{ Recrutement des profils techniques tels que des ingénieurs DevOps, des Site Reliability Engineers et des
Solutions Architects
{ Formation de l’équipe sur les nouvelles technologies DevOps, les plateformes Cloud (AWS), les outils
d’automatisation (Terraform, Ansible), les pipelines CI/CD (Github actions, Gitlab-ci), Docker/Kubernetes et
sur l’administration Linux (RedHat)
Projets:
{ Mise en place d’une solution infrastructure sur AWS distinée à l’hébérgement des applications en architecture
micro-services
- Réalisation d’une étude comparative approfondie des différentes solutions offertes par la plateforme cloud
AWS, telles que EKS EC2, EKS Fargate et ECS Fargate
- Elaboration des documents d’architecture nécessaires pour la mise en place de la solution
- Réalisation de POCs pour valider la faisabilité de la solution
- Participation active à la mise en place de la solution pour garantir une intégration optimale et une disponibilité
continue des applications
- Développement de scripts d’automatisation utilisant des outils tels que GitOps/ArgoCD, Github Actions,
Docker, Terraform, Bash, Python, pour faciliter et accélérer les déploiements et la gestion de l’infrastructure.
{ Mise en place d’une plateforme de provisionnement automatisé de VMs (en self-service) dans le cloud publiques
AWS en vue de facilité l’opération de la migration vers le cloud
- Conception de la solution, basée sur un workflow GitOps, répondant au besoin du client
- Réalisation et présentation des POCs au profit du client et élaboration des documents d’architecture (HLD
et LLD)
- Mise en place des clusters Ansible Tower sur des machines EC2 ciblant la gestion des instances EC2 dans
plusieurs regions et plusieurs comptes aws.
- Creation d’un cluster docker swarm pour héberger les agents github actions runners executants jobs Packer,
Terraform et Ansible Tower workflows.
- Mise en place de la solution (Gihub CI/CD workflows, Ansible Tower, Terraform, Packer, Lambda Functions,
Service Catalog, EC2, Docker, DynamoDB, RDS, Route53, Infoblox )
{ Expertise Terraform: Golden Image Build et Provisioning/Decommisioning workflows sur AWS et Azure
- Développement de modules Terraform et gestion de leurs versions via les repositories GitHub Enterprise.
- Mise en place de nouveau produit sur AWS Service Catalog pour les quatres patterns Redhat7, Redhat 8,
Oracle sur Redhat 7 et Oracle sur Redhat 8 pour les environnements de test et de prod.
- Generation des goldens images redhat 7/8 sur sur AWS avec Packer et sur Azure en utilisant Azure VM
Image Builder.
- Amelioration des pipelines de build de golden images:
· AWS: AWS Service Catalog, CodePipeline, CodeCommit, CodeBuild, Packer, Bash, Python
· Azure: Azure Pipelines, Azure Repos, Azure VM Image Builder, Bash, Python
- Mise en place de workspaces Terraform et leur intégration avec les repositories et branches sur GitHub
- Activation du service Red Hat Cloud Access sur Azure pour accéder aux modèles d’images de machines
virtuelles officiels de Red Hat sur les subscriptions Azure
- Accompagnement de l’équipe dans l’adoption des outils cloud sur AWS et l’utilisation des outils
d’automatisation Terraform et Packer.
{ Migration de DB2 Warehouse MPP vers Azure AKS
- Création et configuration du cluster AKS et de la solution de stockage Azure NetApp Files
- Transformation de la solution DB2 vers une architecture en micro-services pour la rendre cloud native en
vue de son déploiement sur Azure Kubernetes Service
- Développement des manifests Kubernetes définissant les différents composants de la solution DB2 et leur
déploiement sur le cluster AKS
Technologies: AWS, Azure, AKS, EKS, Fargate, AWS Service Catalog, AWS Lambda, AWS RDS, AWS Backup,
AWS Secret Manager,AWS Route53, AWS System Manager, Kubernetes, GitLab/GitLab-CI, GitHub, GitHub
Actions, ArgoCD, Ansible, Ansible Tower, Ansible AWX, Packer, Terraform/Terraform Enterprise, CloudFormation,
Bash, Python, DB2 Warehouse, vMware vSphere, Hashicorp Vault, Prometheus, Infoblox

Mars 2019 – juin 2020
Consultant DevOps, Umanis, Lille.
Mission chez Adeo Services en tant que Référent technique DevOps/Cloud
Tâches:
{ Assurer le support N3 Rhel, Middleware, Oracle, Mysql, Redis, PostgreSQL
{ Formation et accompagnement des membre d’équipe sur l’adoption et l’utilisation de l’ensemble des outils et de
solutions cloud: GCP, Oracle Cloud, DAB/Ansible, Vault, PingIdentity , DataLake/BigQuery, ServiceNow API
{ Administration de la plateforme Cloud GCP (Projet) et de la plateforme Oracle Cloud (Tenent)
{ Gestion du service github cloud ( création de repos, gestion d’utilisateur ... ) , Gitlab cloud, Artifactory,
Projets:
- Migration OEM 12c vers OEM 13c: Migration de plus de 1400 serveurs (Redhat, Oracle Linux et AIX)
de l’Oracle Enterprise Manager 12c vers la version 13c
{ Création des packages rpm pour l’agent OEM 13c pour facilité et automatiser le deploiement.
{ Création des scripts pour l’automatisation de la migration de l’ensemble des serveurs: Bash, Python/Fabric,
Ansible.
{ Dévelopment des scripts d’automatisation de la migration.
{ Création des comptes de service et la génération des tokens d’authentifications.
{ Synchronisation des répos entre gitlab et github pour des fins de l’integration continue avec Gitlab-ci.
- Industrialisation: Automatisation de differentes tâches (via Ansible/DAB, Fabric, Bash, Python) et la mise
en place des pipelines CI/CD (Github, Gitlab)
{ Mise en place d’un répo rpm sur Jfrog Artifact commun au produit ORACLE et au produit ON
PREM-DATABASES pour l’hébergement des packages rpm.
{ Création des packages rpm.
{ Externalisation des scripts ansible du déploiement des bases de données Oracle 11g/12c vers github.
{ Dévelopement des script d’automatisation avec Ansible, Python et Bash.
{ Migration des repos git de gitlab vers github..
{ Automatisation des tâches post-déploiement suivantes:
- Ajout des yum repositories dans les VMs.
- Installation de l’agent Cloud Control 13c et configuration de la communication sécurisée via TLS 1.2.
- Déploiement des clés ssh de l’Oracle Enterprise Manager Cloud Control dans les VMs pour l’utilisateur
oracle.
- Application des scripts de hardening pour répondre aux exigences de l’équipe sécurité.
- Projet facturation: Conception et mise en place d’un Data Pipeline ETL
Conception et dévelopement d’une application Python (Environ 4000-5000 ligne de code) pour l’application des
règles d’UO et l’envoie de la consommation au portail de facturation via API: GCP, ServiceNow, BigQuery, Bash,
Python, SQL, Hashicorp Vault
- Mise en place d’une liaison site-to-site: Mise en place de liaison VPN site-to-site reliant le datacenter
on-promises sur site à la plateforme cloud Oracle OCI. Cette tâche impliquait l’installation de l’infrastructure VPN
et la coordination avec les équipes internes et externes pour une intégration fluide entre les deux environnements
Technologies: GCP, BigQuery, GKE, Oracle Public Cloud, Oracle Enterprise Manager Cloud Control, Jfrog
Artifactory, HashiCorp Vault, Ansible, Fabric, Python, Flask, Bash, Gitlab/Gitlab-ci, Docker, Kubernetes, Github,
Vmware, PingIdentity, ServiceNow, Redhat, AIX.

Mai 2017 – Février 2019
Administrateur Plateforme Cloud, Maroc DataCenter By Medasys, Rabat.
- Conception, implémentation et administration de solutions hautement disponibles:
{ Offres VPS (KVM) et Linux containers (LXC).
{ Hébergement mutualisé basé sur la solution Cpanel & Cloud Linux.
{ Cluster de serveurs dns basé sur la solution PowerDNS.
{ Solution de messagerie collaborative, évolutive basée sur Zimbra.
{ Service managed Kubernetes
{ Plateforme de cloud publique basé:
- Orchestrator: CloudStack
- Hypervisor: Vmware vSphere 6.5
- Stockage: Stockage primaire ( SAN over Fibre Channel), Stockage secondaire ( NAS over dedicated 10
Gigabit Ethernet )
- Serveur de management: Hautement disponible en utilisant les solutions de clustring open source basé
sur Pacemaker & Corosync.
- Cloud DB: Hautement disponible et hautement performant deploiement du CloudDB en utilisant RAID
10 et un cluster de serveurs Mysql du type Master-Slave pour un plan de Disaster Recovery.
- Développement de politiques de Backup et des plans de reprise d’activité
- Développement des scripts d’automatisation: Python, Bash, Ansible, Fabric, Packer.
- Administration de la Plateforme de gestion des noms de domaines.
- Gestion des certificats SSL.
- Préparation et implémentation des PoCs de démo pour le profit de l’équipe d’avant-vente.
- Conception et implémentation des architectures techniques résilientes et évolutives aux profits des clients.
- Assurer le support N2/N3 des incidents lieé à la platefome Cloud, Systèmes, Platefome d’hébergement mutualisé,
Réseau .. .
- Elaboration et rédaction des politiques de sécurité, du plan de continuité/reprise d’activité et implémentation
des solutions de sécurité en vue de se conformer aux exigences de la certification PCI DSS.
- Réalisation des audits de sécurité régulièrs (audit des régles du firewall, scan de vulnérabilités, scan des applications
Web ).
Technologies: Serveur HPE Proliant, Fortigate, Sophos UTM, Pfsense, Cisco routers, Observium, Cloustack,
Vmware Vsphere, XenServer, KVM, Proxmox, cPanel, Bind, Powerdns, Postfix, Zimbra, Apache, Glassfish, Wildfly,
Nginx, Squid, HAproxy,Veeam, SAN ( MSA 2040, 3PAR, Compellent), NAS (Qnap), Brocade SAN Switches,
ELK Stack.

Mai 2015 – Mai 2017
System & Security Administrator, ********,...

Voir le profil complet de ce freelance