CV Red Hat OpenShift : Sélectionnez facilement les meilleurs profils

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Red Hat OpenShift connectés

CV Lead dev JAVA JAVASCRIPT
Robert

Lead dev JAVA JAVASCRIPT

  • Chelles
Java Spring Boot React.js Angular Cloud AWS JavaScript Spring Red Hat OpenShift Apache Kafka Enterprise Architect
Disponible
CV Référent DevOps & Administrateur plateforme CI/CD
Jeremy

Référent DevOps & Administrateur plateforme CI/CD

  • MAULE
DevOps CI/CD HASHICORP VAULT XL Release XL Deploy Ansible Red Hat OpenShift GitLab Kubernetes Automate
Bientôt disponible
CV Chef de projet IT
Frédéric

Chef de projet IT

  • BEYNOST
Scrum Jira MS Project SQL Oracle MySQL MongoDB Red Hat OpenShift
Bientôt disponible
CV DevOps DEVOPS
Chaima

DevOps DEVOPS

  • COLOMBES
DevOps Kubernetes Jira Agile Docker CI/CD Ansible Linux Cloud AWS Java
Disponible
CV Intégrateur Système DevOps
Ahmed

Intégrateur Système DevOps

  • CRÉTEIL
Windows Linux Kubernetes Ansible PowerShell Jenkins GitLab Splunk SQL Server Red Hat
CV Architecte Kubernetes
Rudy

Architecte Kubernetes

  • Montreuil
Kubernetes DevSecOps Ansible Elasticsearch Red Hat OpenShift HashiCorp Terraform
Disponible
CV Architecte DATA / Cloud
Hafid

Architecte DATA / Cloud

  • Puteaux
Cloudera Apache Kafka Apache Spark Red Hat OpenShift TOGAF ArchiMate Elasticsearch
CV Ingenieur Devops Cloud
Alain

Ingenieur Devops Cloud

  • VITRY-SUR-SEINE
Ansible Docker Kubernetes Jenkins Oracle GitLab Red Hat OpenShift OpenStack VMware vSphere Cloud AWS
Disponible
CV Chef de projet & Coordinateur Technique
Adam

Chef de projet & Coordinateur Technique

  • VANVES
ITIL CRM Agile Salesforce Windows ServiceNow Jira Red Hat OpenShift Scrum
Bientôt disponible
CV Développeur Fulltstack Java Angular
Quentin

Développeur Fulltstack Java Angular

  • MÉRY
Java Spring Unreal Engine Unity 3D PostgreSQL Angular TypeScript MongoDB Azure Red Hat OpenShift
Je trouve un CV Red Hat OpenShift
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois d'Anca,
freelance RED HAT OPENSHIFT résidant dans les Hauts-de-Seine (92)

Expérience professionnelle

Juin 2021 à Aujourd’hui – IBM FRANCE
Application Architect
Client : EuroInfo Crédit Mutuel
Projet : OCR Factory, orchestrateur Camunda. Dans le cadre de OCR Factory développement des flux OCR avec l'orchestrateur Camunda pour la modélisation et l'automatisation des flux OCR (Reconnaissance Optique de caractères). Réalisation de BPMNs (Business Process Management), développement avec C# et framework DevBooster des applications de monitoring, déploiement avec charts Helms sur la plate-forme RedHatOpenShift.
Contribution :
Mon activité est d’automatiser les traitements des documents dans les processus bancaires et de mettre en place un orchestrateur avec l’outil Camunda et de déployer Camunda dans l’environnement RedHatOpen Shift et développer les premiers processus.

 Conception et architecture avec l'orchestrateur Camunda pour automatiser et modéliser les flux OCR (Optical Character Recognition)
 Design et Développement d'applications Camunda Operate DevBooster outils de supervision pour l'orchestrateur Camunda avec C# et le framework Devbooster EuroInfo.
 Modélisation BPMN
 Implémentation CI/CD DevOps, implémentation des pipelines communautaires et GitLAB, Jenkins et CloudBees
 Déploiement des applications avec les Chart Helm la plateforme RedHatOpenShift.
 Création d'une application développée en C# pour déployer des BPMNs (Business Process Management) sur la plateforme Camunda
 Cadrage de projet
 Technologies : DotNet Core 6.0, C#, DevBooster, RedHatOpenShift, CI/CD, Docker, Kubernetes, Gitlab, BPMN, Chart Helm, Camunda et Zeebe Client
 Méthodologie : AGILE (Daily Meeting, Spring Review, Revue de code, …)

Client: BNP-BP2S (Data Factory)
Projet : Outil d'administration de Data Factory. Data Factory est un service d'intégration de données basé sur le cloud IBM. Data Factory peut intégrer et transformer des données provenant de diverses sources et de différents formats. Il s'agit d'un service entièrement géré permettant de composer le stockage, le traitement et le déplacement des données dans les pipelines de production. L'outil d'administration est un outil de visualisation qui permet aux utilisateurs de Data Factory de visualiser, créer et modifier le modèle de données de Data Factory. Il gère les utilisateurs, les cas d'utilisation et les modèles de données.
Equipe de 20 personnes
Contribution

 Conception et développement de l'application « Outil d'administration »
 Architecture et codage d’une application Back-end de services Web REST API pour exposer les services consommés par l'application frontend avec Java et Spring Boot,
 Codage de l'application frontale avec Angular, TypeScript et JavaScript
 Mise en œuvre de la communication entre le Front-End et le Back-End
 Mise en place du cadre de sécurité JWT
 Mise en place d’une authentification unique
 Mise en œuvre de CI/CD avec Git, Jenkins, Docker et Kubernetes sur IBM Cloud
 Tests unitaires avec JUnit
 Tests de qualité avec SonarQube
 Technologies : Angular, Docker, Kubernetes, Git, Java, Spring Boot, Architecture microservices, JavaScript, TypeScript, Jenkins, JUnit, Kubernetes, SpringBoot, SonarQube, CI/CD
 Méthodologie : AGILE (Daily Meeting, Spring Review, Revue de code, …)

Client : Manpower
Projet : ETL Boomi pour la Migration des Candidates de Legacy vers Bulhorn. Equipe de 30 personnes. L'objectif de ce flux est d'alimenter Bulhorn avec les données candidats de Legacy. Le flux est responsable de la synchronisation des « Candidats » de la Manpower. Ce flux est exécuté sur une base planifiée, qui peut être déclenchée plusieurs fois par jour. Le flux interroge la base de données Legacy pour les « Candidats » modifiés et créés depuis la dernière exécution et met enfin à jour l'entité Candidate dans les lancers Bullhorn vers l'API REST Bullhorn
Equipe de 30 personnes
Contribution

 Conception de schémas d'architecture
 Développement des flux avec Boomi
 Implémentation des connecteurs Boomi pour récupérer des données DB2 et PostgreSQL avec des requêtes SQL
 Implémentation des règles de transformation afin de créer une vue canonique et mapping avec la structure Bulhorn
 Implémentation des connecteurs HTTP avec des requêtes afin de mettre à jour la structure avec Bulhorn
 Implémentation de REST APIs Bulhorn, mise a jour de la base de données Bulhorn basé sur le moteur Apache Lucent
 Développements des tests de non-régressions
 DevOps, CI/CD

Mars 2020 à janvier 2021 – Blue Soft Group
Développement Architect Java
Projet : Médiamétrie

 Conception et architecture
 Environnement technique : projet de type Maven pour la gestion des dépendances, du cycle de vie et l'organisation de packages
 Angular 8, pour les traitements front-end, Java 8, pour les développements applicatifs back-end,
 Spring Boot 2.2.6, pour la construction de projet applicatif .war, Spring ioc, pour l'injection de dépendances, Spring webmvc, pour le traitement des requêtes HTTP Restful venant du front-end, documentation Swagger 2 des API REST développées ; Spring Data JPA / Hibernate, pour la persistance des données,
 Oracle, la base de données
 IntelliJ IDEA ULTIMATE 2020.1 comme IDE pour le développement de l’application côté serveur
 Visual Studio Code 1.45.0, comme IDE pour le développement de l’application côté client
 AWS pour le déploiement de l'application
 API REST exposés dans le projet Mediamat côté back-end dans les contrôleurs REST.
 Réalisation POC mise en place projet Angular, Node.js et le repository npm (Node Package Manager)
 Implémentation de Http Client pour connecter Angular client avec Restful web services backend

Projet : Rappro Inventaire des Biens de Retour

 Conception et architecture
 Environnement technique : Application Front : Angular 9
 Backend: Micro-services / Spring Boot / Java 11 / Docker / Kubernetes
 Déploiement : On prémisse sur les serveurs Axione
 Découpage et regroupement des traitements par des services fonctionnels : Intégration des imports référentiels, Génération d’un Inventaire, Export d’un Inventaire
 Utilisation d’un Bus d’événements afin de permettre un faible couplage.

Projet : CERBA TQC

 J’ai fait l’audit d’une application,
 J’ai fait la conception d’une nouvelle architecture pour faire évoluer l’application monolithique vers une application découpée par web services.
 Je fais la migration de l’application et le redéveloppement avec Java 11, Hibernate 5.4, JBoss EAP 7.3
 CI/CD avec Azure DevOPs
 Génération de report avec SonarCube

Environnements Techniques :
Java 11, pour les développements applicatifs back-end.
Spring Boot 2.2.6, pour la construction de projet applicatif .war.
Spring ioc, pour l'injection de dépendances.
Spring webmvc, pour le traitement des requêtes HTTP Restful venant du front-end.
Spring Data JPA / Hibernate, pour la persistance des données.
IntelliJ IDEA ULTIMATE 2020.1 comme IDE pour le développement de notre application côté serveur.
Visual Studio Code 1.45.0, comme IDE pour le développement de l’application côté client
SQL SERVER 2019
Git, Azure Dev Ops, SonarQube

Mars 2008 à Mars 2020 – SAP FRANCE PARIS
1. 2019 -2020 Développement Architect, Senior Software Développement Engineer
Projet : SAP Crystal Reports 2020 Designer
Environnement Fonctionnel : application de reporting
 J’ai fait le développement de l’export vers XLSX de rapport web généré par l’application qui est un nouveau format d’exportation qui conserve la mise en page et le formatage
 J’ai fait le développement d’une nouvelle connectivité OData qui sert à exposer les web services Crystal pour être utilisé par des autres applications comme SAP Analytics Cloud.

Environnement Technique : SAP Crystal Reports, application web avec framework Spring et server d’application Tomcat, Java 8
2. 2016 -2019 Développement Architect, Senior Software Développement Engineer
Project : SAP Business Objects Analysis for OLAP

Environnement Fonctionnel : SAP BusinessObjects 4.0, 4.1, 4.2, SAP BusinessObjects Intelligence Platform

 J’ai fait le développement de la connexion OLAP qui sert à connecter l’application à la base de données SAP NetWeaver BW et à un cube et une requête Bex.
 Cube fait l’implémentation de la connectivité BICS qui sert pour l’accès aux données d’une cube BW.
 J’ai fait le développement de requetés OLAP nécessaires à alimenter avec de données le report.
 J’ai participé à la maintenance évolutivité de front-end : des pages JSP et JavaScript, ajouter des nouvelles fonctionnalités.
 J’ai fait de support client pour fixer les problèmes client : migration vers une version supérieure de l’application ou de service pack, optimisations de l’exécution de requêtes afin d’améliorer la génération de report, problèmes de configurations de connectivités de l’application.

Environnement Technique : Application web avec framework Spring et server d’application Tomcat, Java 8 et connexions OLAP pour se connecter à une source de données SAP NetWeaver Business Warehouse basée sur un serveur BW, un cube et une requête BEx. BICS (Business Intelligence Consumer Services) est la couche d’accès aux données BW pour les outils BEX. La connectivité BICS est le moyen recommandé pour les outils de BI de se connecter aux requêtes Business Explorer (BEx) sur le serveur SAP NetWeaver BW

Source de donnes : SAP BW 7.3, connexions BICS pour se connecter directement à une requête SAP BEx

3. 2015 -2016 Développement Architec...

Voir le profil complet de ce freelance