CV Apache : Les derniers consultants enregistrés

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Apache connectés

CV Ingénieur systèmes REDHAT
Saifeddine

Ingénieur systèmes REDHAT

  • NANTERRE
Red Hat Linux Ansible Centreon GLPI VMware EMC VNX EMC PostgreSQL
Disponible
CV Tech Lead - JAVA NodeJS - React Vue
Karim

Tech Lead - JAVA NodeJS - React Vue

  • WATTIGNIES
JavaScript Node.js Vue.js MongoDB NestJS Angular Java Google Cloud Platform Cloud AWS React.js
CV Consultant
Pape

Consultant

  • PARIS
Data Windows Unix SQL Python Google Cloud Platform Business Objects Big Data Apache Spark Microsoft Power BI
Disponible
CV Développeur Full Stack Senior
Yannis

Développeur Full Stack Senior

  • MONDEVILLE
SQL HTML5 JavaScript Angular Node.js Python C# JAVA PHP Golang Vue.js
Disponible
CV Administrateur système et réseau
Mehdi

Administrateur système et réseau

  • VILLEURBANNE
Cisco Windows VMware Active Directory Linux LAN Apache Fortinet Red Hat
Disponible
CV Développeur Fullstack Sénior
Khaled Elwalid

Développeur Fullstack Sénior

  • JOUY-LE-MOUTIER
Java Spring React.js Kafka Docker Angular
Disponible
CV DBA SQL
Boniface

DBA SQL

  • NOISIEL
SQL PL SQL Windows Unix Linux SQL Server PostgreSQL Oracle E-Business Suite MySQL
Disponible
CV Ingénieur développement logiciel embarqué C C++ Python Linux
Jonathan

Ingénieur développement logiciel embarqué C C++ Python Linux

  • Gunsbach
C Git Linux Python Windows Linux embarqué Agile C++ Java
Disponible
CV Développeur JAVA Angular / ReactJS
Iadh

Développeur JAVA Angular / ReactJS

  • COURBEVOIE
Java Spring Boot J2EE Angular JavaScript Spring Spring Batch Apache Kafka PostgreSQL MongoDB
Disponible
CV Ingenieur Informatique
Carlos

Ingenieur Informatique

  • Beirut
iOS Node.js Apache Kafka Spring Boot Java Cloud AWS
Disponible
Je trouve un CV Apache
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé d'expériences de Mehdi,
freelance APACHE résidant dans les Hauts-de-Seine (92)

  • Rôle -> Consultant BI

    Natixis BFI
    Jan 2023 - Jan 2025

    Projet : Dans le cadre du Projet QYLOA (Query Your Loans), outil de consolidation
    quotidien et d'interrogation des encours de financements France et international destiné
    aux utilisateurs Front, Middle et Back Office des lignes métiers Financements :
    ● Analyse des besoins
    ● Rédaction des spécifications techniques
    ● Estimation de la charge de développement
    ● Élaboration des plannings avec les différents interlocuteurs
    ● Participation à la modélisation et à l’enrichissement du DataWarehouse
    ● Conception de flux d’alimentation des nouvelles tables de fait et de dimension sous
    PowerCenter
    ● Remplacement des procédures stockées alimentant le DataWarehouse des financements par
    des flux PowerCenter
    ● Enrichissement du Framework Cognos
    ● Développement de rapports prédéfinis sous Cognos 8.4 et 10
    ● Mise en œuvre des plans de test et de non-régression
    Assistance à la maîtrise d’ouvrage

  • Scrum Master & Senior Data Enginee

    SOGESSUR
    Jan 2022 - Jan 2025

    Gestion des produits assurance des emprunteurs
    Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG ainsi que
    l’implémentation des cas d’usages de reporting pour les actuaires
    Tâches :
    Gestion de projet:
    Réfèrent technique
    Encadrement des développeurs
    Définition des normes de développement
    Animation des cérémonies agiles
    Priorisation des sujets et création des indicateurs agiles
    Data Engineering:
    Développement des couches d’ingestion et de transformation dans le Datalake
    Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
    Réalisation des jobs Spark en JAVA
    Orchestration des jobs avec Oozie (bundles, coordinator et workflow)
    Réalisation de la pipeline GITLAB CI
    Implémentation d’un plugin de tests unitaires pour les Hive Query Language (HQL)

    Environnement technique : Apache Spark, JAVA, Hadoop, HQL, Apache Hive, Oozie, Cloudera Data Platform 7.1.1, Python, Maven, GitLab, Apache Trino, Kedro, Superset, Power BI, Amazon S3, AWS EMR
  • Rôle -> SCRUM MASTER & SENIOR DATA ENGINEER FT-PREVOYANCE

    Jan 2022 - Jan 2025

    Projet : – Gestion des produits assurance des emprunteurs
    Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG
    et implémentation des cas d’usage de reporting pour les actuaires
    ● Encadrer les développeurs et définition des normes de développements
    ● Réalisation de la pipeline GITLAB
    ● Réalisation des jobs Spark en JAVA
    ● Développement des couches d’ingestion et de transformation dans le datalake
    ● Encadrer les développeurs de l'équipe
    ● Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
    ● Implémentation d’un plugin de tests unitaires pour les scripts HQL
    ● Orchestration des jobs avec oozie (bundles, coordinator et workflow
    ● Animation des cérémonies agiles
    ● Priorisation des sujets et création des indicateurs agiles
    ● Réfèrent technique

    Environnement technique : Apache Spark, JAVA, Hadoop, HQL, Apache Hive,Oozie, Cloudera Data Platform 7.1.1, Python, Maven, GitLab, Apache Trino, Kedro, Superset, Power BI, Amazon S3, AWS EMR
  • Data Technical Lead - Expert Big Data

    LA BANQUE POSTALEProjet : Datalake Team
    Jan 2021 - Jan 2022

    Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business Lake / Serving
    Lake pour les utilisateurs finaux
    Tâches :
    Gestion de projet:
    Encadrement des développeurs
    Définition des normes de développement
    Data Engineering:
    Réalisation des jobs Spark Scala
    Ingestion des données avec des moteurs réalisés avec Apache Spark en Scala et Python
    Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, JSON, fichier à
    position fixe
    Participation à la migration de Hortonworks vers Cloudera Data Platform
    Réalisation des tests unitaires avec ScalaTest et Spark Testing Base
    Réalisation de la pipeline GITLAB CI
    Création des Datasets et Pipelines avec Dataiku
    Participation à un POC pour le passage vers du cloud public sur GCP

    Environnement technique : Apache Spark, Scala, ScalaTest, Hadoop, HQL, Apache Hive, Oozie, Ambari, Python, Maven, GitLab, Kafka, Hortonworks Data Platform 3.1.0 et 3.1.5, Cloudera Data Platform, Dataiku, SQL, Impala, BigQuery, Dataproc, GC
  • Rôle -> Data Technical Leader de la squad

    A La Banque Postale
    Jan 2021 - Jan 2022

    Projet : Équipe agile divisée en 2 squads - Équipe pilotage.
    Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business
    Lake et Serving Lake pour les utilisateurs finaux.
    ● Encadrer les développeurs et définition des normes de développements
    Réalisation de la pipeline GITLAB CI et suivi de la migration de HDP vers CDP
    ● Réalisation des jobs Spark scala
    ● Poc pour le passage vers du cloud public sur GCP
    ● Ingestion avec des moteurs réalisés avec Apache Spark en scala et python.
    ● Encadrer les développeurs de l'équipe
    ● Réalisation des tests unitaires avec ScalaTest et Spark Testing Base.
    ● Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, json, fichier à
    position fixe...
    ● Participation à la migration de Hortonworks vers Cloudera Data Platform
    ● Création des Datasets et Pipeline avec Dataiku
    ● Réfèrent technique

    Environnement technique : Apache Spark, Scala, ScalaTest, Hadoop, HQL, Apache Hive,Oozie, Ambari, Python, Maven, GitLab, Kafka, Hortonworks Data Platform 3.1.0 et 3.1.5, Cloudera Data Platform, hive, Dataiku, Intellij, SQL, Impala, Visual Studio Code, BigQuery, Dataproc,GCS
  • Rôle -> SENIOR DATA ENGINEER

    Société Générale BSC
    Jan 2017 - Jan 2021

    Projet : BASYLIQ (Base de synthèse de Liquidité) – Transformation Legacy en Datalake
    de la partie taux et change : Calculs des métriques VAN/EVE, GAP, Position de change et
    STX Encours…
    ● Réalisation des jobs Spark scala en mode patch en utilisant la couche de persistance
    Dataframe.
    ● Création des externals tables en Parquet et Avro.
    ● Participation à la mise en place de la nouvelle architecture BIG DATA
    ● CI/CD gestion des déploiements (maven, jenkins et Ansible)
    ● Réfèrent technique
    ● Création des cubes dans Rafal (Cluster d’une base analytique clickhouse)
    ● Support à la Production
    ● Animation des ateliers projets
    ● Réalisation des tests unitaires
    ● Implémentation des pipelines data avec Databricks pour expérimenter Delta Lake (ACID)
    ● Optimisation des jobs Spark

    Environnement technique : Apache Spark, Scala, Hadoop, Apache Nifi, Apache Hive,Oozie, Ambari, Ansible (AWX), Jenkins, Maven, Hue, ICA RAFAL, Clickhouse, Hive, Cloudera Data Platform, GITHUB, Intellij, SQL,Amazon S3, DynamoDB,Impala, Azure Databricks
  • Rôle -> Consultant BI

    Crédit Agricole Assurances (CAAGIS)
    Jan 2017 - Jan 2017

    Projet : montée de version Informatica Powercenter et PowerExchange 9.1 vers 9.6.1
    ORGANISATION :
    1 Directeur de projet / 1 chef de projet
    â–¡ 1 Expert et 1 consultants Informatica
    â–¡ Contexte : Sensible
    ● Participation aux ateliers projets
    ● Etude de l’existant
    ● Réalisation et tests unitaires
    ● Préparation du processus de migration
    ● Support pour la recette Utilisateur/Métier
    ● Correction des anomalies
    ● Rédaction des livrables
    ● Reporting auprès du chef de projet (activité, alertes, risques)

    Environnement technique : Oracle 11gR2, SQL, Informatica PowerCenter 9.6.1, Informatica PowerExchange 9.6, Scripts Shell
  • Rôle -> Consultant BI

    AXA BANQUE
    Jan 2016 - Jan 2017

    Projet : Au sein du département Fonctionnement et Reporting d’AXA BANQUE,
    maintenance applicative de toute la chaine d’alimentation PowerCenter et des scripts
    Shell.
    ORGANISATION :
    â–¡ 1 Manager (MOE)
    â–¡ 2 consultants Informatica PowerCenter
    â–¡ Méthodologies mises en œuvre : Cycle en V
    â–¡ Contexte : Sensible
    ● Analyse des demandes ponctuelles et récurrentes provenant des différents comités métier :
    Distribution, Banque et Épargne bancaire, Crédit, Banque privée et Clientèle directe
    ● Chiffrage des demandes d’évolution (analyse d’impacts…)
    ● Développement et enrichissement des flux PowerCenter (ODS, Entrepôt de données, DWH)
    ● Développement de requêtes d’extraction de données en SQL
    ● Suivi et traitement des anomalies (retour qualifications) et des demandes d’évolution (spécifiées par les métiers)
    ● Analyse et optimisation des temps de traitements PowerCenter : analyse de la fluctuation des
    temps de traitement
    ● Mise en œuvre des plans de test et de non-régression
    ● Gestion et suivi des workflows, mise en production et suivi de production
    ● Support applicatif

    Environnement technique : Oracle 11g, SQL, Informatica PowerCenter 9.5, Scripts Shell, Automator, ClearQuest, SAP BO, HP Service Manager
  • Rôle -> Tech Lead BI

    BASYLIQ (Base de synthèse de Liquidité)
    aujourd'hui

    Projet : - Gestion de risques bancaires par la
    mise en place d’une base de reporting fournissant des indicateurs de pilotage internes et
    réglementaires (LCR/NSFR, Sensibilité de la VAN, Position de Change, Marge Nette
    d’intérêt).
    ORGANISATION :
    â–¡ Agilité à l’échelle
    â–¡ Plusieurs Features Teams
    â–¡ FT Taux et Change composé de plus de 15 Membres (Inde et Paris)
    â–¡ Communication en Anglais
    â–¡ Contexte : Sensible
    ● Réalisation des composants informatica, Shell et PL/SQL
    ● Optimisations informatica: Partitionning, Session GRID, Pushdown
    ● Reporting SAP BI4 (Webi, Univers)
    ● Assistance MOA et homologation métier
    ● Assistance technique Equipe Paris & Inde
    â—ÂÂ...

Voir le profil complet de ce freelance