CV Apache : Trouvez votre consultant indépendant

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Apache connectés

CV Data Architect | Data Engineer | Chef de projet IT | Transition & Réversibilité | Service Delivery &  Incident Management | Secteur Public & Santé
Sakr

Data Architect | Data Engineer | Chef de projet IT | Transition & Réversibilité | Service Delivery & Incident Management | Secteur Public & Santé

  • VANVES
SQL BODS Gestion d'équipe Linux Windows Oracle ServiceNow Jira Confluence Java
Disponible
CV Ingénieur Systeme et DevOps
Cedric

Ingénieur Systeme et DevOps

  • MITRY-MORY
Ansible Kubernetes DevOps Azure Cloud AWS Git Jenkins
Disponible
CV Ingénieur de production
Youssef

Ingénieur de production

  • CARRIÈRES-SOUS-POISSY
Unix Linux Control-M Windows
Disponible
CV Architecte Solution/ intégration DevOps
Hakim

Architecte Solution/ intégration DevOps

  • bagneux
SQL Server C Sharp DotNET DevOps Agile DevSecOps Enterprise Architect
CV consutant technique java & kubernetes
Brahim

consutant technique java & kubernetes

  • PARIS
Java Kubernetes Spring Angular Ansible Jenkins
Disponible
CV MOA SAB
Noura

MOA SAB

  • RUEIL-MALMAISON
SAB AS400 COBOL Java SQL
Bientôt disponible
CV Spécialise cybersécurité/ Analyste SOC /Administrateur SI
Mamadou

Spécialise cybersécurité/ Analyste SOC /Administrateur SI

  • BAGNOLET
Linux Windows Active Directory VMware LAN SIEM Cisco Apache ELK Splunk
Disponible
CV Architecte SQL SERVER
Hamid

Architecte SQL SERVER

  • Chatou
SQL Server TUXEDO Oracle J2EE .NET EAI BPM Db2 Décisionnel
CV Technical Lead, Architecte
Mohamed

Technical Lead, Architecte

  • LES MUREAUX
PHP Symfony Google Cloud Platform Node.js React.js Angular MySQL Docker Kubernetes Flutter
CV Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Mohamed

Architecte Big Data / Expert Cloud AWS/GCP/Azure

  • PALAISEAU
Java Apache Hadoop Data Scala Apache Spark Apache Kafka Big Data Amazon Web Services Python Azure
Disponible
Je trouve un CV Apache
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu d'expériences de Mehdi,
freelance APACHE habitant les Hauts-de-Seine (92)

  • Rôle -> Consultant BI

    Natixis BFI
    Jan 2023 - Jan 2025

    Projet : Dans le cadre du Projet QYLOA (Query Your Loans), outil de consolidation
    quotidien et d'interrogation des encours de financements France et international destiné
    aux utilisateurs Front, Middle et Back Office des lignes métiers Financements :
    ● Analyse des besoins
    ● Rédaction des spécifications techniques
    ● Estimation de la charge de développement
    ● Élaboration des plannings avec les différents interlocuteurs
    ● Participation à la modélisation et à l’enrichissement du DataWarehouse
    ● Conception de flux d’alimentation des nouvelles tables de fait et de dimension sous
    PowerCenter
    ● Remplacement des procédures stockées alimentant le DataWarehouse des financements par
    des flux PowerCenter
    ● Enrichissement du Framework Cognos
    ● Développement de rapports prédéfinis sous Cognos 8.4 et 10
    ● Mise en œuvre des plans de test et de non-régression
    Assistance à la maîtrise d’ouvrage

  • Scrum Master & Senior Data Enginee

    SOGESSUR
    Jan 2022 - Jan 2025

    Gestion des produits assurance des emprunteurs
    Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG ainsi que
    l’implémentation des cas d’usages de reporting pour les actuaires
    Tâches :
    Gestion de projet:
    Réfèrent technique
    Encadrement des développeurs
    Définition des normes de développement
    Animation des cérémonies agiles
    Priorisation des sujets et création des indicateurs agiles
    Data Engineering:
    Développement des couches d’ingestion et de transformation dans le Datalake
    Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
    Réalisation des jobs Spark en JAVA
    Orchestration des jobs avec Oozie (bundles, coordinator et workflow)
    Réalisation de la pipeline GITLAB CI
    Implémentation d’un plugin de tests unitaires pour les Hive Query Language (HQL)

    Environnement technique : Apache Spark, JAVA, Hadoop, HQL, Apache Hive, Oozie, Cloudera Data Platform 7.1.1, Python, Maven, GitLab, Apache Trino, Kedro, Superset, Power BI, Amazon S3, AWS EMR
  • Rôle -> SCRUM MASTER & SENIOR DATA ENGINEER FT-PREVOYANCE

    Jan 2022 - Jan 2025

    Projet : – Gestion des produits assurance des emprunteurs
    Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG
    et implémentation des cas d’usage de reporting pour les actuaires
    ● Encadrer les développeurs et définition des normes de développements
    ● Réalisation de la pipeline GITLAB
    ● Réalisation des jobs Spark en JAVA
    ● Développement des couches d’ingestion et de transformation dans le datalake
    ● Encadrer les développeurs de l'équipe
    ● Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
    ● Implémentation d’un plugin de tests unitaires pour les scripts HQL
    ● Orchestration des jobs avec oozie (bundles, coordinator et workflow
    ● Animation des cérémonies agiles
    ● Priorisation des sujets et création des indicateurs agiles
    ● Réfèrent technique

    Environnement technique : Apache Spark, JAVA, Hadoop, HQL, Apache Hive,Oozie, Cloudera Data Platform 7.1.1, Python, Maven, GitLab, Apache Trino, Kedro, Superset, Power BI, Amazon S3, AWS EMR
  • Data Technical Lead - Expert Big Data

    LA BANQUE POSTALEProjet : Datalake Team
    Jan 2021 - Jan 2022

    Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business Lake / Serving
    Lake pour les utilisateurs finaux
    Tâches :
    Gestion de projet:
    Encadrement des développeurs
    Définition des normes de développement
    Data Engineering:
    Réalisation des jobs Spark Scala
    Ingestion des données avec des moteurs réalisés avec Apache Spark en Scala et Python
    Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, JSON, fichier à
    position fixe
    Participation à la migration de Hortonworks vers Cloudera Data Platform
    Réalisation des tests unitaires avec ScalaTest et Spark Testing Base
    Réalisation de la pipeline GITLAB CI
    Création des Datasets et Pipelines avec Dataiku
    Participation à un POC pour le passage vers du cloud public sur GCP

    Environnement technique : Apache Spark, Scala, ScalaTest, Hadoop, HQL, Apache Hive, Oozie, Ambari, Python, Maven, GitLab, Kafka, Hortonworks Data Platform 3.1.0 et 3.1.5, Cloudera Data Platform, Dataiku, SQL, Impala, BigQuery, Dataproc, GC
  • Rôle -> Data Technical Leader de la squad

    A La Banque Postale
    Jan 2021 - Jan 2022

    Projet : Équipe agile divisée en 2 squads - Équipe pilotage.
    Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business
    Lake et Serving Lake pour les utilisateurs finaux.
    ● Encadrer les développeurs et définition des normes de développements
    Réalisation de la pipeline GITLAB CI et suivi de la migration de HDP vers CDP
    ● Réalisation des jobs Spark scala
    ● Poc pour le passage vers du cloud public sur GCP
    ● Ingestion avec des moteurs réalisés avec Apache Spark en scala et python.
    ● Encadrer les développeurs de l'équipe
    ● Réalisation des tests unitaires avec ScalaTest et Spark Testing Base.
    ● Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, json, fichier à
    position fixe...
    ● Participation à la migration de Hortonworks vers Cloudera Data Platform
    ● Création des Datasets et Pipeline avec Dataiku
    ● Réfèrent technique

    Environnement technique : Apache Spark, Scala, ScalaTest, Hadoop, HQL, Apache Hive,Oozie, Ambari, Python, Maven, GitLab, Kafka, Hortonworks Data Platform 3.1.0 et 3.1.5, Cloudera Data Platform, hive, Dataiku, Intellij, SQL, Impala, Visual Studio Code, BigQuery, Dataproc,GCS
  • Rôle -> SENIOR DATA ENGINEER

    Société Générale BSC
    Jan 2017 - Jan 2021

    Projet : BASYLIQ (Base de synthèse de Liquidité) – Transformation Legacy en Datalake
    de la partie taux et change : Calculs des métriques VAN/EVE, GAP, Position de change et
    STX Encours…
    ● Réalisation des jobs Spark scala en mode patch en utilisant la couche de persistance
    Dataframe.
    ● Création des externals tables en Parquet et Avro.
    ● Participation à la mise en place de la nouvelle architecture BIG DATA
    ● CI/CD gestion des déploiements (maven, jenkins et Ansible)
    ● Réfèrent technique
    ● Création des cubes dans Rafal (Cluster d’une base analytique clickhouse)
    ● Support à la Production
    ● Animation des ateliers projets
    ● Réalisation des tests unitaires
    ● Implémentation des pipelines data avec Databricks pour expérimenter Delta Lake (ACID)
    ● Optimisation des jobs Spark

    Environnement technique : Apache Spark, Scala, Hadoop, Apache Nifi, Apache Hive,Oozie, Ambari, Ansible (AWX), Jenkins, Maven, Hue, ICA RAFAL, Clickhouse, Hive, Cloudera Data Platform, GITHUB, Intellij, SQL,Amazon S3, DynamoDB,Impala, Azure Databricks
  • Rôle -> Consultant BI

    Crédit Agricole Assurances (CAAGIS)
    Jan 2017 - Jan 2017

    Projet : montée de version Informatica Powercenter et PowerExchange 9.1 vers 9.6.1
    ORGANISATION :
    1 Directeur de projet / 1 chef de projet
    â–¡ 1 Expert et 1 consultants Informatica
    â–¡ Contexte : Sensible
    ● Participation aux ateliers projets
    ● Etude de l’existant
    ● Réalisation et tests unitaires
    ● Préparation du processus de migration
    ● Support pour la recette Utilisateur/Métier
    ● Correction des anomalies
    ● Rédaction des livrables
    ● Reporting auprès du chef de projet (activité, alertes, risques)

    Environnement technique : Oracle 11gR2, SQL, Informatica PowerCenter 9.6.1, Informatica PowerExchange 9.6, Scripts Shell
  • Rôle -> Consultant BI

    AXA BANQUE
    Jan 2016 - Jan 2017

    Projet : Au sein du département Fonctionnement et Reporting d’AXA BANQUE,
    maintenance applicative de toute la chaine d’alimentation PowerCenter et des scripts
    Shell.
    ORGANISATION :
    â–¡ 1 Manager (MOE)
    â–¡ 2 consultants Informatica PowerCenter
    â–¡ Méthodologies mises en œuvre : Cycle en V
    â–¡ Contexte : Sensible
    ● Analyse des demandes ponctuelles et récurrentes provenant des différents comités métier :
    Distribution, Banque et Épargne bancaire, Crédit, Banque privée et Clientèle directe
    ● Chiffrage des demandes d’évolution (analyse d’impacts…)
    ● Développement et enrichissement des flux PowerCenter (ODS, Entrepôt de données, DWH)
    ● Développement de requêtes d’extraction de données en SQL
    ● Suivi et traitement des anomalies (retour qualifications) et des demandes d’évolution (spécifiées par les métiers)
    ● Analyse et optimisation des temps de traitements PowerCenter : analyse de la fluctuation des
    temps de traitement
    ● Mise en œuvre des plans de test et de non-régression
    ● Gestion et suivi des workflows, mise en production et suivi de production
    ● Support applicatif

    Environnement technique : Oracle 11g, SQL, Informatica PowerCenter 9.5, Scripts Shell, Automator, ClearQuest, SAP BO, HP Service Manager
  • Rôle -> Tech Lead BI

    BASYLIQ (Base de synthèse de Liquidité)
    aujourd'hui

    Projet : - Gestion de risques bancaires par la
    mise en place d’une base de reporting fournissant des indicateurs de pilotage internes et
    réglementaires (LCR/NSFR, Sensibilité de la VAN, Position de Change, Marge Nette
    d’intérêt).
    ORGANISATION :
    â–¡ Agilité à l’échelle
    â–¡ Plusieurs Features Teams
    â–¡ FT Taux et Change composé de plus de 15 Membres (Inde et Paris)
    â–¡ Communication en Anglais
    â–¡ Contexte : Sensible
    ● Réalisation des composants informatica, Shell et PL/SQL
    ● Optimisations informatica: Partitionning, Session GRID, Pushdown
    ● Reporting SAP BI4 (Webi, Univers)
    ● Assistance MOA et homologation métier
    ● Assistance technique Equipe Paris & Inde
    â—ÂÂ...

Voir le profil complet de ce freelance