CV Apache : Les nouveaux indépendants enregistrés

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Apache connectés

CV Ingénieur Java Full Stack
Soriba Lamar

Ingénieur Java Full Stack

  • ALFORTVILLE
Java J2EE Angular SQL Spring DROPWIZARD Hibernate Git Elasticsearch PL SQL
Disponible
CV DevSecOps & Solution Architect
Jean Marcel

DevSecOps & Solution Architect

  • ARGENTEUIL
DevOps CI/CD FORTIFY Kubernetes HashiCorp Terraform Azure Linux Cloud AWS Ansible PostgreSQL
Disponible
CV Ingénieur de développement Fullstack JAVA
Nabil

Ingénieur de développement Fullstack JAVA

  • ERMONT
Java Spring Spring Boot REST JUnit DevOps Angular AngularJS Jenkins React.js
CV Ingenieur Informatique
Carlos

Ingenieur Informatique

  • BEIRUT
iOS Node.js Apache Kafka Spring Boot Java Cloud AWS
Disponible
CV Ingénieur réseaux
Nabil

Ingénieur réseaux

  • COLOMBES
Cisco Fortinet Palo Alto Networks ARISTA F5 Local Traffic Manager (LTM)
Bientôt disponible
CV Ingénieur systèmes et réseaux
Tristan

Ingénieur systèmes et réseaux

  • COLMAR
Cisco Windows Exchange Cloud AWS Active Directory Azure SQL Linux VMware
Disponible
CV Consultant Formateur Change Managment IT Mobilite Réseaux et Cybersécurité
Mehdi

Consultant Formateur Change Managment IT Mobilite Réseaux et Cybersécurité

  • MONTREUIL
IoT PMO ArcGIS Microsoft Teams iOS Android Cybersécurité MS Office Apache Scrum
Disponible
CV Consultant
Pape

Consultant

  • PARIS
Data Windows Unix SQL Python Google Cloud Platform Business Objects Big Data Apache Spark Microsoft Power BI
Disponible
CV Data Analytics Engineer | Python | SQL | BI
Pape Semou

Data Analytics Engineer | Python | SQL | BI

  • NEUILLY-SUR-MARNE
Excel Microsoft Power BI Azure Snowflake Business Objects Python Apache Spark Git SQL SAS
Disponible
CV Data Scientist Deep Learning
Tekam Simo

Data Scientist Deep Learning

  • TOULOUSE
Deep Learning Python Microsoft Power BI SQL Tableau IA Générative Excel Apache Spark Google Cloud Platform
Disponible
Je trouve un CV Apache
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé d'expériences de Mehdi,
freelance APACHE résidant dans les Hauts-de-Seine (92)

  • Rôle -> Consultant BI

    Natixis BFI
    Jan 2023 - Jan 2025

    Projet : Dans le cadre du Projet QYLOA (Query Your Loans), outil de consolidation
    quotidien et d'interrogation des encours de financements France et international destiné
    aux utilisateurs Front, Middle et Back Office des lignes métiers Financements :
    ● Analyse des besoins
    ● Rédaction des spécifications techniques
    ● Estimation de la charge de développement
    ● Élaboration des plannings avec les différents interlocuteurs
    ● Participation à la modélisation et à l’enrichissement du DataWarehouse
    ● Conception de flux d’alimentation des nouvelles tables de fait et de dimension sous
    PowerCenter
    ● Remplacement des procédures stockées alimentant le DataWarehouse des financements par
    des flux PowerCenter
    ● Enrichissement du Framework Cognos
    ● Développement de rapports prédéfinis sous Cognos 8.4 et 10
    ● Mise en œuvre des plans de test et de non-régression
    Assistance à la maîtrise d’ouvrage

  • Scrum Master & Senior Data Enginee

    SOGESSUR
    Jan 2022 - Jan 2025

    Gestion des produits assurance des emprunteurs
    Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG ainsi que
    l’implémentation des cas d’usages de reporting pour les actuaires
    Tâches :
    Gestion de projet:
    Réfèrent technique
    Encadrement des développeurs
    Définition des normes de développement
    Animation des cérémonies agiles
    Priorisation des sujets et création des indicateurs agiles
    Data Engineering:
    Développement des couches d’ingestion et de transformation dans le Datalake
    Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
    Réalisation des jobs Spark en JAVA
    Orchestration des jobs avec Oozie (bundles, coordinator et workflow)
    Réalisation de la pipeline GITLAB CI
    Implémentation d’un plugin de tests unitaires pour les Hive Query Language (HQL)

    Environnement technique : Apache Spark, JAVA, Hadoop, HQL, Apache Hive, Oozie, Cloudera Data Platform 7.1.1, Python, Maven, GitLab, Apache Trino, Kedro, Superset, Power BI, Amazon S3, AWS EMR
  • Rôle -> SCRUM MASTER & SENIOR DATA ENGINEER FT-PREVOYANCE

    Jan 2022 - Jan 2025

    Projet : – Gestion des produits assurance des emprunteurs
    Développement et maintenance de la pipeline des produits ADE provenant de BFM et SG
    et implémentation des cas d’usage de reporting pour les actuaires
    ● Encadrer les développeurs et définition des normes de développements
    ● Réalisation de la pipeline GITLAB
    ● Réalisation des jobs Spark en JAVA
    ● Développement des couches d’ingestion et de transformation dans le datalake
    ● Encadrer les développeurs de l'équipe
    ● Ingestion de plusieurs formats de données structurées : ORC, PARQUET, CSV
    ● Implémentation d’un plugin de tests unitaires pour les scripts HQL
    ● Orchestration des jobs avec oozie (bundles, coordinator et workflow
    ● Animation des cérémonies agiles
    ● Priorisation des sujets et création des indicateurs agiles
    ● Réfèrent technique

    Environnement technique : Apache Spark, JAVA, Hadoop, HQL, Apache Hive,Oozie, Cloudera Data Platform 7.1.1, Python, Maven, GitLab, Apache Trino, Kedro, Superset, Power BI, Amazon S3, AWS EMR
  • Data Technical Lead - Expert Big Data

    LA BANQUE POSTALEProjet : Datalake Team
    Jan 2021 - Jan 2022

    Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business Lake / Serving
    Lake pour les utilisateurs finaux
    Tâches :
    Gestion de projet:
    Encadrement des développeurs
    Définition des normes de développement
    Data Engineering:
    Réalisation des jobs Spark Scala
    Ingestion des données avec des moteurs réalisés avec Apache Spark en Scala et Python
    Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, JSON, fichier à
    position fixe
    Participation à la migration de Hortonworks vers Cloudera Data Platform
    Réalisation des tests unitaires avec ScalaTest et Spark Testing Base
    Réalisation de la pipeline GITLAB CI
    Création des Datasets et Pipelines avec Dataiku
    Participation à un POC pour le passage vers du cloud public sur GCP

    Environnement technique : Apache Spark, Scala, ScalaTest, Hadoop, HQL, Apache Hive, Oozie, Ambari, Python, Maven, GitLab, Kafka, Hortonworks Data Platform 3.1.0 et 3.1.5, Cloudera Data Platform, Dataiku, SQL, Impala, BigQuery, Dataproc, GC
  • Rôle -> Data Technical Leader de la squad

    A La Banque Postale
    Jan 2021 - Jan 2022

    Projet : Équipe agile divisée en 2 squads - Équipe pilotage.
    Réalisation de l'ingestion des nouvelles sources et alimentation des couches Business
    Lake et Serving Lake pour les utilisateurs finaux.
    ● Encadrer les développeurs et définition des normes de développements
    Réalisation de la pipeline GITLAB CI et suivi de la migration de HDP vers CDP
    ● Réalisation des jobs Spark scala
    ● Poc pour le passage vers du cloud public sur GCP
    ● Ingestion avec des moteurs réalisés avec Apache Spark en scala et python.
    ● Encadrer les développeurs de l'équipe
    ● Réalisation des tests unitaires avec ScalaTest et Spark Testing Base.
    ● Ingestion de plusieurs formats de données structurées : Parquet, Avro, CSV, json, fichier à
    position fixe...
    ● Participation à la migration de Hortonworks vers Cloudera Data Platform
    ● Création des Datasets et Pipeline avec Dataiku
    ● Réfèrent technique

    Environnement technique : Apache Spark, Scala, ScalaTest, Hadoop, HQL, Apache Hive,Oozie, Ambari, Python, Maven, GitLab, Kafka, Hortonworks Data Platform 3.1.0 et 3.1.5, Cloudera Data Platform, hive, Dataiku, Intellij, SQL, Impala, Visual Studio Code, BigQuery, Dataproc,GCS
  • Rôle -> SENIOR DATA ENGINEER

    Société Générale BSC
    Jan 2017 - Jan 2021

    Projet : BASYLIQ (Base de synthèse de Liquidité) – Transformation Legacy en Datalake
    de la partie taux et change : Calculs des métriques VAN/EVE, GAP, Position de change et
    STX Encours…
    ● Réalisation des jobs Spark scala en mode patch en utilisant la couche de persistance
    Dataframe.
    ● Création des externals tables en Parquet et Avro.
    ● Participation à la mise en place de la nouvelle architecture BIG DATA
    ● CI/CD gestion des déploiements (maven, jenkins et Ansible)
    ● Réfèrent technique
    ● Création des cubes dans Rafal (Cluster d’une base analytique clickhouse)
    ● Support à la Production
    ● Animation des ateliers projets
    ● Réalisation des tests unitaires
    ● Implémentation des pipelines data avec Databricks pour expérimenter Delta Lake (ACID)
    ● Optimisation des jobs Spark

    Environnement technique : Apache Spark, Scala, Hadoop, Apache Nifi, Apache Hive,Oozie, Ambari, Ansible (AWX), Jenkins, Maven, Hue, ICA RAFAL, Clickhouse, Hive, Cloudera Data Platform, GITHUB, Intellij, SQL,Amazon S3, DynamoDB,Impala, Azure Databricks
  • Rôle -> Consultant BI

    Crédit Agricole Assurances (CAAGIS)
    Jan 2017 - Jan 2017

    Projet : montée de version Informatica Powercenter et PowerExchange 9.1 vers 9.6.1
    ORGANISATION :
    1 Directeur de projet / 1 chef de projet
    â–¡ 1 Expert et 1 consultants Informatica
    â–¡ Contexte : Sensible
    ● Participation aux ateliers projets
    ● Etude de l’existant
    ● Réalisation et tests unitaires
    ● Préparation du processus de migration
    ● Support pour la recette Utilisateur/Métier
    ● Correction des anomalies
    ● Rédaction des livrables
    ● Reporting auprès du chef de projet (activité, alertes, risques)

    Environnement technique : Oracle 11gR2, SQL, Informatica PowerCenter 9.6.1, Informatica PowerExchange 9.6, Scripts Shell
  • Rôle -> Consultant BI

    AXA BANQUE
    Jan 2016 - Jan 2017

    Projet : Au sein du département Fonctionnement et Reporting d’AXA BANQUE,
    maintenance applicative de toute la chaine d’alimentation PowerCenter et des scripts
    Shell.
    ORGANISATION :
    â–¡ 1 Manager (MOE)
    â–¡ 2 consultants Informatica PowerCenter
    â–¡ Méthodologies mises en œuvre : Cycle en V
    â–¡ Contexte : Sensible
    ● Analyse des demandes ponctuelles et récurrentes provenant des différents comités métier :
    Distribution, Banque et Épargne bancaire, Crédit, Banque privée et Clientèle directe
    ● Chiffrage des demandes d’évolution (analyse d’impacts…)
    ● Développement et enrichissement des flux PowerCenter (ODS, Entrepôt de données, DWH)
    ● Développement de requêtes d’extraction de données en SQL
    ● Suivi et traitement des anomalies (retour qualifications) et des demandes d’évolution (spécifiées par les métiers)
    ● Analyse et optimisation des temps de traitements PowerCenter : analyse de la fluctuation des
    temps de traitement
    ● Mise en œuvre des plans de test et de non-régression
    ● Gestion et suivi des workflows, mise en production et suivi de production
    ● Support applicatif

    Environnement technique : Oracle 11g, SQL, Informatica PowerCenter 9.5, Scripts Shell, Automator, ClearQuest, SAP BO, HP Service Manager
  • Rôle -> Tech Lead BI

    BASYLIQ (Base de synthèse de Liquidité)
    aujourd'hui

    Projet : - Gestion de risques bancaires par la
    mise en place d’une base de reporting fournissant des indicateurs de pilotage internes et
    réglementaires (LCR/NSFR, Sensibilité de la VAN, Position de Change, Marge Nette
    d’intérêt).
    ORGANISATION :
    â–¡ Agilité à l’échelle
    â–¡ Plusieurs Features Teams
    â–¡ FT Taux et Change composé de plus de 15 Membres (Inde et Paris)
    â–¡ Communication en Anglais
    â–¡ Contexte : Sensible
    ● Réalisation des composants informatica, Shell et PL/SQL
    ● Optimisations informatica: Partitionning, Session GRID, Pushdown
    ● Reporting SAP BI4 (Webi, Univers)
    ● Assistance MOA et homologation métier
    ● Assistance technique Equipe Paris & Inde
    â—ÂÂ...

Voir le profil complet de ce freelance