CV/Mission d'Ingénieur Apache Spark freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Sofiane,
Ingénieur Apache Spark habitant le Val-de-Marne (94)

  • Chef de projet SIRH/BI RELEASE (SQL,INFORMATICA,TALEND)

    DGAC/DNUM
    Jan 2022 - aujourd'hui

    Projet : Mise en place d’une migration de deux flux décisionnelle pour la gestion SIRH et Reporting
    Management Projet :
    â–ª Collaboration avec la hiérarchie, ainsi les représentants référents des Directions métiers.
    â–ª Pilotage projets BI /DATA (SIRH/ Décisionnel-RH)
    â–ª Pilotage des bascules de migration des flux et logiciels
    â–ª Pilotage de l’équipe de dev
    â–ª Accompagnement des utilisateurs
    â–ª Suivi et animation des reunions COPIL :
    â–ª Suivre la progression du projet par rapport aux grandes étapes du planning et des
    échéances
    â–ª Faire le point sur l’avancée des livrables prévus
    â–ª Suivre la consommation du budget défini initialement et remonter des alertes de
    surconsommation
    â–ª Monitorer les risques, leur probabilité de réalisation et anticiper des solutions
    â–ª Arbitrer sur les sujets bloquants et impactant le déroulement du projet
    â–ª Affecter les ressources nécessaires à la progression du projet
    â–ª Suivi et animation des réunions COPROJ
    â–ª Suivi régulier de la réalisation des tâches associées au projet
    â–ª Prises des décisions relevant de sujets opérationnels et fonctionnels,
    â–ª Remontée des arbitrages relevant du ressort du COPIL,
    â–ª Coordination des équipes opérationnelles (attribution et priorisation des tâches,
    disponibilités, timing et qualité des livraisons, etc.)
    â–ª Coordination et éventuelle préparation des ateliers,
    â–ª Suivi de l’analyse de risques,
    â–ª Accompagnement des équipes sur les difficultés opérationnelles, et remontée
    d’alertes au COPIL en cas de nécessité,
    â–ª Préparation des supports des COPIL
    Gestion Technique :
    â–ª Participation à l’analyse fonctionnelle et technique du besoin
    â–ª Rédaction des cahier des charges de la migartaion SQL/PL SQL et Informatica vers Talend
    â–ª Rédaction des cahier des charges de la migartaion QlikView vers Power BI
    â–ª Rédaction des spécifications fonctionnelles détaillées pour les developpeurs
    â–ª Animation atelier technique et revues des regles de gestions
    â–ª Animer, le Delivery de l’équipe Agile
    â–ª Revue des livrable , ainsi les spécifications techniques détaillées
    â–ª Développement des Jobs sous Talend (control des nouvelles platphormes)
    â–ª Développement des dashbors de reporting sous Power BI (control des nouvelles platphormes)
    â–ª Création des tables Oracles
    â–ª Optimisation des jobs existant
    â–ª Participation aux différentes phases de test
    Assistance et support à l’équipe de recette Metier
    â–ª Suivi de la mise en production
    â–ª Définir et gérer le planning d’avancement du projet et lever des alertes si besoin
    â–ª Mise en place d’une organisation favorise la collaboration et la résolution collective des problèmes
    sous Trello
    Livrable techniques :
    â–ª Mise en œuvre d’architectures techniques complexes
    â–ª Mise en œuvre des protocoles de transfert de fichier : https, FTP, PESIT,
    â–ª Mise en œuvre des API SOAP, REST au format XML et JSON
    â–ª Mise en œuvre des API Management sous AXWAY et ETL : Talend
    â–ª Mise en œuvre des mécanismes de déploiement de flux de données
    â–ª Mise en œuvre des mécanismes de supervision techniques de flux avec Power BI
    â–ª Mise en œuvre des mécanismes de sécurisation des flux (anonymisation et chiffrement des flux)
    â–ª Mise en œuvre des mécanismes d’exploitation de flux de données

    Environnement technique : â–ª Modélisation : PowerDesigner (anciennement PowerAMC) MCD et MPD â–ª Outils dev : Filezilla, NotePad++, PgAdmin/PostgreSQL11, SQL, ORACLE 12g/19, â–ª Outils reporting: Qlik View/SENS 14.29.5, Power BI 2.120.963.0. â–ª Outils API/ETL : API SOAP, REST au format XML et JSON, API Management sous AXWAY et ETL : Talend et Informatica â–ª Outils livraison : GIT Lab16.3.1
  • Chef de projet RETAIL/ E-Commerce /Expert Datastage

    GR ROCHER
    Jan 2021 - Jan 2022

    Projet : Mise en place suivis stocke des stores en dynamique avec Reporting sous Elasticsearch/
    Oracle Hyperion
    Management Projet :
    â–ª Collaboration avec la hiérarchie, ainsi les représentants référents des Directions métiers.
    â–ª Pilotage projets BI/DATA (Retail / E-commerce)/MDM/PIM
    â–ª Pilotage de cretaion base Golden Russe
    â–ª Pilotage de l’équipe de dev
    Gestion Technique :
    â–ª Participer activement Support Niveau 3 des problèmes de production expertise DataStage.
    â–ª Rédiger et maintenir à jour les documentations projets, architecture, incluant les spécifications
    fonctionnelles et techniques, ainsi que toutes les documentations inhérentes aux autres instances
    projets (Dossier RGPD, Fiche SSI ).
    â–ª Communication efficace en étroite collaboration avec les équipes techniques, département métier,
    direction, fournisseurs, partenaires tout au long du projet.
    â–ª Superviser la planification, avec un reporting des activités liées au projet.
    â–ª Géstion des risques et les problématiques rencontrées par les developpeurs, en proposant des solutions
    appropriées.
    â–ª Mettre en oevere d’un plan de reprise en MCO de la solution développée, avec une ocumentation
    d’exploitation
    Livrable techniques :
    â–ª Mise en œuvre des API Management sous Elasticsearch/ Oracle Hyperion (JAVA, XML et JSON)
    et ETL : DataStage 9.1/11.7
    â–ª Mise en œuvre des mécanismes de supervision des stores avec Elasticsearch
    â–ª Mise en œuvre des mécanismes de sécurisation des flux (anonymisation et chiffrement des flux
    RGPD)

    Environnement technique : â–ª Outils dev : Filezilla, NotePad++, SQL, ORACLE 12g/19, AS 400 â–ª Outils reporting: API sous Elasticsearch/MDM/PIM â–ª Outils API/ETL : API SOAP, REST au format XML et JSON, Python, API Management sous Elasticsearch / Oracle Hyperion (Python, JAVA, XML et JSON) et ETL : DataStage 9.1/11.7 â–ª Outils livraison : GIT Lab16.3.1
  • Ingenieur Integrateur et Production Décisionnel / Datastage

    CNP ASSURANCES
    Jan 2020 - Jan 2023

    Projet : Gestion des applications décisionnelles de contrat assurance vie en production et Reporting
    journalier aux clients (la Banque Postale, Caisse d’Épargne, Caisse des Dépôts, Natixis).
    Mission intégration :
    â–ª Récupération des livraisons sous Clear Case
    â–ª Rédaction du plan de test & stratégie technique des tests
    â–ª Validation et packaging des livrables en environnements d’intégration
    â–ª Intégration des ETLs & batchs applicatifs (Linux, Unix, Java, sh, ksh)
    â–ª Vérification des normes de developpement et de production.
    â–ª Vérification des normes des scripts (Shell, SQL, Dsx, Java, XML)
    â–ª Rédaction du PV d’intégration
    â–ª Mise en recette (qualification) des ETLs & batchs applicatifs
    â–ª Stabilisation et industrialisation l’intégration des nouvelles applications
    Mise en production :
    â–ª Mise en production des ETLs & batchs des applications
    â–ª Validation de l'exploitabilité des traitements
    â–ª Vérification du respect des normes de production.
    â–ª Suivi des nouvelles applications pendant la période de garantie
    â–ª Stabiliser et industrialiser la production des nouvelles applications
    â–ª Installation des composants zip dans les environnements de production
    â–ª Adaptation des scripts aux environnements de pré production et production
    â–ª Insertion des applications dans l'ordonnanceur de production
    â–ª Récupération des données, vérification, transferts de flux CFT
    â–ª Paramétrage manuel des règles de bascule des applications
    â–ª Suivi des traitements dans l'ordonnanceur de production
    Rédaction et mise à jour des documents :
    â–ª Bordereaux de livraison et d’installation
    â–ª Manuels d'exploitation
    â–ª Dossiers de mise en production
    â–ª Dossiers de qualification
    â–ª Plannings de mise en œuvre des traitements
    â–ª Participation aux réunions avec les Etudes, la MOA, les équipes infrastructures spécialisées
    (Systèmes, Réseau, DBA, Outils)
    â–ª Participation aux astreintes et interventions hors production

    Environnement technique : â–ª Outils dev : Filezilla, NotePad++, SQL, ORACLE10g, UNIX, SQL, PL/SQL, ORACLE10 /11g, Multi plate-forme distribuées (UNIX, Linux et NT), Shell script (ksh, sh), HP-UX, Linux (RedHat), Tomcat, Apache, WebLogic, logiciel interne MS gestion d'espace disque / sauvegarde et d’archivage â–ª Outils reporting: BO XI 3 â–ª Outils ETL : Datastage Server 7.5 Px 7.5.3 & V8.1 â–ª Outils livraison /Suppervision: Batch /Control-M 6.3/7
  • Chef de projet BI/ RETAIL/ E-Commerce /Expert Datastage

    DIOR COUTURE
    Jan 2020 - Jan 2020

    Projet : Mise en place d’une migration de deux flux décisionnelle pour la gestion RETAIL et Reporting DSI
    Management Projet :
    â–ª Étroite collaboration avec les représentants référents des Directions métiers.
    â–ª Piloter les projets BI /DATA Finance contratec
    â–ª Support Niveau 3 des problèmes de production (Système, logiciel, Data) expertise Datastage.
    Gestion fonctionnel et technique :
    â–ª Analysez des besoins des boutiques
    â–ª Identifiez et hiérarchisez les fonctions prioritaires
    â–ª Analyser et formaliser les nouvelles fonctionnalités avec les équipes métier
    â–ª Conception fonctionnelle des solutions
    â–ª Rédigez les spécifications, les users stories
    â–ª Gestion et maintien du product backlog & sprint backlog
    â–ª Piloter et assure la livraison des projets en veillant au respect des délais, de la phase de conception
    jusqu’à la réalisation et la mise en production
    â–ª Participez aux phases de recette ETL et SAP, ANAPLAN, ESB Mule(MuleSoft)
    â–ª Collaborez à la création des supports utilisateurs et supports de vente
    â–ª Contribuez activement à l'animation de la communauté des utilisateurs
    â–ª Garant des livrables
    â–ª Réalisation de la Roadmap et l'encadrement des projets en veillant à leur réalisation
    â–ª Participation aux workshops métiers / fonctionnels
    â–ª Rédaction des besoins fonctionnels en US et des process métier
    â–ª Animation des rituels Agile Scrum (daily, sprint, poker planning, retrospective)
    â–ª Contribuer au support aux utilisateurs des Directions Métiers : analyser les remontées d’incidents et
    traiter les demandes spécifiques
    â–ª Gestion des transferts de données avec ESB Mule (Mule integration services)
    â–ª Développer des Méthode d’analyse avec les collaborateurs en apportant de l’expertise technique et en
    management de projets.

    Environnement technique : â–ª Outils dev : Filezilla, NotePad++, SQL, ORACLE12g ,SQL Server 2016, AS 400 â–ª Outils reporting: Power BI â–ª Outils API/ETL : API SOAP, Python, ,REST au format XML et JSON, API Management sous SAP, ANAPLAN, ESB Mule(MuleSoft) Outils livraison : GIT Lab16.3.1
  • Expert Datastage Px 11.3 & Big Data (Spark, Hadoop)

    GENERALI
    Jan 2019 - Jan 2020

    Projet :
    â–ª Mise en place d’une application décisionnelle pour la gestion de Téléphonie (GENESYS) en CDC
    â–ª Support Niveau 3 des problèmes de production (Système, logiciel, Data) expertise Datastage.
    Gestion fonctionnel et technique :
    â–ª Analyse de l’existant et de problématique, et proposition des solutions pérennes
    â–ª Rédaction des spécifications fonctionnelles détaillées (SFD) a partir de l’existant chez Orange
    â–ª Mise à niveau des Bases des données DEV, REC, PROD
    â–ª Modélisation du Datamart CDC_TEL en étoile.
    â–ª Créez des messages personnalisés sur divers canaux,
    â–ª Utilisez des modèles existant
    â–ª Coordonner et diffuser des campagnes dynamiques (par e-mail, mobile, canal hors ligne, etc.).
    â–ª Créez des landing pages et consultez les bonnes pratiques.
    â–ª Développement des flux et intégration des données via Datastage PX/Server 11.3 et Oracle
    â–ª Test et mise en place des traitement HADOOP sur Datastage 11.3
    â–ª Test des jobs (Paquet, Hive, sous Datastage et scala et python…)
    â–ª Rédaction des spécifications techniques détaillées (STD)
    â–ª Développement Master basique pour d'ordonnancement des traitements
    â–ª Tests unitaires et suivi des appels clients
    â–ª Optimisation des traitements, et des règles de gestion après recette
    â–ª Assistance des utilisateurs en Recette et recette technique
    â–ª Gestion des publications et des habilitations au portail BO
    â–ª Création des nouveaux référentiels des correspondants
    â–ª Déploiement en production
    â–ª Gestion et suivi des anomalies en production
    â–ª Gestion des évolutions mineures et majeures du traitement
    â–ª Suivi des traitements en production U$

    Environnement technique : â–ª Outils dev : Filezilla, NotePad++, SQL, ORACLE 10 /12g, Big Data Hadoop, Python, MVS/TWS, IWS â–ª Outils reporting: BO IX4.2 â–ª Outils ETL : DataStage 11.3 â–ª Outils livraison : GIT Lab16.3.1
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Ingénieur Apache Spark, Missions Ingénieur Apache Spark, Ingénieur Apache Spark freelance

Les nouvelles missions d'Ingénieur Apache Spark

Consultant AI Act / gouvernance Data & IA

Data Apache Spark Microsoft Azure Machine Learning
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur/DevSecOps IA

Python Apache Spark DevSecOps SonarQube
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

Ingénieur de production big data

Kubernetes Airflow Apache Spark Python Red Hat OpenShift
ASAP
75000
3 mois
Voir la mission

Data engineer

Java MongoDB Apache Spark Apache Kafka
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur DATA

Python Airflow Apache Spark Apache NiFi Java
ASAP
75 - Paris
3 mois
Voir la mission

Développeur BIG DATA

Apache Spark Java Apache Kafka Grafana Linux
ASAP
44 - Nantes
3 mois
Voir la mission

Data Engineer

Apache Spark Spring Batch Apache Kafka Java
ASAP
69 - Lyon
3 mois
Voir la mission

Chef de projet IA

ASAP
78 - Saint Remy les Chevreuse
6 mois
Voir la mission

DBA et Support DataIku

SQL Python Apache Hadoop DevOps Dataiku
ASAP
44 - NANTES
13 mois
Voir la mission

Architecte technique Big Data (Kubernetes, Java, Spark)

Java Maven Apache Spark Kubernetes
ASAP
45 - ORLÉANS
240 jours ouvrés
Voir la mission
Je trouve ma mission

Les derniers CV d'Ingénieur Apache Spark disponibles

CV Data ingénieur
Amin

Data ingénieur

  • ÉVRY
Apache Spark Apache Kafka Scala
CV Product Owner, Chef de Projet
Genepirus Prince

Product Owner, Chef de Projet

  • PARIS
Agile Jira Scrum Confluence SQL Oracle Data
CV Ingénieur de développement Fullstack Java/Angular DevOps
Abdessalem

Ingénieur de développement Fullstack Java/Angular DevOps

  • ANTONY
Java Spring Boot Angular Apache Kafka SQL Jenkins Docker Keycloak
CV Tech Lead / Architecte
Khaled

Tech Lead / Architecte

  • PARIS
Java SQL J2EE Scala Big Data Apache Kafka Apache Spark Apache Hadoop
CV Architecte JAVA
Ahmed

Architecte JAVA

  • Dammarie les lys
Java J2EE Apache Hadoop Big Data Apache Hive Apache Spark Apache Kafka Angular Scala Ansible
CV Ingénieur de production
Romuald

Ingénieur de production

  • TOULOUSE
Unix Linux Apache Tomcat Shell Unix Adelia/IWS HDFS Apache Hadoop Dataiku SQL
CV Architecte HTML
Damien

Architecte HTML

  • La Marolle en Sologne
HTML Java PHP J2EE CSS JavaScript MySQL Apache Hadoop Big Data Apache
CV Data Engineer | Data Analyst | Formateur
Ahmed

Data Engineer | Data Analyst | Formateur

  • NANTES
SQL Data Apache Hadoop Talend Microsoft Power BI Python Google Cloud Platform Big Data Azure Apache Spark
CV Architecte solution et application sénior
Youness

Architecte solution et application sénior

  • VERSAILLES
SOA
CV Expert Data
Omar

Expert Data

  • PARIS
Python SQL Apache Spark Cloud AWS Azure
CV Data Engineer PySpark
Koffi Wilfried

Data Engineer PySpark

  • SAVIGNY-SUR-ORGE
Apache Spark PySpark SQL Python Data Big Data Power BI Microsoft Power BI Snowflake SAS
Je trouve mon freelance