CV/Mission de Développeur wps freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Gnankoye,
Développeur wps habitant la Seine-Saint-Denis (93)

  • Consultant Data Analyst Senior Fonction : Data Engineer

    GROUP RENAULT (INDUSTRIE AUTOMOBILE)
    Jan 2022 - 2024

    Contexte : Traitement et optimisation des Services connectées dans les véhicules, Analyser
    les différents incidents en prod, mise en place de monitoring d’alerte d’incidents avec
    Grafana pour répertorier les incidents, faire la campagne des véhicules et Gestion de Stocks
    des entrepôts de véhicules.
    Domaine d’Intervention
    Dossier de compétences |
    3/10
    â—¼ Mise en place d’architecture et pipeline de traitement des incidents en Prod.
    â—¼ Analyser les incidents (K1, K2, K3) sur Snow et grafana
    â—¼ Analyse statistique des différents incidents
    â—¼ Modélisation des processus Métiers
    â—¼ Gestion de la sécurité des services
    â—¼ Gestion de la prod et des incidents
    â—¼ Mise en place des KPI des indicateurs Incidents (Taux incidents, taux incident résolus)
    â—¼ Mise en place de nouvelles stratégies en réduction de 30 % de réponses des requêtes.
    â—¼ Faire des supports Post mortems des incidents K1 et K2
    â—¼ Traiter les demandes d’accès au portail sur la plateforme Vnext et Harman (Redbend)
    â—¼ Intégration des données et développement de pipeline avec SSIS .
    â—¼ Sailpoint pour la sécurité des documents et des vins des véhicules
    â—¼ Gestion des stocks dans nos différentes entrepôts des véhicules.
    â—¼ Analyse des graphes sur grafana rédiger les post-mortems (document support )
    â—¼ Gestion de monitoring pour les suivis des incidents et catégoriser les différents incidents
    â—¼ Avec Dataiku je récupère les dataset en Prod pour analyser les différents incidents et ensuite je
    génère de rapport .
    â—¼ Etude Talend connectivités avec les bases de données sql server et cloud gcp
    Azure Synapse, Synapse Analytique (réaliser les Activités)
    â—¼ Power BI , Nettoyage des données, génération et partage des rapports avec les participants

    Environnement Technique : Azure DevOps (GIT, CI/CID) , Plateformes Azure,MSBI( SSIS) , Vnext ,DataBricks Azure , Excel ,IAM(Modelisation) , Statistique , Dataiku, Servicenow , Azure portal ,Talend, Grafana , Confluence ,Dataiku, Jira , Azure Synapse ,Power BI , VBA , GCP(BigQuery ) .
  • Consultant Data Engineer/ Architecte

    SOCIETE ORANGE GROUP TELECOM
    Jan 2020 - Jan 2022

    Projet1 : Data Engineer /Technico-Fonctionnelle :
    Contexte : International carrière (IC) ,dans le cadre de la modernisation d’architecture du projet
    C2SO Data Warehouse MDM (Data management ) pour la génération de facture client d’orange
    d’entreprise
    Domaine d’Intervention :
    Dossier de compétences |
    4/10
    â—¼ Cadrage du projet avec les les métiers et chef du projet(spécifications techniques et
    Fonctionnelles)
    â—¼ Plannings, des budgets, des ressources avec les métiers
    â—¼ Recueille des besoins avec les métiers (fonctionnelle)
    â—¼ Build des différentes entités avec Togaf , power Designer( Conception d’architecture de service
    SOA )
    â—¼ Configuration de Sailpoint pour la sécurisation des identités des utilisateurs du projet et des
    documents ensuite analyse de la performance de l’entreprise et des évolutions sur un
    Dashboard.
    â—¼ Conception de la base de stockage objet AWS (S3 )
    â—¼ Extraction des Rows Data via Talend dans les différentes sources
    Marine, Diamond ….. (Données CRM), ensuite les Job talend sont développer .
    â—¼ Elles sont intégrer dans la bas de données objet AWS(S3)
    â—¼ Les Rows data sont Transformé avec Dataiku pour être intégrer dans la base de données Sql.
    â—¼ Conception de la base de données Sql Server pour le stockage des données tampon
    â—¼ Conception de Data Warehouse pour le modèle
    â—¼ Crée du Dashboard dans Power BI pour générer des rapports format web avec
    â—¼ pilotage, reporting, automatisation des tests, déploiements, gestion de la
    â—¼ Prod et des incidents .Power Bi service et d’autre format.
    â—¼ Récupérer les Row Data avec Dataiku dans la base de données objet Clickhouse pour la
    transformation (dans le flow où s’importe les dataSet pour la préparation avec les différents Lab)
    Après la transformation sont déposées dans la base de données Sql .
    â—¼ Dataiku Dss (conception de recette, analyse des diagrammes de Dashboard),
    â—¼ Créer le Dashboard sur power BI pour chiffrer les factures des clients, mensuel,
    Annuel

    Environnement Technique : BPMN , Talend , Dataiku Dss , SOA ,Colibra, ,Sailpoint (Sécurité d’identité cloud), filtres ,générer des rapports , Togaf, PowerDesigner,SQL Server,PowerDesigner, Tableau , PowerBI , DBT, Pack office , GCP (BigQuery),Hadoop , hbase , SnowflakeDB, Snowflake, Clickhouse, Azure Devops (Git, CI /CD)
  • Consultant Data Engineer

    CREDIT AGRICOLE (BANQUE ASSURANCE)
    Jan 2019 - Jan 2020

    Contexte :
    Projet : Migration des données de Datalake vers la nouvelle plateforme google Platform (GCP)
    BigQuery Cloud Storage .
    Domaine d’Intervention
    Dossier de compétences |
    6/10
    â—¼ Cadrage du projet sur les spécifications Techniques
    â—¼ Étude de l'existant
    â—¼ Modélisation des processus métiers (Workflows)
    â—¼ Rédaction des dossiers techniques (mapping des données)
    â—¼ Mise en place de l’application MOE (Technique)
    â—¼ Extraction avec Nifi des Rows data à partir des sources.
    â—¼ Création de session spark (python , Spark)
    â—¼ Déployés ses applications avec spark en production
    Dataflows ( kafka , Spark )
    â—¼ Extraction, traitement et exposition des données de l'Open Data
    â—¼ Production de KPI à destination des commerciaux
    â—¼ Gestion des chaines de batchs
    â—¼ Platform cloud data Databricks (pour Ingestion et automatisation)
    â—¼ Gestion des risque ( lutte contre des hackers)
    â—¼ ElasticSearch pour indexer , Chercher les données pour les Analyser
    â—¼ Gestion d’assurance IARD ( Incident , Accident , Risque , Divers ) et des sinistres
    â—¼ Scraping des bases de données SIRENE, OpenStreetMap, Banque de France &
    â—¼ INSEE
    â—¼ Présentation des résultats dans des tables Hive server Rédaction du manuel
    â—¼ utilisateur
    â—¼ Maintenance corrective et évolutive

    Environnement technique : GCP (BigQuery, Data Storage, DataFlow),RDD, Alteryx ,Hadoop,NIFI, HortonWorks, Cloudera (Hue), Python (Geopandas ), Scala(Intellij),ElasticSearch (ELK), Spark, Hive, Oozie, Cloud Azure (Datalab , data Box , Databricks Azure, Azcopy, ExpressRoute ) , synapse Analytic , Databricks , Snowflake, Tableau , Dataflows
  • Consultant data Engineer & Data Analyst

    CREDIT FONCIER (BANQUE ASSURANCE)
    Jan 2018 - Jan 2019

    Projet : Refonte du Système Décisionnel de la Banque et d'accompagner les métiers dans
    l'analyse des cas d'usages .
    Domaine d’Intervention
    Dossier de compétences |
    7/10
    â—¼ Modélisation du Data Warehouse (Entrepôt des données) Finance
    â—¼ Migration des rows data vers le Data Lake
    â—¼ Analyse Business des rows data migrer sur Data lake
    â—¼ Modélisation de la base de données Finance de marché & Compliance
    â—¼ Organisation & coordination des meetings
    â—¼ Rédaction des User stories, maintenir le Backlog
    â—¼ Modélisation des datamarts avec DBT pour faciliter et la qualité des données
    â—¼ Mettre des plans pour lutter contre les risques (Fraudes)
    â—¼ Automatisation des flux de données (CI /CD)
    â—¼ Mesurer votre Performance des données ESG à l’aide des KPI et Indicateurs
    â—¼ Génération des rapports ESG
    â—¼ Développement des flux d'intégration des données via SSIS
    â—¼ Reporting, création des tableaux de bords via Power BI & Tableau
    â—¼ Pour le traitement des données d’assurances avec SAS entreprise guide.
    â—¼ Paramétrage des options...

  • PROJET2 : Data Engineer Technique/Tech_Lead

    aujourd'hui

    -
    Contexte :
    Dossier de compétences |
    5/10
    Projet :Migration de la base de données Teradata à GCP (Big Query), Le projet Kenobi (Accort
    team) , avait pour objectif de migrer les données (télécom, banque) de la base de données
    Teradata vers Google cloud plateforme (GCP) et mettre en place un outil pour le retour des
    données dans Teradata pour permettre aux métiers de gérer les clients.
    Domaine d’Intervention :
    â—¼ Cadrage du projet et choix technologies
    â—¼ Réunion avec les métiers pour la spécification fonctionnelle et technique
    â—¼ Configuration de Sailpoint pour la sécurisation des données dans le cloud
    â—¼ Mise en place de pipeline de traitement avec BigQuery (Cloud Storage)
    â—¼ Création du projet Dev et Prod Sur bigQuery (cloud Storage )
    â—¼ Crée DataSet et tables pour stockage des nouvelles données
    â—¼ Mise en place du Pipeline de DataFlow (ApacheBeam pour exécuter les Jobs)
    â—¼ Extraction des données dans Teradata (DDL) .
    â—¼ Convertir les données de Teradata en Script_BigQuery
    â—¼ Préparer les dags (Airflow) dag extraction et dag Load ,
    â—¼ Avec apache Airflow les données sont transporter de Cloud Storage
    â—¼ Préparer le fichier Json (pour les tables)
    â—¼ Création des dags d'Extraction avec les tables ddl de Teradata
    â—¼ Copier les tables dans FireStore avec leurs paramètres
    Lancer le code python du dags d'extraction des données de Teradata
    Lancer dags load des données pour l’ingestion des Row data dans le cloud Storage
    â—¼ Vérification des logs en cas d'erreur de migration des données
    â—¼ Transfer des données fichiers Json vers gcp
    â—¼ Création des clusters kubernetes .
    â—¼ Mise en place du Pipeline de Jenkins
    â—¼ Analyser des rapports des données avec Dax (Power Bi) et Data Studio

    Environnement technique : GCP( DataFlow , Sailpoint ,Kubernetes , DataStudio, BigQuery , DBT( ETL pour la Qualité ,fiabilité des données dans cloud ), ConnecterKafka, Spark ,Hadoop, PowerShel, Cloud Storage, Firestore , Cloud Sql) , Putty, Python( Dataframe, Airflow),Fizilla ,Putty, Airflow ,SQL , base de données Teradata, Apache NIFI,CSV, Excel , Databricks ,Json , Docker( création d’image) ,Talend, confluence , JIRA, cloud Storage Devops ,Azure Devops (Git, Maven, Git, Jenkns,CI /CD), St
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Développeur wps, Missions Développeur wps, Développeur wps freelance

Les nouvelles missions de Développeur wps

Développeur WPS

WPS
ASAP
92
3 mois
Voir la mission

Développeur WPS

WebSphere Process Server
ASAP
69 - Lyon
3 mois
Voir la mission

Développeur WPS

WebSphere Process Server
ASAP
69 - Lyon
3 mois
Voir la mission

Développeur WPS (WEBSPHERE PORTAL SERVER)

WebSphere Process Server
ASAP
75 - Paris
17 mois
Voir la mission

Développeur SAS / SLC

SAS Shell Unix
ASAP
75 - Paris
6 mois
Voir la mission

Développeur WPF

SAS WPF
ASAP
35 - Rennes
16 jours ouvrés
Voir la mission

Développeur.NET/WPS

.NET WPS
ASAP
34 - Montpellier
3 mois
Voir la mission

Concepteur développeur Websphère WPS

WebSphere WebSphere Process Server
ASAP
92
12 mois
Voir la mission

Développeur WTS/WPS

WebSphere WebSphere Process Server
ASAP
21 - Dijon
3 mois
Voir la mission

Développeur confirmé .Net

.NET ASP.NET WPS SharePoint
ASAP
13080
1 mois
Voir la mission

Développeur JAVA/J2EE

Java J2EE
ASAP
69 - Lyon
3 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Développeur wps disponibles

CV Consultant SAS ALTAIR Analyste Quantitatif Senior Data Scientist BI
Julien

Consultant SAS ALTAIR Analyste Quantitatif Senior Data Scientist BI

  • VILLENEUVE-LE-ROI
SAS SAS Enterprise Guide ALTAIR
CV Machine Learning Engineer
Nelly

Machine Learning Engineer

  • PARIS
Python Docker SQL SAS CSS Google Cloud Platform HashiCorp Terraform Apache Kafka Apache Spark Github
Bientôt disponible
CV Chef de projet
André

Chef de projet

  • SAINT-NAZAIRE
Pacbase SQL COBOL II VB.NET JCL Mainframe Java Agile ITIL
Bientôt disponible
CV Data Analyst SAS ENTERPRISE GUIDE
Donald

Data Analyst SAS ENTERPRISE GUIDE

  • AULNAY SOUS BOIS
SAS Enterprise Guide SAS Python R SQL Scala
Disponible
CV Big Data Engineer & Mlops
Aina

Big Data Engineer & Mlops

  • CARRIÈRES-SOUS-POISSY
Data Big Data Python SQL PySpark Cloud AWS Google Cloud Platform Azure
Disponible
CV Architecte DEVOPS
Kamel

Architecte DEVOPS

  • MASSY
DevOps Ansible Git JBoss WebSphere Tomcat Apache Agile Red Hat OpenShift Kubernetes
CV Développeur JAVA sénior
Marc

Développeur JAVA sénior

  • BOULOGNE-BILLANCOURT
Java J2EE Maven Spring Docker Microservices Spring Boot CI/CD Kubernetes
CV Business Analyst, Data Analyst, Data Scientist, Enseignant IA
Mamadou

Business Analyst, Data Analyst, Data Scientist, Enseignant IA

  • Neuilly-sur-marne
SQL SAS Agile Excel MOA Shell Unix Adobe Campaign Python Microsoft Power BI Tableau Software
CV Consultant technique J2EE
Nacef

Consultant technique J2EE

  • PARIS
Jenkins JMeter Git Java GitLab Grafana Spring Boot CI/CD Red Hat Apache Kafka
CV Lead dev JAVA JAVASCRIPT
Robert

Lead dev JAVA JAVASCRIPT

  • Chelles
Java Spring Boot React.js Angular Cloud AWS JavaScript Spring Red Hat OpenShift Apache Kafka Enterprise Architect
Je trouve mon freelance