CV/Mission de Développeur Python pandas freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Marc,
Développeur Python pandas habitant l'Indre-et-Loire (37)

EXPERIENCE PROFESSIONNELLE

01/01 – 07/22 Decid BI
ETL Apache Hop (top level project), python, openstreetmap,opendata, gitlab
• Développement de flux avec Hop pour normaliser des adresses (norme postale, géolocalisation)
• Installation d’Addok, un outil opensource pour faire du geocodage utilisant redis pour stocker les données en RAM. Requêtage en python et intégration dans l’ETL Hop.
• Requêtes sur openstreetmap pour rechercher les modifications de nom de rues en France.
• Installation de gitlab et utilisation pour le versionning du code.

09/19 – 12/21 Decid BI
Architecture système informatique, Sécurité, Ansible, Proxmox, serveurs physiques.
• Réalisation de graphiques avec Bokeh en python sur des données stockées dans ElasticSearch alimenté par l’ETL Hop (kettle)
• Installation serveur Proxmox (virtualisation) sur le réseau local et sur un serveur dédié (SoYouStart-OVH). Création de VMs Debian11. Mise en place de serveurs web et de reverse proxies (nginx) avec le web application firewall ModSecurity.
• Conception et mise en place d’un réseau avec plusieurs services : sauvegarde, monitoring, serveur de paquets Debian, centralisation des logs : transfert sécurisé en temp réel de fichiers,…
• Sécurisation du réseau avec des firewall,DMZ, sous-réseaux dédiés, VPN. Suivi des évènements de sécurité en temps réel avec Wazuh et elasticsearch pour les serveurs locaux et distants.
• Installation des services par des rôles Ansible.
• Création d’une salle serveurs : rédaction des spécifications des différentes composantes : climatisation, alimentation et régulation électrique, ventilation, monitoring environnemental, monitoring informatique. Recherche de fournisseurs et mise en œuvre.
05/18 – 07/19 Decid BI
Confluent plateform Kafka, Zookeeper, Debian 9, Prometheus, ESXi6.0 (6 mois)
Objectif : assurer la centralisation des logs et des métriques de plusieurs serveurs sur un cluster Kafka.
• Installation, configuration d’un cluster kafka sur 3 machines physiques et 8 machines virtuelles (dont 3 kafka, 3 zookeeper). Opérations de maintenance sur ce cluster.
• Configuration d’un serveur de logs avec Rsyslog. Envoi des logs dans un topic Kafka.
• Utilisation de Kafka Connect pour extraire les données d’une base MySQL
• Installation d’un serveur Prometheus et d’exporters pour collecter les métriques des JVM, des machines physiques, des tests de disponibilité des serveurs.
• Développement de tableaux de bord Grafana
o Projet sur l’utilisation du machine learning pour la prévision de cours de bourse. Traitement de cours collectés sur l’API IG avec les outils python pandas et scikit-learn. Analyse exploratoire, utilisation de méthodes supervisées, tests, recherche d’amélioration des performances. (3 mois)
o Projet Spark : Présentation sur le rôle de Spark dans les architectures Big Data Lambda et Kappa et focus sur le stockage des données. (2 mois)
o Projet Analyse de Données Open Data sur les communes de la Région Centre: Recueil des données opendata (avec l’ETL Kettle), redressement échantillon, réduction du nombre de variables, classification par Analyse en Composante Principale (avec le logiciel SPAD), interprétation. (1 mois)
12/16 – 04/18 Banque Dexia La Défense 16 mois
Business Objects Data Services, Oracle, BO Designer,TWS, Fermat-Ray, Enablon
Objectif : avec une équipe de 3 personnes, assurer le chargement correct et la disponibilité des datamarts risque de crédit et risques opérationnels à plus de 180 utilisateurs.
Contexte : Source des données : Fermat-Ray et Enablon. Turn-over élevé. Exigeances fortes des utilisateurs. Forte volumétrie. Documentation obsolète.
BODS : cartographie des jobs, analyse d’erreurs, développement.
Organisation et animation de la réunion hebdomadaire avec les utilisateurs.
Suivi des projets. Reverse engineering, rétro documentation.
Gestion des impacts de plusieurs incidents majeurs
Suivi de la production : organisation du processus selon ITIL. Enrichissement d’une base de connaissances
Relation (mail, video conférence, téléphone) avec le prestataire polonais hébergeur des données.
Participation au transfert de compétences vers l’équipe indienne suite à l’externalisation du service

12/13 – 03/16 Dassault Systèmes 27 mois
Business Objects Data Services, Oracle,Siebel, Neolane,Jira, Exalead, Confluence
Contexte : traitement des données de Neolane (Adobe Campaign) , de Siebel On Demand pour présenter la contribution du marketing au funnel (taux de transformation des contacts marketing en ventes).
Définition du process d’ETL. Définition de l’architecture en couches spécialisées pour faciliter la modularité, la fiabilité, la maintenabilité, l’efficacité, l’extensibilité.
Modélisation dimensionnelle.
Création code Neolane (javascript) pour extraire quotidiennement les données du cloud dans des fichiers csv ou xml.
Développement des jobs bods pour charger le datamart marketing à partir des fichiers et de tables contenant des données.
Tests des résultats.
Livraison des développements en production : utilisation du référentiel central de BODS.
Interrogation de Siebel on Demand pour rapprochements de données avec données internes.
Configuration de widgets (technologie interne) basés sur des webservices BO ou sur Exalead pour exposer les données sur l’intranet.
Participation à des projets visant à améliorer l’environnement BI : monitoring de serveurs, promotion de code, documentation, analyse du repository BODS, migration de schéma oracle…

02/13 – 06/13 Decid Bi 5 mois
Pentaho Data Integration (Kettle), Postgresql 9
Contexte : traitement des avis d’opéré sur le marché des CFD Forex et Indices pour leur comptabilisation.
Traitement de données contenues dans des mails, des fichiers csv et excel par des flux Kettle et enregistrement dans un datamart sur Posgresql.
Mise en place de Subversion (SVN) et Jenkins pour le versionning et l’intégration continue

08/11 – 10/12 Véolia 14 mois
Business Objects Data Services (BODS), Oracle , CC&B
Contexte : migration d’une application MVS vers l’ERP CC&B d’Oracle (Customer Care and Billing)
Au sein d’une équipe d’une trentaine de personnes :
• Réalisation de flux BODS
• Analyses et corrections d’anomalies.
• Scripting (python, shell, BODS) pour automatiser les étapes d’une migration partielle de la source vers la cible : enchaînement de script sql, transfert d’objets BODS d’un référentiel à un autre, lancement de jobs…successivement et indifférement sur des environnements linux et windows.
• Optimisation, restructuration de flux pour répondre aux contraintes de performances.

02/11 - 07/11 GFI (après rachat d’Ares) 5 mois
Plate-forme Pentaho et ETL open-source : Talend, Kettle
Talend: vérification de l’adéquation de l’ETL aux exigences d’un client: gestion des contextes, gestion des Blobs, configuration d’un projet, utilisation de java, monitoring des jobs… Utilisation des composants les plus courants.
Pentaho: Installation complète d’une plate-forme Pentaho CE sur linux Ubuntu server (machine virtuelle VMWare sur VMWare Server 2.0).Mise en œuvre des principaux concepts d’un datawarehouse: dimensions, faits, hiérarchies… sur une application de suivi de consommation électrique et de température (1 mois)

04/09 - 02/11 ARES – client : filiale informatique d’un groupe 22 mois
Business objects Data Services (BO Data Integrator), Universe designer, Webi, Oracle 10g
Dans un groupe de 2400 personnes du secteur du bâtiment, plusieurs sociétés, 60 agences.
Développement d’un datawarehouse pour faire des analyses par structures opérationnelles (agence …) ou fonctionnelles (réseaux), par salarié, par période pour les domaines suivants :

 Devis : gestion du portefeuille de devis. Evolution du portefeuille entre 2 dates : taux de réussite, qualification du portefeuille. Historique d’un devis.

 Salariés : historique de l’évolution d’un salarié selon son salaire, son statut, son ancienneté. Intégration des données à partir d’un annuaire interne et du progiciel de paie Arcole basé sur Oracle.

 Organisation en réseaux du groupe (matricielle): présentation des indicateurs commerciaux et budgetaires selon une hiérarchie opérationnelle ou fonctionnelle.

 Gestion de parc : reporting sur la gestion de parc véhicules, informatiques, téléphoniques et outillage. Incorporation des fichiers Orange et Total dans le datawarehouse et création d’indicateurs sur la consommation par véhicule, par personne, par agence, par société. Suivi de la réservation des biens.

Mise en place d’une organisation pour maîtriser le développement et l’administration du datawarehouse
 Rédaction de spécifications détaillées et des tests
 Analyse et modélisation en étoile des processus de gestion : dimensions historisées (SCD2), hiérarchies.
 Documentation des jobs d’intégration Data Integrator: vue d’ensemble et vue détaillée
 Documentation des états. Développement d’états intermédiaires pour auto-contrôle par les utilisateurs.
 Création et respect de procédures pour développer le datawarehouse, tester, recetter, mettre en production
 Modification et développement de la structure de la base de données du datawarehouse
 Réorganisation des univers et états existants.

10/08 – 03/09 ARES 7 mois
Avant-Vente:
 Participation à la réalisation d’offres de prix.
 Réalisation de maquettes de présentation avec BODS, BO xi3.1, Talend,

Excel 2007 :
Refonte d’une application de gestion prévisionnelle de l’occupation des collaborateurs (1500 lignes de code) :
Destinée aux responsables de service et directeurs de projets : amélioration de l’interface de saisie, fiabilisation du calcul d’indicateurs, multiplication des possibilités de tri …
Suivi des indicateurs des filiales étrangères d’une banque :
Environnement: JasperReport...

Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Développeur Python pandas, Missions Développeur Python pandas, Développeur Python pandas freelance

Les nouvelles missions de Développeur Python pandas

Developpeur Full Stack Python & React

SQL PYTHON REACT.JS
ASAP
Paris / 92 et Télé travail
6 mois
Voir la mission

Développeur PYTHON Webscraping

PYTHON SELENIUM Google Cloud Platform
ASAP
75 - Paris
3 mois
Voir la mission

Développeur PYTHON

PYTHON PANDAS
ASAP
75 - Paris
6 mois
Voir la mission

Développeur Python Senior

PYTHON
ASAP
92 - Puteaux
2 mois
Voir la mission

Développeur Python

PYTHON Jupyter
ASAP
75 - Paris
3 mois
Voir la mission
Je trouve ma mission

Les profils de Développeur Python pandas ont postulé à :

Data analyst

SQL Google Cloud Platform BIGQUERY TABLEAU SOFTWARE Qlik
ASAP
91 - MASSY
12 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Tech Lead (AWS)

SQL PYTHON Cloud AWS PYSPARK
ASAP
75 - PARIS
12 mois
Voir la mission

Tech Lead - Dev full stack dominante back end

PYTHON XFB GATEWAY Angular Pure Storage GO
ASAP
93 - AUBERVILLIERS
3 mois
Voir la mission

ANALYTICS ENGINEER

SQL PYTHON
ASAP
92 - BOULOGNE-BILLANCOURT
130 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Développeur PYTHON ANGULAR

PYTHON Angular ANGULARJS
ASAP
75 - PARIS
3 mois
Voir la mission

Développeur PYTHON AWS

POSTGRES PYTHON Cloud AWS
ASAP
92 - COURBEVOIE
3 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Analyste programmeur python

SQL PYTHON
ASAP
95 - ENNERY
1 mois
Voir la mission
Je trouve ma mission

Les derniers CV de Développeur Python pandas disponibles

CV Développeur Fullstack Java/ Spring boot / React
Guy

Développeur Fullstack Java/ Spring boot / React

  • VILLENEUVE-LE-ROI
JAVA PYTHON TypeScript SQL Spring Boot PYSPARK REACT.JS Kubernetes DOCKER AZURE
CV Data Scientist - Machine Learning Engineer
Alexandre

Data Scientist - Machine Learning Engineer

  • PARIS
PYTHON DATA Data science PANDAS JAVASCRIPT CI/CD BIG DATA Google Cloud Platform AMAZON AWS
CV Data engineer
Elyes

Data engineer

  • VILLEURBANNE
PYSPARK AZURE PYTHON BIG DATA DATA SQL
CV Data Analyst PYTHON
Ahed

Data Analyst PYTHON

  • SAINT-OMER
PYTHON BIG DATA JAVA MATLAB IMAGE GPU AUTOMATE IntelliJ IDEA MYSQL CISCO
CV DevOps - SRE - DBA SQL SERVER - MLOPS - Data Scientist
Christophe

DevOps - SRE - DBA SQL SERVER - MLOPS - Data Scientist

  • PARIS
SQL SERVER MYSQL MARIADB SQL SERVER INTEGRATION SERVICES SQL SERVER REPORTING SERVICES DEVOPS API RESTful PYTHON JAVA CORE Data science
CV Data Scientist Data science
Adam

Data Scientist Data science

  • MARSEILLE
Data science PYTHON PANDAS DATAVIZ BIG DATA SQL LINUX ELK C++ Cloud AWS
CV Ingénieur de développement JAVA J2EE PYTHON
Kai

Ingénieur de développement JAVA J2EE PYTHON

  • SAINT-JEAN-SUR-MAYENNE
JAVA J2EE PYTHON C++
Bientôt disponible
CV Ingénieur de Test
Jamel

Ingénieur de Test

  • PARIS
ARM
Bientôt disponible
CV Développeur Backend Python - Ruby
Sébastien

Développeur Backend Python - Ruby

  • AIX-EN-PROVENCE
PYTHON RUBY RUBY ON RAILS JAVASCRIPT REACT.JS DATA TypeScript NODE.JS
Bientôt disponible
CV Ingénieur de développement JAVA
Ayoub

Ingénieur de développement JAVA

  • LYON
JAVA J2EE Angular Kubernetes APACHE KAFKA Spring Boot DOCKER CI/CD
Bientôt disponible
Je trouve mon freelance