Paul - Chef de projet PYTHON
Ref : 171212C002-
93 160 NOISY LE GRAND
-
Chef de projet, Développeur, Consultant technique (52 ans)
-
Freelance
SAPIENT / Publicis
Client final confidentiel Novembre 2017 à Mars 2018
Python, JIRA, Agile, Scrum, SEO, Web Analytics
Pour un grand compte dans le domaine de la grande distribution, dans un contexte anglophone.
Dans le cadre de l’accompagnement au changement.
Au sein de l’équipe SEO,
• Récupération des besoins clients,
• Rédaction des Users Story, suivi et interface avec les développeurs.
Pôle Conseils
kelo.gs Juillet 2015 à Octobre 2017
Python, Elasticsearch, Kibana,
Administration des différentes machines (Debian) : cluster elasticsearch, FTP, scripting python.
Réalisation d’un outil d’analyse de logs orienté SEO.
Points clés
• Référent Technique : architecture, orientation technique,
• Création d’un outil d’analyse de données,
• Création d’un outil de crawl de site Web,
• Fonctionnement en mode lean (agile).
Environnement technique
• Traitement de données en python sur debian.
• Stockage et calcul : Elasticsearch & MySQL
Elasticsearch
Administration et maintenance d’un cluster (2 serveurs) elasticsearch.
Réalisation et évolution du mapping elasticsearch.
Backend
Traitement de données en python (2.7) :
• Pandas
• Injection dans elasticsearch,
• Création de tables d’agrégation et export dans MySQL.
Front End
• Réalisation d’un POC basé sur KIBANA
• Maintient et Mise à jour du Front end de reporting (logs) : php (code Igniter), JQuery.
• Création d’un front end de reporting (crawl) : python / Flask / vueJS
1 000 000 000 de lignes de logs stockées et analysées pour des clients tels que ********
Rue Du Commerce
********
Groupe Altrarea Cogedim Mai 2014 à Juillet 2015
Contexte : Développement d’un outil de data mining dédié au référencement naturel
Hadoop (Cloudera, Hive, SQOOP), Python, elasticsearch, Perl, Shell unix.
Réalisation d’un outil d’aide à la décision centralisant les données métier (SEO, Anaytics).
Maintenance de l’outils existant d’analyse de données (Perl et shell) puis migration vers python.
Fonctionnement en mode Agilie (scrum).
Point clés
• Référent technique SEO,
• Réalisation d’outils dédiés,
• Maintenance et amélioration des outils existants,
• Relation avec le métier – AMOA
Environnement technique
• Hadoop cloudera CDH 5.4.2,
• Elasticsearch, kibana 4
• Shell, python 2.x, Debian
• Windows
Mission
• Référent technique - Réalisation d’un outil d’aide à la décision pour le SEO – data mining.
o Big Data
Hadoop (backend),
Elasticsearch (backend / frontend)
o 2 développeurs
• AMOA - Gestion et arbitrage des demandes entrantes liées au SEO au sein de la DSI,
• Développement - Outils
• Maintenance des outils internes (shell),
o outils de liens croisés
maintenance et amélioration,
• Création d’outils d’aide à la décision
Reporting basé sur les logs http (python),
Reporting basé sur l’API xiti (Qlikview),
• Stratégie
• Accompagner le métier dans ses choix sur les implications techniques.
Pôle Conseils
Janvier 2014 à décembre 2013
Développement d’un crawler orienté SEO
• Python (Backend)
• Elasticsearch (FrontEnd)
« Simule » le comportement de Googlebot et permet de ramener le contenu d’un site.
Pages Jaunes
********
Groupe SoLocal Mars 2012 à décembre 2013
Contexte : évolution de la stratégie de diffusion des contenus
Hadoop : Hive, SQOOP
Elasticsearch
Point clés
• Analyse du catalogue pour optimiser la diffusion des contenus
• Pilotage technique pour la mise en place des bonnes pratiques SEO,
• Réalisation d’outils dédiés (crosslink, analyse de logs),
• Analyse de données
Environnement technique
• Hadoop cloudera 3,
• Apache Mahout
• Elasticsearch, kibana 3
• Shell, perl, Debian
• Windows
Missions
• Data mining
o Analyse de données
o Big data :
o Hadoop hive : solution de traitement des logs
o POC :
Mahout : système de recommandation,
o POC – détection des pages ayant peu de valeurs :
Accompagnement du service search,
Analyse des requêtes utilisateurs,
• Mise en place des prérequis SEO
o URLs stables,
o outils/base de données de gestion des URLs pour Google
• Création de tableaux de bord
o analyse de logs
o crawl - pilotage du prestataire externe pour la réalisation d’un crawler dédié SEO
• outils de crosslink
o Recommandation et suivi pour la mise en place d'un outil permettant la création de liens optimisés entre les pages.
rédaction des EB,
pilotage de la DT,
• outils de validation du contenu - machine learning
o échange avec le service search et intégration des contraintes SEO
• accompagnement à la gestion de la donnée
o mise en place d’un datawarehouse
o récolte des données auprès des différents services
Évangélisation – relation avec les différents services
• service Search (moteur de l'annuaire),
• service technique (DT) pour le suivi de projet et la réalisation des EB
Résonéo Janvier 2009 à Février 2012
Point clés
• Responsable de l'expertise Technique,
********
Accompagnement pour la refonte du site.
20 minutes
POC pour la création de pages Hub basées sur l'indexation des contenus, création et développement d’un outil basé sur mnogosearch.
Résonéo (interne)
Rôle transverse de support sur les aspects technique aux différents consultants.
Mise en place d'outils "agence" :
• Crawler – développement et suivi de l’utilisation,
• Outils de génération de contenu – pilotage du projet
Formations approche structurel
• Crawl,
• Analyse de logs
@position 2007 à 2008
Point clés
Expert SEO Clients
Who's Who
• Gestion de projet
• Mise en place d’une solution de crosslink
SAOFE 2003 à 2007
Edition de sites
Génération de trafic basé sur le SEO
Développement d’outils en Perl pour la génération de contenu.
Formation
1997 - B.T.S.A. option agronomie tropicale
2013 - Lean startup – Ash Maurya,
2015 - Statistiques avec R - MOOC FUN
2015 - Apache Spark (Berkeley / databricks)
Compétences clés
Analyse de données
Hadoop hive ★★★
Elasticsearch ★★★★
MySQL ★★★★
QlikView ★★★★
SQL ★★★★
Apache Spark ★★
Programmation
Perl ★★★
Python ★★★★
PHP ★★★
SHELL ★★★
Systèmes d’exploitation
Unix (debian) ★★★★
Cloudera
Divers
SEO ★★★★
Analytics
Langues
Anglais Courant, Technique