Python, JIRA, Agile, Scrum, SEO, Web Analytics
Pour un grand compte dans le domaine de la grande distribution, dans un contexte anglophone.
Dans le cadre de l’accompagnement au changement.
Au sein de l’équipe SEO,
• Récupération des besoins clients,
• Rédaction des Users Story, suivi et interface avec les développeurs.
Pôle Conseils
Administration des différentes machines (Debian) : cluster elasticsearch, FTP, scripting python.
Réalisation d’un outil d’analyse de logs orienté SEO.
Points clés
• Référent Technique : architecture, orientation technique,
• Création d’un outil d’analyse de données,
• Création d’un outil de crawl de site Web,
• Fonctionnement en mode lean (agile).
Administration et maintenance d’un cluster (2 serveurs) elasticsearch.
Réalisation et évolution du mapping elasticsearch.
Backend
Traitement de données en python (2.7) :
• Pandas
• Injection dans elasticsearch,
• Création de tables d’agrégation et export dans MySQL.
Front End
• Réalisation d’un POC basé sur KIBANA
• Maintient et Mise à jour du Front end de reporting (logs) : php (code Igniter), JQuery.
• Création d’un front end de reporting (crawl) : python / Flask / vueJS
1 000 000 000 de lignes de logs stockées et analysées pour des clients tels que ********
Rue Du Commerce
********
Contexte : Développement d’un outil de data mining dédié au référencement naturel
Hadoop (Cloudera, Hive, SQOOP), Python, elasticsearch, Perl, Shell unix.
Réalisation d’un outil d’aide à la décision centralisant les données métier (SEO, Anaytics).
Maintenance de l’outils existant d’analyse de données (Perl et shell) puis migration vers python.
Fonctionnement en mode Agilie (scrum).
Point clés
• Référent technique SEO,
• Réalisation d’outils dédiés,
• Maintenance et amélioration des outils existants,
• Relation avec le métier – AMOA
Mission
• Référent technique - Réalisation d’un outil d’aide à la décision pour le SEO – data mining.
o Big Data
Hadoop (backend),
Elasticsearch (backend / frontend)
o 2 développeurs
• AMOA - Gestion et arbitrage des demandes entrantes liées au SEO au sein de la DSI,
• Développement - Outils
• Maintenance des outils internes (shell),
o outils de liens croisés
maintenance et amélioration,
• Création d’outils d’aide à la décision
Reporting basé sur les logs http (python),
Reporting basé sur l’API xiti (Qlikview),
• Stratégie
• Accompagner le métier dans ses choix sur les implications techniques.
Pôle Conseils
Développement d’un crawler orienté SEO
• Python (Backend)
• Elasticsearch (FrontEnd)
« Simule » le comportement de Googlebot et permet de ramener le contenu d’un site.
Pages Jaunes
Contexte : évolution de la stratégie de diffusion des contenus
Hadoop : Hive, SQOOP
Elasticsearch
Point clés
• Analyse du catalogue pour optimiser la diffusion des contenus
• Pilotage technique pour la mise en place des bonnes pratiques SEO,
• Réalisation d’outils dédiés (crosslink, analyse de logs),
• Analyse de données
Missions
• Data mining
o Analyse de données
o Big data :
o Hadoop hive : solution de traitement des logs
o POC :
Mahout : système de recommandation,
o POC – détection des pages ayant peu de valeurs :
Accompagnement du service search,
Analyse des requêtes utilisateurs,
• Mise en place des prérequis SEO
o URLs stables,
o outils/base de données de gestion des URLs pour Google
• Création de tableaux de bord
o analyse de logs
o crawl - pilotage du prestataire externe pour la réalisation d’un crawler dédié SEO
• outils de crosslink
o Recommandation et suivi pour la mise en place d'un outil permettant la création de liens optimisés entre les pages.
rédaction des EB,
pilotage de la DT,
• outils de validation du contenu - machine learning
o échange avec le service search et intégration des contraintes SEO
• accompagnement à la gestion de la donnée
o mise en place d’un datawarehouse
o récolte des données auprès des différents services
Évangélisation – relation avec les différents services
• service Search (moteur de l'annuaire),
• service technique (DT) pour le suivi de projet et la réalisation des EB
Accompagnement pour la refonte du site.
20 minutes
POC pour la création de pages Hub basées sur l'indexation des contenus, création et développement d’un outil basé sur mnogosearch.
Résonéo (interne)
Rôle transverse de support sur les aspects technique aux différents consultants.
Mise en place d'outils "agence" :
• Crawler – développement et suivi de l’utilisation,
• Outils de génération de contenu – pilotage du projet
Formations approche structurel
• Crawl,
• Analyse de logs
Gestion de projet
• Mise en place d’une solution de crosslink
Développement d’outils en Perl pour la génération de contenu.