Expérience professionnelle
Etixway - Octobre 2020 à Aujourd’hui Consultant Data / Python
Projet : SMILE : application CRM, pour la gestion relations clients
Mission : Développement d’un CRM business interne, qui a pour but d’aide l’équipe
commerciale. Il permet de gérer les appels d’offres reçu par l’entreprise, fournir une liste des
candidats à partir de notre base de données qui répondent le mieux aux besoins selon plusieurs
critères. Nous avons développé cette application dans un contexte devops autour des technos
suivantes : nodejs, angular mongoDB, python.
• Rédaction de l’expression de besoin
• Rédaction des spécifications fonctionnelles et techniques
• Développement de l’application en mode Agile et utilisation des chaines DevOps CI/CD
• Automatisation de l’extraction des données à partir des CVs
• Développement des APIs REST en python pour le CRM de l’entreprise
• Test et recette de l’application avec utilisation du produit Sélénium
• Mettre en place un environnement Dev/Prod
• Installer des VMs et de la chaine DevOps
Environnement technique : Python, Flask, MongoDB, VMWare 6.7, Redhat 7.0 ,F5, Docker,
AzureDevOPS, Gitlab, Jenkins , Confluence, méthodologie agile(Scrum), Ansible, Pfsense
OBEYA : Mars 2018 à Septembre 2020 : Développeur Python
Projet 1 : Construction de la base de données de contacts
Mission : Développement des scripts du web scraping pour extraire des informations liées aux
entreprises sur des sites web open. Donc dans ce cadre, j’ai développé des algorithmes en
python en utilisant des bibliothèques tel que beutifulsoup et selenuim pour construire la base
de données qui contient aujourd’hui à peu près 500.000 entreprises et 1 millions de contacts.
• Rédaction de l’expression de besoin
• Rédaction des spécifications fonctionnelles et techniques
• Développement de l’application en mode Agile et utilisation des chaines DevOps CI/CD
• Développement des algorithmes du web scraping pour extraire des données liées aux
entreprises tel que : adresses, téléphones, Sirets, chiffres d’affaires, Emails, actualités ...
• Développement d’un algorithme de génération automatique des Emails pour la base de
données OBEYA.
• Mettre en place une Base de données MongoDB
• Insertion, nettoyage et traitement d’une grande quantité de données.
Environnement technique : Python, Pandas, Sklearn, NLTK, Selenium, BeautifulSoup, MongoDB
Projet 2 : Développement d’un algorithme de classification automatique des données
Textuelles
Mission : Ce projet concerne les actualités collectées par du web scraping. J’ai développé un
algorithme pour collecter quotidiennement les actualités sur des sites open en se basant sur des
flux RSS. L’algorithme a été développé en python en utilisant la bibliothèque de machine
learning Sklearn pour catégoriser les actualités (Finance, digital, ressource humaine, expansion
immobilière, croissance commercial) :
• Filtrer les données.
• Implémentation et synthèse des méthodes de classification automatique des textes
(NLP)
• Exploration, pré-traitement, représentation et classification des textes
• Analyse des résultats et préparation d’un rapport de classification
Environnement technique : Python, Pandas, Sklearn, NLTK, Numpy, Matplotlib, DataScience
Laboratoire d’imagerie Biomédicale (UPMC Paris-France): Mars à Aout 2017
Ingénieur R&D et Innovation
Projet : Développement d’un algorithme en Python pour évaluer l ’impact du contrôle qualité
des données d’IRM sur la prédiction de la récupération des patients dans le coma.
Mission : Développement d’un algorithme en Python pour évaluer l ’impact du contrôle
qualité des données d’IRM sur la prédiction de la récupération des patients dans le coma.
• Traitement et préparation des données issues des IRMs des patients pour la
classification
• Classification des patients en deux classes (récupération du patient et non-récupération)
en se basant sur les données IRMs traités.
• Comparaison des résultats de classification avant et après le traitement des données.
Environnement technique : Python, Intelligence artificielle, classification, prédiction
Projets académiques
Projet 1 :
Modélisation des données avec SQL et NoSQL: Création des bases de données relationnelles/ non
relationnelles et des ETL pipelines avec PostgreSQL/ Apache Cassandra et Python
Environnement technique : Python, SQL, NoSQL, PostgreSQL, Apache Cassandra
Projet 2 :
Création de Data Lakes avec Apache Spark
Environnement technique : Data Lakes, Spark, AWS EMR, AWS S3, Python, SQL
Projet 3:
Analyse des données de ventes comparatives au fil du temps
Environnement technique : Power BI, langage DAX, Data Visualisation
Projet 4:
Intégration des données de crimes en France et création de rapports
Environnement technique : Tableau