Missions EULERIAN : Postulez aux offres de mission publiées

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions EULERIAN à pourvoir

Consultant Genesys

Genesys SIP
ASAP
79 - NIORT
12 mois
Voir la mission

Lead support plateforme adobe aem et dam cloud f/h : adobe aem, adobe dam cloud

Adobe AEM Adobe Creative Cloud
ASAP
92 - ISSY-LES-MOULINEAUX
12 mois
Voir la mission

Développeur IBM UNICA

IBM Unica
ASAP
35 - RENNES
36 mois
Voir la mission

Expert GENESYS

Genesys
ASAP
75 - PARIS
10 mois
Voir la mission

Expert Genesys Cloud

Genesys
ASAP
75 - PARIS
3 mois
Voir la mission

Consultant sénior Genesys Cloud

Genesys MOA MOA (Maîtrise d'ouvrage)
ASAP
75 - Paris
3 mois
Voir la mission

Expert Python / Terraform – Projet AWS Connect

Python HashiCorp Terraform Cloud AWS Genesys
ASAP
75 - PARIS
24 mois
Voir la mission

Ingénieur Téléphonie & Centres de Contact – GENESYS

VoIP Genesys ToIP SIP
ASAP
79 - NIORT
86 mois
Voir la mission

Ingénieur Cloud AWS / DevOps (Python & Terraform)

Python Genesys HashiCorp Terraform DevOps Cloud AWS
ASAP
75 - PARIS
86 mois
Voir la mission

Expert Genesys Cloud

Genesys
ASAP
92 - Bois Colombe
3 mois
Voir la mission
Je trouve ma mission EULERIAN
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Tahar,
freelance EULERIAN habitant le Val-d'Oise (95)

Expérience professionnelle

Formation professionnelle
Septembre 2021 – Mars 2024
Data Master / Data Office
Managing master data, définition du design/architecture data et analyse d’impact « cross solutions & countries »
Analyse et exploration de données, identification du potentiel métier et proposition de solutions harmonisées
Documentation des processus/lineage data, rédaction des stories, test et validation de développements
Audit et certification de méthodes de calcul et identification des axes d’amélioration
Accompagnement et conseil sur la gouvernance et qualité de données, le storage/structures/modélisation, le data
cleaning/processing, usage data science
Environnement: Azure Blob storage, Azure Data Factory, SQL Server, SSIS, Power BI, Databricks, Python/Scala, Jira,
Confluence, Snowflake

Février 2021 – Septembre 2021
Data Architect / BI Senior Developer
Conseil et accompagnement sur un projet d’optimisation du dispositif de reporting de la banque répondant aux
exigences suivantes : 1-Totalement auditable, 2-Scalable, 3-Agile, 4-Résilient au changement, 5-Automatisé, 6-Garant
de la qualité de données
Conception, modélisation et mise en place d’un Data Warhouse avec l’approche méthodologique, fonctionnelle et
applicative de DataVault 2.0
Environnement: Oracle Database 12c & 19c + Oracle Flexcube (Core Banking System) + Microsoft SSIS + SAP PowerDesigner

Décembre 2020 – Janvier 2021
BI Senior Developer
Mise en place des flux d'alimentation, des règles de gestion/calcul de KPIs et reporting métier
Développement d'outil de reporting
Environnement: Azure Data Lake Analytics + Azure Data Factory + Azure Data Lake Storage + Microsoft PowerBI

Mars 2019 – Mai 2020
Big Data Architect / Big Data Senior Developer
Recueil du besoin et élaboration de la liste des exigences pour la mise en place d’un Datahub
Participation à la définition de l’architecture cible du DataHub et à la rédaction du dossier d’architecture et des
propositions d’évolution réseau et d’architecture du cluster
Définition des services transverses du DataHub et des bonnes pratiques pour la gestion d’un cluster mutualisé
Accompagnement et conseil pour les futurs projets du DataHub et initiation du programme d’acculturation Big Data
Développement Java spark et configuration/administration hadoop
Environnement: HDP + Teradata + Python + Spark + Java + Scala + Jenkins + Nexus + Gitlab + Shell + SonarQube + ArchiMate

Août 2018 – Février 2019
Big Data Senior Developer / Project Manager
Développement et mise en place d’une solution data gouvernance et conformité GDPR
Environnement: .NET + Microsoft SQL Server + Oracle + Db2 + Hortonworks + Cloudera + HDFS + NLP + Databricks

Avril 2018 – Juillet 2018
Freelance – Big Data Senior Developer
Migration des traitements d’audit IT de 5 ERP en SQL Server vers un environnement Big Data
Intégration de données issues des ERP dans des bases Impala et industrialisation de la phase ETL via SSIS
Adaptation et optimisation des traitements Data Analytics (SQL & T-SQL) en HQL et scripts C# en Big Data
Partage des bonnes pratiques Big Data : architecture, performance et optimisation en HQL, ordonnancement …
Environnement: AWS + Cloudera + HDFS + Impala + Microsoft SSIS + C# + Hadoop File System Task + ERPs

Octobre 2017 – Mars 2018
Freelance – Big Data Strategist / Consultant
Pilotage du projet Data Management (contexte & cluster Big data)
Mise en place et suivi de la roadmap du Lab Big Data
Partage des bonnes pratiques Big Data : industrialisation des process, architecture, ingestion de données, …
Environnement: Cloudera + HDFS + Hive/Impala + Oozie + Spark + R + Shell + Java

Mars 2017 – Octobre 2017
Freelance – Project Manager
Pilotage de la production d’une application dans le respect des délais, du budget et de la qualité attendue
Animation et coordination de l’équipe projet, les représentants métier et les prestataires
Validation des spécifications technico-fonctionnelle, modèle de données, méthodes de calcul et processing des
données ainsi que l’architecture technique
Application dédiée aux magasins pour le suivi de : la performance des actions commerciales, le comportement d’achat
des clients, l’efficacité du programme de fidélisation, la couverture réseau et des zones de chalandise
Environnement: IBM Netezza + SPSS + PostgreSQL + Microstrategy + Géomarketing

Mai 2016 – Mars 2017
Freelance – Big Data Project Manager
Définition des besoins métiers / Animation et coordination de l’équipe projet et les représentants métier
Planification et suivi du projet, en assurant le reporting auprès des instances de gouvernance
Interlocuteur privilégié du client interne et le garant des engagements
Pilotage des collaborateurs et prestataires sur du projet mené dans un contexte international (méthode agile Kanban)
Environnement: Cloudera + Spark + Hive/Impala + Kafka + Elasticsearch

Février 2010 – Avril 2016
Consultant Marketing / Coordinateur Big Data
EkiMetrics: Cabinet de conseil spécialisé en Data Science et stratégie marketing
1. Audit SI & valorisation des données :
Client :
Durée : 2 mois
o Audit du système d’information et identification des points forts et points faibles de la plateforme existante
o Définition de la stratégie et l’architecture cible ainsi que l’animation d’ateliers avec les différents utilisateurs
o Elaboration de plans d'action pour structurer et fiabiliser les données
o Proposition de roadmap d’exploitation opérationnelle des données auprès des responsables métiers
2. Data Lake & Data Management Platform :
Réconcilier l’ensemble des visions / Connecter des systèmes différents pour générer des analyses et visualiser le parcours client
/ Rationaliser la production des tableaux de bord
Client : (Ex ComprendreChoisir) – Site en Top 100 Nielsen des plus fortes audiences Internet
Durée : 10 mois
o Pilotage du projet et animation des comités de pilotage (méthode agile : Kanban et Scrum)
o Rapprocher les acteurs métiers de la donnée en leur permettant de comprendre et faire confiance aux données disponibles
et fournies par plusieurs acteurs impliqués dans ce projet
o Réaliser la phase d’immersion et les entretiens avec les métiers et l’équipe technique pour bien cadrer les besoins
o Validation des besoins et des méthodes de calcul (avant ces traitements étaient sous Excel)
o Rédaction des spécifications fonctionnelles utilisées comme référence unique partagées avec les différents acteurs
o Benchmark et choix de l’infrastructure matérielle et des technos :
- Choix de la distribution Hadoop (Hortonworks) et du matériel qui composera le cluster Big Data
- Sélection des composantes de l’écosystème Hadoop (Hive, Sqoop, Pig, Kerberos, Python) et assurer la durabilité dans le
temps face à la croissance continue du volume de données
o Modélisation du Datalake (schemaless et flocon de neige) et du Datamart de reporting (flocon de neige)
o Rédaction des spécifications techniques, partage des modèles et pilotage des échanges data avec les acteurs (certification,
politique et règles d’échanges)
o Suivi des avancements, gouvernance des données et remontée d’alertes
o Coordinateur des échanges entre notre équipe technique, le client et deux acteurs externes (plateforme de digital analytics
+ CRM & emailing broadcaster)
o Recette et validation des développements et calculs à déployer
o Développement avancé des requêtes HQL et analyse approfondie des résultats
o Optimisation des requêtes sous Hive en alternant entre le YARN et le MapReduce suivant la complexité de requête
o Utilisation de Sqoop pour acheminer les métriques et KPIs vers l’environnement de Reporting (PostgreSQL)
o Expliciter les règles de cleansing et de calcul en production et formaliser les processus et service « data » (stewardship,
helpdesk, ….)
o Industrialisation des traitements et processus
o Conception et création des rapports sous Tableau Software
Environnement: Hortonworks + HDFS + HUE + YARN +MapReduce + Hive + UDF HQL en Java + Scripting shell + Sqoop + Pig +
Kerberos + Python + Google AdSense + Google AdWords + AT Internet + Eulerian + PostgreSQL + Tableau Software
3. Data Lake & Data Management Platform :
Réconcilier l’ensemble des visions / Connecter des systèmes différents pour générer des analyses et visualiser le parcours client
/ Rationaliser la production des tableaux de bord
Client : Spécialiste dans l'isolation de l’habitat et la menuiserie sur-mesure
Durée : 8 mois
o Idem que le projet Datalake en dessus sauf que pour celui-là le cluster était hébergé et géré par le client
o Proposition des nouveaux sujets et missions pour accompagner le client dans sa digitalisation
o Optimisation de la performance digitale et quantification des ROIs avec des analyses implémentées dans l’écosystème
Hadoop
o Conception et création des rapports sous Tableau Software
o Conseil sur les choix des infrastructures et technos
o Benchmark sur les différentes solutions proposées sur le marché et études comparatives :
Quelle distribution Hadoop : Hortonworks vs Cloudera
Quel outil de Reporting : Tableau Software vs QlikView vs TIBCO Spotfire
Quelles données : Open Data (météo, sociodémographiques de l’INSEE) + Google AdWords
Environnement: Cloudera + HDFS + HUE + YARN + MapReduce + Hive + UDF HQL en Java + Sqoop + Pig + Google AdWords
+ Eulerian + Open Data + PostgreSQL + Tableau Software + Scripting shell
4. Big Data & Hadoop & NoSQL:
Evangélisation technologique pour le client (Think Big) / Test & Learn Expérimentations & Proof of Concepts / Identification des
leviers d’innovation et leurs valeurs ajoutées / Analyse agile
Client :
Durée : 18 mois
o Evangélisation technologique et déploiement des premiers PoCs et cas d’usage Big Data dans l’automobile
o Cadrage stratégique et accompagnement sur la mise en place de l’environnement Hadoop
o Import et analyse des gros volumes de données sur un cluster Hadoop
o Utilisati...

Voir le profil complet de ce freelance