Freelance Snowflake : Distinguez les savoir-faire qui vous manquent

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple des missions de Rafik,
freelance SNOWFLAKE résidant dans les Hauts-de-Seine (92)

Expérience professionnelle

Hermès - Senior Data Engineer - Depuis mai 2024
Contexte : La mission s’inscrit dans le contexte d’integration et de la migration des données Retail vers la
plateforme Data sur Snowflake.
Travaux réalisés
Intégration des données à temps réel vers Snowflake avec Snowpipe.
Modélisation des données en étoile.
Préparation et agrégation des données avec DBT pour alimenter les Datamarts (Business Views) sur
Snowflake.
Ordonnancement des jobs d'orchestration avec Opcon.
Gestion du code sur GitlabCI.
Planification et gestion des tâches techniques.
Référent technique et Superviseur des différents développements.
Revue de code, tests unitaires et tests de performance du service.
Livrables : code, documentation, revue de code.
Environnement technique
DBT, AWS, Snowflake, SQL, Python, GitlabCI.

Bonpoint - Senior Data Engineer - De janvier 2024 à mai 2024
Contexte : La mission s’inscrit dans le contexte de la migration des données vers le cloud en mettant en place une
plateforme Data sur Snowflake.
Travaux réalisés
Conception et Mise en place de la plateforme de données sur Snowflake.
Intégration des données à temps réel vers Snowflake avec Snowpipe.
Intégration des données Batch vers Snowflake avec des procédures Stockées.
Ordonnancement des jobs d'orchestration avec des tasks Snowflake.
Gestion du code sur Azure Devops.
Animer des ateliers avec le client pour définir les stratégies de stockage des données.
Planification et gestion des tâches techniques.
Référent technique et Superviseur des différents développements.
Revue de code, tests unitaires et tests de performance du service.
Livrables : code, documentation, revue de code.
Environnement technique
Python, Azure, Snowflake, Azure Devops, SQL, Git, SchemaChange.

Cegid - Senior Data Engineer - De janvier 2024 à février 2024
Contexte : La mission s’inscrit dans le contexte d'un concept of proof afin de migrer des données on premise vers
le Snowflake en mettant en place une plateforme Data.
Travaux réalisés
Mise en place d’une plateforme de données sur Snowflake.
Intégration des données depuis une API vers Snowflake avec Fivetran.
Référent technique et Superviseur des différents uses cases.
Livrables : code, documentation, revue de code.
Environnement technique
Snowflake, Fivetran, SQL, Python.

PUR - Senior Data Engineer/Architect - De avril 2023 à décembre 2023
Contexte : La mission s’inscrit dans le contexte de la gestion, le suivi et l'alimentation par lot (batch) de la
plateforme Big Data avec des données de plantations d’arbres.
Travaux réalisés
Collecte et insertion des données brutes issues des formulaires via une API, vers ADLS et PostgreSQL.
Analyse et correction des bugs.
Mise en place d’une plateforme de données sur Snowflake avec Terraform.
Intégration des données vers Snowflake avec Airbyte.
Gestion du code sur Github et Azure Devops.
Référent technique.
Revue de code, tests unitaires et tests de performance du service.
Livrables : code, documentation, revue de code.
Environnement technique
Python, Azure (ADLS, Azure Functions, PostgreSQL, Azure Devops), Snowflake, Airflow, Airbyte, SQL,
Github, Terraform, DBT.

UGC - Senior Data Engineer - De mars 2023 à avril 2023
Contexte : La mission s’inscrit dans le contexte de diagnostic et d’audit d’une nouvelle plateforme Data.
Travaux réalisés
Choix du modèle, qualité et monitoring des données.
Roadmap, développement agile et choix des solutions analytiques.
Livrables : documentation.

Clarins - Data Engineer - De novembre 2022 à février 2023
Contexte : La mission s'inscrit dans le contexte Move to Cloud des différentes données de l'entreprise issues des
systèmes sources (caisses, usines, logistique,..).
Travaux réalisés
Collecte et insertion des données brutes depuis ADLS vers Snowflake avec Databricks, Azure Data Factory
(ADF) et PySpark.
Modélisation des données en étoile.
Préparation et agrégation des données avec PySpark pour alimenter les Datamarts (Business Views) sur
Snowflake.
Planification des jobs avec ADF.
Intégration Continue de scripts avec Github et AzureDevops.
Revue de code, tests unitaires et tests de performance du service
Livrables : code, documentation, revue de code
Environnement technique
PySpark, Azure (ADLS, Azure DevOps, Databricks, ADF), Github, Snowflake, SQL.

Aware by Les Mousquetaires - Data Engineer - De août 2022 à novembre 2022
Contexte : La mission s'inscrit dans le contexte de suivi de la qualité de données sources issues de tickets de
caisses, afin de faire des statistiques et alertes sur les données reçues, manquantes et conformes aux règles de
gestion métier.
Travaux réalisés
Collecte des données statistiques brutes depuis ADLS avec Python.
Développement des règles de gestion métier avec Python (Pandas).
Mise en place des Dashboards pour le monitoring des données avec Streamlit.
Revue de code, tests unitaires et tests de performance du service.
Document applicatifs nécessaires au transfert de connaissances de l'entité et en dehors de l'entité.
Livrables : code, documentation, revue de code.
Environnement technique
Python (Pandas, NumPy), PySpark, Azure (Databricks, ADLS, Azure DevOps, ADF), Streamlit.

Groupama - Data Engineer - De novembre 2020 à juin 2022
Contexte 1 : La mission s'inscrit dans le contexte de l'intégration et le traitement des données multi risques (à temps
réel) dans les datamarts afin de créer et suivre les KPI des métiers.
Travaux réalisés
Collecte des données brutes depuis des Topics Kafka avec Scala.
Traitement et raffinage des données en temps réel dans des topics Kafka avec Spark Streaming(Scala).
Préparation et agrégation des données pour alimenter les Datamarts (Business Views) sur Oracle.
Tests technico fonctionnels de validation des traitements.
Intégration Continue de scripts avec GitLab-CI.
Planification des jobs sur Mesos.
Revue de code, tests unitaires et tests de performance du service
Mise en production du service
Document applicatifs nécessaires au transfert de connaissances de l'entité et en dehors de l'entité.
Livrables : code, documentation, revue de code
Environnement technique
Spark Scala, Kafka, Spark streaming, Mesos, MongoDB (NoSQL), GitLab-CI, Oracle SQL Developer.

Contexte 2 : La mission s'inscrit dans l'intégration et le traitement des données assurances vie (par lots) dans le
datalake central et datamarts des équipes métiers, afin de créer et suivre les KPI des métiers.
Travaux réalisés
Collecte des données brutes depuis des Topics Kafka.
Traitement et raffinage des données par lot dans Hive avec Scala.
Préparation et agrégation des données pour alimenter les Datamarts (Business Views) sur Oracle.
Tests technico fonctionnels de validation des traitements.
Migration des jobs depuis Hadoop vers Mesos.
Revue de code, tests unitaires et tests de performance du service
Mise en production du service
Documents applicatifs nécessaires au transfert de connaissances de l'entité et en dehors de l'entité.
Livrables : code, documentation, revue de code
Environnement technique
Spark Scala, Cloudera, Kafka, Mesos, Hive, Oozie, GitLab, Oracle, SQL Developer.

Micropole - Data Engineer - De avril 2019 à octobre 2020
Contexte 1 : La mission s'inscrit dans l'objectif d'intégrer et de traiter les données iot issues des captations de
sarments (vignes).
Travaux réalisés
Collecte des données brutes depuis des Topics Kafka.
Alimentation des tables Hive avec PySpark.
Modélisation des données en étoile.
Création de Workflows planifiés avec Oozie.
Création d'une API avec Flask.
Intégration Continue de scripts avec Jenkins et Github.
Visualisation des données avec PowerBI.
Livrables : code, documentation
Environnement technique
PySpark, PowerBI, Cloudera, Hive, Flask, Kafka, Oozie, Jenkins, GitHub.

Contexte 2 : La mission s'inscrit dans le contexte de Proof of Concept (POC), pour la migration d'une architecture
big data depuis Hadoop vers AWS.
Travaux réalisés
Ingestion, compression sous format parquet et stockage des données brutes vers le datalake S3, en utilisant
Kinesis et Lambda.
Mise en place de Jobs Glue en utilisant PySpark.
Analyse et requêtage des données du Glue Data Catalog avec Athena.
Déploiement et gestion des ressources AWS avec CloudFormation.
Mise en place d'un environnement local de test des jobs Glue sous Docker.
Monitoring de la stack avec CloudWatch.
Livrables : code, documentation
Environnement technique
AWS (S3, Glue, Athena, Lambda), Python, PySpark, Node.js, Docker

Verisure - Data Analyst - De juillet 2018 à mars 2019
Contexte : La mission s'inscrit dans le contexte de la qualité, performance et de l'amélioration continue des données
de l'entreprise issues de l'activité de l'entreprise (systèmes d'alarmes, maintenances, facturation, clients, etc...)
Travaux réalisés
Réalisation et production des tableaux de bord pour les équipes métiers.
Analyses fouillées de données des rapports pour la qualité de données.
Création et alimentation d'une base de données avec les données extraites des différentes applications pour
mettre à jour les KPIs.
Amélioration et automatisation des processus de production des reportings.
Livrables : code, documentation, revue de code
Environnement technique
SAP Business Object, SQL Server, Suite Office, WinAutomation.

Les derniers freelances Snowflake

CV Cheffe de Projet AMOA
Florence Liliane

Cheffe de Projet AMOA

  • MORSANG-SUR-ORGE
Jira Agile SQL Power BI Snowflake Xray Katalon Alteryx
Disponible
CV Data Engineer Java
Mahdi

Data Engineer Java

  • CRÉTEIL
Java SQL Talend
Disponible
CV Directeur de projet Data & IA
Mohamad

Directeur de projet Data & IA

  • JOUY-LE-MOUTIER
Data Agile Gestion d'équipe Cloudera Cloud AWS
Disponible
CV Data Engineer Power BI
Kang

Data Engineer Power BI

  • VINCENNES
Power BI SQL Python Data Apache Spark BigQuery Google Cloud Platform PySpark Pandas
Disponible
CV Data Engineer SQL
Adrien

Data Engineer SQL

  • VALERGUES
SQL Snowflake Informatica SSIS Microsoft Power BI
CV Architecte d'entreprise
Yassine

Architecte d'entreprise

  • CROISSY-SUR-SEINE
Data TOGAF Enterprise Architect Stratégie d'entreprise ArchiMate
Disponible
CV Data Analyst Python
Omar

Data Analyst Python

  • COURBEVOIE
Python Microsoft Power BI SQL Salesforce
Disponible
CV Data Engineer SQL
Dian

Data Engineer SQL

  • SAINT-ÉTIENNE
SQL Talend Snowflake Dataiku Qlik Sense Cognos BI Oracle MySQL Power BI Salesforce Modélisation de Langage Python
Disponible
CV Consultant IA LLM
Henri

Consultant IA LLM

  • PARIS
LLM Python Cloud AWS Azure Deep Learning
Disponible
CV Architecte solution SQL
David

Architecte solution SQL

  • MONTPELLIER
SQL SQL Server Enterprise Architect .NET Data API RESTful Github OLAP PostgreSQL Snowflake MongoDB Azure Airflow MLflow Python Docker Kubernetes CI/CD JavaScript Cloud AWS
Disponible
Je trouve mon freelance Snowflake

Les nouvelles missions Snowflake

Expert en IA & Data Science

Python Cloud AWS RGPD PySpark TensorFlow
01/06/2026
75 - PARIS
3 mois
Voir la mission

Business Analyst

Snowflake
ASAP
Télétravail
6 mois
Voir la mission

Test Lead DATA

Data
ASAP
93 - SAINT-DENIS
12 mois
Voir la mission

Consultant – Data Monetization & Snowflake Pricing Strategy

Gestion multi-projets
ASAP
92 - COURBEVOIE
1 mois
Voir la mission

Product owner Data

Oracle Agile Snowflake Azure Data Factory Power BI
ASAP
44 - NANTES
6 mois
Voir la mission

Team Leader Data engineering

Python Talend Apache Spark Snowflake Power BI
ASAP
33 - BORDEAUX
12 mois
Voir la mission

Chef de Projet Intégration Systèmes – SAP S/4 / Salesforce

Salesforce MuleSoft Anypoint Platform SAP S/4HANA
ASAP
75 - PARIS
6 mois
Voir la mission

Consultant Data Snowflake DBT confirmé

SQL Data Snowflake
ASAP
95 - GONESSE
6 mois
Voir la mission

Data Scientist Machine Learning

IA Générative LLM Python
ASAP
59 - Croix
9 mois
Voir la mission

Data Engineer

Snowflake
ASAP
33 - Bordeaux
A définir
Voir la mission
Je trouve ma mission Snowflake

Les freelances maîtrisant Snowflake ont postulé à :

LLM Engineer / AI Engineer – IA Générative & Agents

Python Azure Cloud AWS Google Cloud Platform LLM
ASAP
75 - PARIS
6 mois
Voir la mission

Data Analyst Tableau / Power BI

Tableau Power BI
ASAP
92 - LA GARENNE-COLOMBES
9 mois
Voir la mission

Data Analyst

SQL Python Dataviz PySpark Power BI
ASAP
33 - BORDEAUX
12 mois
Voir la mission

Data analyst Tableau Software - Secteur automobile

Microsoft Power BI Power BI Gestion multi-projets
ASAP
75 - PARIS
12 mois
Voir la mission

Sr. Data Platform Engineer

SQL Python Google Cloud Platform BigQuery Airflow
ASAP
75 - PARIS
12 mois
Voir la mission

Consultant Décisionnel /BI

SAP Oracle BI Power BI
ASAP
75 - PARIS
12 mois
Voir la mission

BI Analyst – Power BI - Bruxelles

SQL Power BI
ASAP
Bruxelles (Belgique)
12 mois
Voir la mission

Mécénat de compétences

Microsoft Power BI Power BI
ASAP
Télétravail
1 mois
Voir la mission

DATA ANALYST SENIOR H/F - RENNES

SQL SQL Server Data Microsoft Power BI
ASAP
35 - RENNES
3 mois
Voir la mission

Consultant Power BI

Power BI
ASAP
75 - PARIS
6 mois
Voir la mission
Je trouve ma mission Snowflake