Freelances Conceptualisation des données : Découvrez les meilleurs CV

Je dépose une mission gratuitement
Je dépose mon CV

Qu’est-ce que OLAP ?

OLAP (Online Analytical Processing) est une application informatique qui est utile au traitement de grandes quantités de données. C’est un logiciel de traitement analytique qui donne à l’utilisateur, la largesse d’analyser les données générées sous des perspectives multiples.

Implanté dans le système informatique de l’entreprise, il modélise les données et permet d’effectuer toutes sortes de calculs complexes. En d’autres termes, la même donnée peut être traitée sous différents axes afin d’obtenir les résultats dont l’utilisateur a besoin.

Cette solution de stockage fait partie des outils d’aides à la décision. Le stockage des données qu’il collecte se fait sur une base multidimensionnelle appelée Cubes-OLAP. Le cube est un tableau multidimensionnel de données. Les informations y sont pré-résumées.

L’utilisateur peut ainsi traiter un nombre important de données, sans que cela n’affecte le temps de réponse qui est pour dire, instantané. L’organisation et la comparaison des données nécessitent en revanche, l’utilisation d’un serveur.

Qu’est-ce qu’un DataWarehouse ?

Le datawarehouse (DWH) est une base de données qui assure la collecte et le stockage des informations issues des bases de données opérationnelles. Son rôle est de collecter l’ensemble des données de l’entreprise à des fins analytiques.

Il les analyse en vue d’une amélioration qualitative et quantitative des performances de l’entreprise. En effet, conçu pour les activités de Business Intelligence, le data warehouse fournit à l’aide à la décision, un socle.

Son mode de fonctionnement est simple. Il stocke historiquement les informations, donnant ainsi à l’utilisateur un accès aux transactions qui ont eu lieu au fil du temps.

La solution data warehouse intègre un outil de transport, d’extraction, de chargement et de transformation des données. Elle comprend aussi un logiciel de traitement analytique, des outils de traitement de données et des outils d’analyse clients.

Dans un Data Warehouse, les informations sont structurées et classées par thème. Le stockage des données est fait sur le long terme, et à chaque nouvelle transaction, une mise à jour s’effectue.

Qu’est-ce que DWH DTM ?

DWH DTM signifie Data warehouse Datamart. Le Data mart est un sous-ensemble du Data warehouse.

Il complète le data warehouse. Le data warehouse est l’entrepôt de données et les data mart sont l’ensemble des comptoirs qui forme cet entrepôt.

Qu’est-ce qu’un DataMart ?

Sous-ensemble du data warehouse, le data mart (DTM) organise les données selon des usages précis. Appelé aussi magasin de données ou comptoir de données, il fournit aux utilisateurs, des données spécialisées appartenant à une catégorie bien définie. C’est une version simple du DWH.

À l’inverse du DWH qui traite les données de manière généraliste, le DTM, lui, se concentre sur une seule fonction. Il permet ainsi de répondre à des demandes spécifiques. Il ne conserve que les données qui sont utiles à l'utilisateur. Il les présente de manière agrégée, regroupée et organisée.

C'est un logiciel de stockage qui a une architecture structurée. L’exploitation de sa base de données permet de répondre à des requêtes simples. Les utilisateurs obtiennent à leurs préoccupations, des réponses ciblées, ce qui offre un gain de temps considérable à l’entreprise.

Il a pour ainsi dire, une approche spécialisée de la gestion des données. En son sein, les données sont historiées et donc non volatiles.

Qu’est-ce qu’un Data Lake ?

Référentiel de stockage, le data lake (lac de données) permet de stocker une très large quantité de données venant de diverses sources. Il conserve ces données sous leur format brut, jusqu’à ce qu’elles soient nécessaires.

Sa particularité, c’est qu’il est capable de stocker toutes sortes de données, qu’elles soient structurées, non structurées ou semi-structurées. Autrement dit, tous les types de données générées par l’entreprise peuvent être stockés dans un lac de données, en vue d’une utilisation ultérieure.

Le lac de données crée un schéma structuré entre les différentes données. Aucune n’est filtrée, ni supprimée. Elles ne sont ni hiérarchisées, ni organisées.

Lorsqu’il les importe, il les associe à des balises métadonnées et des indicateurs en vue de faciliter leur récupération. C’est une solution de stockage qui est idéale pour les entreprises qui veulent conserver un grand nombre de données.

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Les nouveaux profils conceptualisation des données

CV Consultante QA Technico fonctionnel pega
Salima

Consultante QA Technico fonctionnel pega

  • FONTENAY-SOUS-BOIS
Jira HP ALM Confluence Pega Postman JSON Xray Kafka XML SQL
Bientôt disponible
CV Senior Data Analyst & BI Consultant
Abdellahi

Senior Data Analyst & BI Consultant

  • PANTIN
Data SQL Selligent Microsoft Power BI Python Agile Tableau Software QlikView Dataiku Snowflake
Bientôt disponible
CV Lead Data Scientist - Marketing Mix Modeling & Causal Inference
Faycal

Lead Data Scientist - Marketing Mix Modeling & Causal Inference

  • LA MADRAGUE
Python R SQL Google Cloud Platform Databricks Snowflake Microsoft BI Tableau
Disponible
CV Data Engineer
Yan

Data Engineer

  • NEUILLY-SUR-MARNE
Python Git SQL Server Oracle PostgreSQL MySQL Apache Hive Apache Spark Data Warehouse
Disponible
CV Data Engineer Snowflake
Said

Data Engineer Snowflake

  • CHOISY-LE-ROI
Snowflake Data ODI Talend SQL Power BI QlikView
Disponible
CV Data Engineer || Data Analyst SQL
Francheska Marione

Data Engineer || Data Analyst SQL

  • CHAMPIGNY-SUR-MARNE
SQL Python Microsoft Power BI Snowflake Power BI Teradata
Disponible
CV Data Analystics Engineer / EXPERT BI
Angoua

Data Analystics Engineer / EXPERT BI

  • SAVIGNY-SUR-ORGE
SQL Data Microsoft Power BI Python SAS Enterprise Guide Microsoft Power Query Jira SQL Server R Snowflake
Disponible
CV Data Engineer
André

Data Engineer

  • FOSSES
SQL Python Snowflake Amazon AWS PySpark Databricks Airflow Google Cloud Platform Github AWS CloudFormation
Disponible
CV Data Engineer
Marvyn

Data Engineer

  • LIVRY-GARGAN
Python SQL Jira Shell Unix Apache Spark Airflow GitLab Apache Kafka Snowflake
Disponible
CV Cloud Data Engineer
Yazid

Cloud Data Engineer

  • PARIS
Databricks Azure Google Cloud Platform Apache Spark Python Scala Big Data SQL Airflow Snowflake
Disponible
Je trouve mon freelance

Les nouvelles missions conceptualisation des données

Expert sécurité PKI - DevSecOps

Linux DevOps Grafana OpenStack Ansible
09/02/2026
69 - LYON
12 mois
Voir la mission

Développeur JAVA

Java Kafka
16/02/2026
34 - Montpellier
12 mois
Voir la mission

Ingénieur système stockage HPC

Linux Git IBM PLATFORM HPC Grafana InfluxDB
ASAP
31 - TOULOUSE
12 mois
Voir la mission

Data Engineer

Snowflake
02/02/2026
33 - Bordeaux
A définir
Voir la mission

Data Engineer

Snowflake
ASAP
75 - Paris
3 mois
Voir la mission

Développeur Full Stack

Java Kafka Python
ASAP
79 - Niort
3 mois
Voir la mission

DataOps

DevOps Data Lake
ASAP
75 - PARIS
12 mois
Voir la mission

Ingénieur Data Analyst / BI

SQL Python Grafana
ASAP
92 - CLICHY
12 mois
Voir la mission

🚀 Product Owner (PO) / User Stories / backlog / tests fonctionnels, recettes et validations

UX Design API RESTful SAFe Figma Kafka
ASAP
94 - MAISONS-ALFORT
36 mois
Voir la mission

Développeur EBX Senior

Java EBX.Platform Kafka
ASAP
75 - PARIS
3 mois
Voir la mission
Je trouve ma mission