Freelances Conceptualisation des données : Les derniers consultants inscrits

Je dépose une mission gratuitement
Je dépose mon CV

Qu’est-ce que OLAP ?

OLAP (Online Analytical Processing) est une application informatique qui est utile au traitement de grandes quantités de données. C’est un logiciel de traitement analytique qui donne à l’utilisateur, la largesse d’analyser les données générées sous des perspectives multiples.

Implanté dans le système informatique de l’entreprise, il modélise les données et permet d’effectuer toutes sortes de calculs complexes. En d’autres termes, la même donnée peut être traitée sous différents axes afin d’obtenir les résultats dont l’utilisateur a besoin.

Cette solution de stockage fait partie des outils d’aides à la décision. Le stockage des données qu’il collecte se fait sur une base multidimensionnelle appelée Cubes-OLAP. Le cube est un tableau multidimensionnel de données. Les informations y sont pré-résumées.

L’utilisateur peut ainsi traiter un nombre important de données, sans que cela n’affecte le temps de réponse qui est pour dire, instantané. L’organisation et la comparaison des données nécessitent en revanche, l’utilisation d’un serveur.

Qu’est-ce qu’un DataWarehouse ?

Le datawarehouse (DWH) est une base de données qui assure la collecte et le stockage des informations issues des bases de données opérationnelles. Son rôle est de collecter l’ensemble des données de l’entreprise à des fins analytiques.

Il les analyse en vue d’une amélioration qualitative et quantitative des performances de l’entreprise. En effet, conçu pour les activités de Business Intelligence, le data warehouse fournit à l’aide à la décision, un socle.

Son mode de fonctionnement est simple. Il stocke historiquement les informations, donnant ainsi à l’utilisateur un accès aux transactions qui ont eu lieu au fil du temps.

La solution data warehouse intègre un outil de transport, d’extraction, de chargement et de transformation des données. Elle comprend aussi un logiciel de traitement analytique, des outils de traitement de données et des outils d’analyse clients.

Dans un Data Warehouse, les informations sont structurées et classées par thème. Le stockage des données est fait sur le long terme, et à chaque nouvelle transaction, une mise à jour s’effectue.

Qu’est-ce que DWH DTM ?

DWH DTM signifie Data warehouse Datamart. Le Data mart est un sous-ensemble du Data warehouse.

Il complète le data warehouse. Le data warehouse est l’entrepôt de données et les data mart sont l’ensemble des comptoirs qui forme cet entrepôt.

Qu’est-ce qu’un DataMart ?

Sous-ensemble du data warehouse, le data mart (DTM) organise les données selon des usages précis. Appelé aussi magasin de données ou comptoir de données, il fournit aux utilisateurs, des données spécialisées appartenant à une catégorie bien définie. C’est une version simple du DWH.

À l’inverse du DWH qui traite les données de manière généraliste, le DTM, lui, se concentre sur une seule fonction. Il permet ainsi de répondre à des demandes spécifiques. Il ne conserve que les données qui sont utiles à l'utilisateur. Il les présente de manière agrégée, regroupée et organisée.

C'est un logiciel de stockage qui a une architecture structurée. L’exploitation de sa base de données permet de répondre à des requêtes simples. Les utilisateurs obtiennent à leurs préoccupations, des réponses ciblées, ce qui offre un gain de temps considérable à l’entreprise.

Il a pour ainsi dire, une approche spécialisée de la gestion des données. En son sein, les données sont historiées et donc non volatiles.

Qu’est-ce qu’un Data Lake ?

Référentiel de stockage, le data lake (lac de données) permet de stocker une très large quantité de données venant de diverses sources. Il conserve ces données sous leur format brut, jusqu’à ce qu’elles soient nécessaires.

Sa particularité, c’est qu’il est capable de stocker toutes sortes de données, qu’elles soient structurées, non structurées ou semi-structurées. Autrement dit, tous les types de données générées par l’entreprise peuvent être stockés dans un lac de données, en vue d’une utilisation ultérieure.

Le lac de données crée un schéma structuré entre les différentes données. Aucune n’est filtrée, ni supprimée. Elles ne sont ni hiérarchisées, ni organisées.

Lorsqu’il les importe, il les associe à des balises métadonnées et des indicateurs en vue de faciliter leur récupération. C’est une solution de stockage qui est idéale pour les entreprises qui veulent conserver un grand nombre de données.

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Les nouveaux profils conceptualisation des données

CV Cheffe de Projet AMOA
Florence Liliane

Cheffe de Projet AMOA

  • MORSANG-SUR-ORGE
Jira Agile SQL Power BI Snowflake Xray Katalon Alteryx
Disponible
CV Ingénieur Infrastructure VoIP & Systèmes
Jonathan

Ingénieur Infrastructure VoIP & Systèmes

  • TOULOUSE
Linux Citrix XenServer VoIP SIP IPBX VMware SQL Zabbix Grafana Bash
CV Architecte réseaux Cisco
Lionel

Architecte réseaux Cisco

  • MASSY
Cisco Windows Fortinet Palo Alto Networks Load Balancer Grafana BGP OSPF MPLS VPN SSL SD-WAN Agile Python
Disponible
CV Data Engineer | Data Scientist | Docteur en Informatique
Nicolas

Data Engineer | Data Scientist | Docteur en Informatique

  • BLOIS
Python SQL Data Docker Data Science Data Warehouse Dataviz Large Language Model KNIME Langchain Deep Learning
CV Data Engineer SQL
Adrien

Data Engineer SQL

  • VALERGUES
SQL Snowflake Informatica SSIS Microsoft Power BI
CV Ingénieur de développement C#
Nathan

Ingénieur de développement C#

  • SAINTE-MAURE-DE-TOURAINE
C# SQL React.js .NET Node.js Java Grafana Cypress Docker CI/CD
Disponible
CV Technicien poste de travail Windows
Patrick

Technicien poste de travail Windows

  • SARCELLES
Windows PC Windows 10 Active Directory MS Office Sécurité Windows 7 Data VBA Datastage PX DataStage TX Data Science Data Privacy Data Warehouse Periscope Data Data Dictionary DataRobot MLOps EMC Data Domain Informatica Data Quality
Disponible
CV Architecte PHP
Thulfakar

Architecte PHP

  • PARIS
PHP Symfony Python Django Node.js VBA Agile React.js Grafana MySQL Apache Linux Windows Docker Nagios Microsoft Power Automate Oracle CI/CD
Disponible
CV DevOps Jenkins
Kaibi

DevOps Jenkins

  • TREMBLAY-EN-FRANCE
Docker Jenkins DevOps Kubernetes Ansible Grafana PHP .NET C# Spring.NET Angular React.js Java GitLab Github OpenStack Azure
Disponible
CV Data Engineer SQL
Dian

Data Engineer SQL

  • SAINT-ÉTIENNE
SQL Talend Snowflake Dataiku Qlik Sense Cognos BI Oracle MySQL Power BI Salesforce Modélisation de Langage Python
Disponible
Je trouve mon freelance

Les nouvelles missions conceptualisation des données

DevOps

Docker Kubernetes CI/CD Kafka
11/05/2026
63 - Clermont Ferrand
3 mois
Voir la mission

DEVOPS KUBERNETES

Docker Grafana ELK Kubernetes CI/CD
ASAP
72 - LE MANS
12 mois
Voir la mission

Expert Kubernetes

Kubernetes HashiCorp Terraform Grafana
25/05/2026
28 - Chartres
3 mois
Voir la mission

Consultant Kubernetes

HashiCorp Terraform Grafana Kubernetes
04/05/2026
28 - CHARTRES
12 mois
Voir la mission

Business Analyst

Snowflake
ASAP
Télétravail
6 mois
Voir la mission

Product owner Data

Oracle Agile Snowflake Azure Data Factory Power BI
ASAP
44 - NANTES
6 mois
Voir la mission

Team Leader Data engineering

Python Talend Apache Spark Snowflake Power BI
ASAP
33 - BORDEAUX
12 mois
Voir la mission

DevOps Kafka Kubernetes

Python HashiCorp Terraform Docker Kubernetes Kafka
ASAP
91 - MASSY
10 mois
Voir la mission

DataOps

DevOps Data Lake
ASAP
75 - PARIS
12 mois
Voir la mission

Développeur EBX Senior

Java EBX.Platform Kafka
ASAP
75 - PARIS
3 mois
Voir la mission
Je trouve ma mission