Freelances Conceptualisation BI : Profils récemment inscrits

Je dépose une mission gratuitement
Je dépose mon CV

Qu’est-ce que la BI ?

La Business Intelligence BI définit un ensemble d’outils, de techniques et de moyens visant à collecter, modéliser, analyser et restituer des données.

En récupérant des données structurées (données de marchés, sources externes, etc.) la technologie de la BI va les transformer en informations normalisées puis les diffuser sous la forme de reporting ou tableaux de bord, facilitant ainsi non seulement l'accès à l’information mais également les vitesses de traitement de celle-ci.

Elle peut être employée par un grand nombre d’utilisateurs, internes ou externes à l'entreprise, aussi bien dans le but de supporter des activités opérationnelles quotidiennes que dans le cadre d'un suivi stratégique à plus grande échelle.

La Business Intelligence constitue une aide décisionnelle significative pour les gestionnaires. Si elle peut produire des indicateurs de performance qui permettront de comprendre le passé puis d’analyser le présent des performances d'une entreprise, la Business Intelligence BI a pour finalité l'identification des nouvelles opportunités d'affaires et l'implémentation d'une stratégie opérationnelle efficace, afin d'établir sur le long terme un avantage concurrentiel de marché.

Qu’est-ce que le big data ?

Sa définition la plus courante le décrit comme un concept visant à stocker un ensemble extrêmement volumineux de données sur un support numérique, processus que les outils traditionnels de gestion de base de données ou de l’information ne sont pas en mesure de faire.

Contrairement à la BI où l'information est stockée sur un serveur central (Data Warehouse), le Big Data correspond à un système de fichiers distribués, donnant plus de souplesse aux opérations et permettant aussi une préservation plus sûre des données.

Pour une entreprise, le Big Data se compose de l'ensemble des connaissances, techniques et outils ayant comme objectif de collecter, traiter et exploiter d'importantes quantités de données cette fois dites non structurées, en temps réel.

Les données non structurées correspondent à des données stockées ou représentées dans un format indéfini ; elles peuvent être textuelles (courriels, documents word, messagerie instantanée, etc.) ou non textuelles (à partir de supports vidéo, audio ou visuel).

La méthode du Big Data se base sur une approche qualifiée de Massively Parallel Processing (MPP) ou traitement massivement parallèle en français, qui permet d'accélérer le traitement et l’analyse des données. Par ailleurs, c'est une technologie qui aide à assurer un réalignement des architectures et des modèles de données grâce aux technologies émergentes (Internet des Objets, réseaux sociaux, Cloud).

Le concept lié au Big Data s'appuie notamment sur l'énonciation de la règle des « 3 V » : à savoir le Volume de données colossal à traiter, la grande Variété d'informations (en provenance de multiples sources, non-structurées, organisées ou open) et enfin le niveau de Vélocité à atteindre, c'est à dire la vitesse avec laquelle les données seront générées, stockées et partagées.

Le terme de vélocité s'applique également au temps de réponse d'une requête réalisée sur ces données.

Qu’est-ce qu’un ETL ?

L'ETL ou « Extract, Transform & Load », est une technologie informatique intergicielle (ou middleware) utilisée pour effectuer des synchronisations massives d'informations présentes au sein d'une base de données, vers une autre.

Plus précisément, ce logiciel habilite la collecte et la restructuration de données venant de sources multiples, afin de les convertir par la suite dans un format adapté à une Data Warehouse (entrepôt de données) pour les y transférer.

Ce sont des technologies à la fois flexibles, résistantes aux pannes, sécurisées et scalables, c'est à dire en mesure de maintenir leurs fonctionnalités et leurs performances en fonction de la grandeur de la demande. Les plateformes d'ETL doivent assurer la récupération en temps réel et l'enrichissement des données ainsi que la gestion permanente de milliards de transactions.

Ces outils ont la possibilité de prendre en charge les données structurées ou non structurées pouvant provenir de sources sur site ou depuis le Cloud.

Qu’est-ce que la DataVizualisation ?

La dataviz ou visualisation de données dans notre langue, désigne un large panel de méthodes de représentations graphiques et visuelles des données brutes que les entreprises souhaitent pouvoir utiliser.

La data visualisation est répandue parmi de nombreux corps de métiers (journalisme, marketing, événementiel, le secteur de la communication et bien d'autres encore) car elle permet un gain de temps significatif lors de la recherche et l'analyse des données.

En alliant des fonctionnalités très simples à un esthétisme apportant de la clarté et lisibilité aux informations, elle aide les entreprises à représenter des ensembles complexes de données d'une façon plus didactique et épurée.

La data visualisation peut se faire par exemple en deux ou trois dimensions, à l'aide de couleurs, de trames et est représentée sous des formes aussi diverses que des cartes, des graphiques, des diagrammes, des animations ou des vidéos.

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Les nouveaux profils conceptualisation BI

CV Data Scientist PYTHON
Khaled

Data Scientist PYTHON

  • OSNY
DJANGO HTML5 AGILE SQL PYTHON JAVA Data science C C++
Disponible
CV Ingénieur de développement BI/Teradata
Khaoula

Ingénieur de développement BI/Teradata

  • VÉLIZY-VILLACOUBLAY
UNIX TERADATA SCRUM DECISIONNEL
Disponible
CV Data Scientist PHP
Lynda

Data Scientist PHP

  • ÉPINAY-SUR-SEINE
PHP PYTHON SQL TABLEAU SOFTWARE PANDAS MYSQL HTML DATAVIZ AGILE Jupyter
Disponible
CV AMOA WINDOWS
Marie-Anne

AMOA WINDOWS

  • NARBONNE
ORACLE ACCESS SQL QLIKVIEW HYPERION PLANNING EPM WINDOWS ITIL
Disponible
CV AMOA SAS
Serge Kodjovi

AMOA SAS

  • ASNIÈRES-SUR-SEINE
IARD PYTHON ORACLE PL SQL RStudio MOA AGILE SAS DATA SAS ENTERPRISE GUIDE
Disponible
CV Développeur Data Scientist PYTHON Data science C++ DJANGO
Paul

Développeur Data Scientist PYTHON Data science C++ DJANGO

  • RENNES
C++ PYTHON Data science C JAVA REACT.JS DJANGO MONGODB SQL DOCKER
Disponible
CV Data Scientist DATA
Hervé Kisito

Data Scientist DATA

  • ANTONY
PYTHON JAVA PHP JAVASCRIPT C++ DATA SQL PYSPARK HTML5
Disponible
CV Chef de projet digital Expert MARKETING AUTOMATION IBM UNICA
Raphael

Chef de projet digital Expert MARKETING AUTOMATION IBM UNICA

  • LA BRÈDE
BI AGILE SAFE MARKETING AUTOMATION IBM UNICA SQL PL SQL HYPERION PLANNING
Disponible
CV Chef de projet MICROSTRATEGY
Aouatef

Chef de projet MICROSTRATEGY

  • CALUIRE-ET-CUIRE
APACHE HADOOP Microsoft Power BI MICROSTRATEGY SQL DATA TERADATA POSTGRESQL SQL SERVER BUSINESS OBJECTS BI
Bientôt disponible
CV Data Analyst - Contrôleur de gestion
Olivier

Data Analyst - Contrôleur de gestion

  • LANDERNEAU
DECISIONNEL PYTHON TALEND SQL EXCEL
Disponible
Je trouve mon freelance

Les nouvelles missions conceptualisation BI

DATA ENGINEER / DATA OPS

DATA
ASAP
Bordeaux (33)
12 mois
Voir la mission

Chef de projet DATA Platform

DATA AZURE
ASAP
63 - Clermont-Fd / Remote
6 mois
Voir la mission

Architecte d'entreprise DATA

DATA AGILE
ASAP
Télétravail
3 mois
Voir la mission

Chef de projet Senior / PMO

DATA
ASAP
LILLE
10 mois
Voir la mission

Business Analyst Décisionnel confirmé (F/H)

SQL SERVER TALEND AGILE BI REDMINE
ASAP
Niort
3 mois
Voir la mission

Développeur BO et Tableau

DECISIONNEL SAP BI TABLEAU SOFTWARE ODI
ASAP
NIORT
60 jours ouvrés
Voir la mission

Data Manager

DATA MDM
ASAP
Seine-et-Marne
6 mois
Voir la mission

Consultant Senior /Manager AMOA

SAP BI
ASAP
Bordeaux
12 mois
Voir la mission

Devops

AGILE DEVOPS GITLAB ELK BI
ASAP
69 - Lyon
3 mois
Voir la mission

Consultant BI confirmé DataViz Qlik Sense

Qlik Sense DATAVIZ Qlik
ASAP
75015
3 mois
Voir la mission
Je trouve ma mission