Freelance BIGQUERY : Obtenez rapidement les meilleurs CV

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu d'expériences de Gnankoye,
freelance BIGQUERY habitant la Seine-Saint-Denis (93)

Expérience professionnelle

SOCIÉTÉ – GROUPE Renault Juillet 2022 au 28 Décembre 2023
Fonction : Data Analyst Senior
Contexte : Travaille sur les voitures connectées pour faire des supports( Incidents , demande
d’accès , Analyse de graphe( suite monitoring d’alerte d’incidents sur Grafana), faire la campagne
des véhicules , ).
Les tâches :
- Analyser les incidents (K1, K2, K3) sur Snow et grafana
- Gestion de la prod et des incidents
- Faire des supports Postmortems des incidents K1 et K2
- Traiter les demandes d’accès au portail sur la plateforme Vnext et Harman(Redbend)
- Campaign sur des véhicules
- Renouvellement de certificat Awazu.
- Analyse des graphes sur grafana rédiger les postmortems
- Monitoring pour les suivis des incidents
- Etude Talend connectivités avec les bases de données sql et No-Sql
- Azure Synapse , Synapse Analytique (réaliser les Activités)
Environnement Technique:
Azure devops, Plateformes Azure Vnext , Excel , Snow , Azure portal ,Talend, Grafana ,
Confluence , Jira , Azure Synapse ,MSBI(SSAS, SSRS) , VBA , GCP(BigQuery ).

SOCIÉTÉ – Orange Mai 2021 - Juin 2022
ProjetA : Data Architecte /Technico-Fonctionnelle :
Contexte : Dans le cadre de la modernisation d’architecture C2SO Data Warehouse, les entités
Diamond, Marine,…
La conception d’une base de données objet( S3) où ETL Talend va déposer les données brutes ,
on utilise ESB Amazon Web service , Dataiku pour générer les rapports , et d’autres ETl de
visualisation (tableau , Power BI ) , et la Mise en place d’un Data Management (MDM)
Mission :
❑ Cadrage du projet avec les les métiers et chef du projet( spécifications techniques et
❑ fonctionnelles )
❑ Plannings, des budgets, des ressources avec les métiers
❑ Modernisation des différentes entités avec Togaf , powerDesigner
❑ Conception de la base de stockage objet S3
❑ Extraction des données dans les différentes sources
Marine, Diamond ….. (Données CRM)
❑ Conception de la base de données PostgreSQL
❑ Conception de Data Warehouse pour le modèle
❑ Crée du Dashboard dans Power BI pour générer des rapports format web avec
❑ pilotage, reporting, automatisation des tests, déploiements, gestion de la
❑ Prod et des incidents .
Power Bi service et d’autre format.
❑ Dataiku Dss (conception de recette, analyse des diagrammes de Dashboard),
Tableau connexion indirecte (copié les données depuis les sources de
Données) pour la visualisation des données
❑ Créer le Dashboard sur power BI pour chiffrer les factures des clients, mensuel,
Annuel
❑ Générer des rapports avec au format web avec power Bi service
Environnement Technique :
Talend , Dataiku (Dss , Actions ,Sailpoint (Sécurité d’identité cloud), filtres ,générer des rapports
, création de recette) PowerDesigner
, Tableau , PowerBI , Pack office , GCP (BigQuery) , Amazon webservice(S3), Clickhouse,

Projet B : SOCIÉTÉ – Orange
Product Owner Technique / Tech
LeadContexte :
Projet :Migration Teradata à GCP, Kenobi (Accort team) , c'est de migrer les données (télécom,
banque) de la base de données Teradata vers Google cloud plateforme (GCP) et mettre en
place un outil pour le retour desdonnées dans teradata pour permettre aux métiers de gérer
les clients.
Missions
❑ Cadrage du projet et choix technologies
❑ Réunion avec les métiers pour la spécification fonctionnelle et technique
❑ Crée le Projet dans l'espace de travail BigQuery (Cloud Storage)
❑ Création du projet Dev et Prod Sur bigQuery (cloud Storage )
❑ Crée DataSet et tables pour stockage des nouvelles données
❑ Mise en place du Pipeline de DataFlow (ApacheBeam pour exécuter les Jobs)
❑ Extraction des données dans teradata (DDL)
❑ Convertir les données de teradata en Script_BigQuery
❑ Préparer les dags (Airflow) dag extraction et dag Load :,
❑ Préparer le fichier Json (pour les tables)
❑ Création des dags d'Extraction avec les tables ddl de teradata
❑ Copier les tables dans FireStore avec leurs paramètres
❑ Lancer le code python du dags d'extraction des données de teradata
❑ Lancer dags load des données dans cloud Storage
❑ Vérification des logs en cas d'erreur de migration des données
❑ Transfer des données fichiers Json vers gcp
❑ Régler les problèmes de formation
❑ Mise en place du Pipeline de Jenkins
❑ Rédiger des rapports avec Dax (Power Bi) et Data Studio
Environnement technique :
GCP( DataFlow , DataStudio, BigQuery , Cloud Storage, Firestore , Cloud Sql) , Putty, Python(
Dataframe, Airflow),Fizilla ,Putty, Airflow ,SQL , base de données Teradata, CSV, Excel , Power BI
(Desktop et Service avec langage DAX) , Json , Docker( création d’image) , confluence ,JIRA, cloud
Storage Devops , Jenkins(CI /CD) .

SOCIÉTÉ – Carrefour
Novembre 2020 - Avril 2021
Data Engineer Développeur
Contexte :
Projet : Migration et Automatiser le flux de données sur Google Cloud( GCP). Migration
des données de Datalake pour le cloud (Gcp) avec des outils NIFI, PostgreSQL, Requête
SQL, Requête avancée pour supprimer les sauts de page des flux des données dans le
cloud.
Mission
❑ Audit de l'existant
❑ Rédaction des spécifications fonctionnelles détaillées
❑ Définition du Mapping de données
❑ Préparation des données (nettoyage, restructuration, mise en forme .....etc.)
❑ Optimisation des processus métier
❑ Extraction des données avec NIFI à partir data hub et chargement dans
GoogleCloud (GCP)
Apache Nifi ( Automatiser les flux d’information entre les systèmes)
Préparer les PutFile et GenerateFlowFile avec les FlowFile
❑ Modélisation (Etoile, flocon, les processus métier )
❑ Conception des datamarts
❑ Chargement des fichiers pats (parquet, Avro ,JSON ,Csv, Xml )
❑ Transformation des données et chargement des tables finales
❑ Analyse des logs d'erreurs de la migration
❑ Traitement des rejets
❑ Requête SQL Avancée (suppression des sauts de page)
❑ Test unitaire
❑ Faire le Reporting avec le Power BI Desktop
❑ Format des document web avec Power BI Desktop
❑ Rédaction manuelle d’utilisation pour les métiers
Environnement technique :
Apache NIFI, Base de données PostgreSQL, Power BI (langage Dax), Excel, CSV, GCP
(BigQuery, DataFlow,Data Storoage ,Data Studio, Google Analytique),SQL, Tableau (Connexion
Direct et indirect , tableau prep , tableau publique , tableau desktop).

SOCIÉTÉ – LCL
Octobre 2019 - Octobre 2020
Contexte :
Projet : Migration des données de Datalake vers la nouvelle plateforme google Platform(GCP) Big
Data (Cloud Google platefrm ).
Mission
❑ Cadrage du projet sur les spécifications Techniques
❑ Étude de l'existant
❑ Modélisation des processus métiers ( BPNM)
❑ Rédaction des dossiers techniques (mapping des données)
❑ Installation des technique (de pipeline )
❑ Création de session spark (python , Spark)
❑ Platform cloud data Databricks
❑ Dataflows ( kafka , Spark )
❑ Extraction, traitement et exposition des données de l'Open Data
❑ Production de KPI à destination des commerciaux
❑ Scraping des bases de données SIRENE, OpenStreetMap, Banque de France &
INSEE
❑ Présentation des résultats dans des tables Hive server Rédaction du manuel
utilisateur
❑ Maintenance corrective et évolutive
Environnement technique :
GCP (BigQuery, Data Storage, DataFlow), Hadoop, HortonWorks, Cloudera (Hue), Python
(Geopandas ),Scala, Spark, Hive, Oozie, Cloud Azure (Datalab , data Box , Azure Migrate, Azcopy,
ExpressRoute ) , synapse Analytic , Databricks , Snowflake, Tableau , Dataflows

SOCIÉTÉ – Crédits Foncier
Septembre 201 -Octobre 2019
Product Owner Technique
/Fonctionnel
Contexte :
Projet : Refonte du Système Décisionnel de la Banque et d'accompagner les métiers dans
l'analysedes cas d'usages .
Mission
❑ Modélisation du Data Warehouse (Entrepôt des données) Finance
❑ Modélisation de l'architecture fonctionnelle & logicielle du Data Lake
❑ Analyse Business
❑ Modélisation de la base de données Finance de marché & Compliance
❑ Organisation & coordination des meetings
❑ Rédaction des User stories, maintenir le Backlog
❑ Cadrage du projet
❑ Mettre des plans pour lutter contre les risques (Fraudes)
❑ Automatisation des flux de données (CI /CD)
❑ Script SQL
❑ Génération des rapports
❑ Développement des flux d'intégration des données via SSIS
❑ Reporting, création des tableaux de bords via Power BI & Tableau
❑ Assistant du Product Owner
❑ Gestion des bases de données, index, schémas sur SSMS
Environnement technique :
Power BI (Desktop et Service avec langage DAX) , SQL server, MSBI(SSAS, SSIS, SSRS), Toad,
, TFS, SourceTree, SQL, TSQL, Hortonwork, HDFS, BigQuery, Google Data Studio, Power BI
(rapports ), Tableau , Cloud Azure Data Bricks

SOCIÉTÉ – SFR Telecom
Janvier 2016 - Août 2018
Data Engineer / CRM
Contexte :
Projet : Réalisation technique d'une plateforme de gestion des données relatives aux
besoins marketing.
Mission
❑ Extraction des données dans Teradata
❑ Transformation des données
❑ Création de Datamart
❑ Export des flux d'informations
❑ Industrialisation et automatisation du flux d'extraction des données
❑ Master Data Management Travaux réalisés - Production des ETL pour des ciblages
fcommerciaux
❑ Connexion simultanée à Hadoop et Teradata via SPPS ou Talend
❑ Traitement des données non structurées via Hive, Impala
❑ Gestion des fichiers dans HDFS
❑ Croisement des données via Spss ou Talend
❑ C...

Voir le profil complet de ce freelance

Les derniers freelances BIGQUERY

CV Senior Data Engineer
Aymen

Senior Data Engineer

  • NOISY-LE-SEC
PYTHON SQL Cloud AWS Google Cloud Platform BIGQUERY DJANGO
Disponible
CV Scrum Master AGILE
Yazid

Scrum Master AGILE

  • CLICHY
JIRA CONFLUENCE AGILE SCRUM KANBAN EXCEL SAFE
Disponible
CV Data Analyst
Iliasse

Data Analyst

  • TOULOUSE
Microsoft Power BI SQL EXCEL BI TABLEAU SOFTWARE GOOGLE DATA STUDIO DATA PYTHON BIGQUERY Qlik Sense
Bientôt disponible
CV Lead Business & Data Analyst
Dannick

Lead Business & Data Analyst

  • VILLEJUIF
EXCEL SQL DATA BI PYTHON JIRA
Disponible
CV Business Data Analyst spécialisé en Finance IT
Boubacar

Business Data Analyst spécialisé en Finance IT

  • PLAISIR
EXCEL AGILE Microsoft Power BI JIRA SQL AZURE Google Cloud Platform PYTHON
Disponible
CV Data Analyst SQL
Jeremy

Data Analyst SQL

  • VILLEURBANNE
SQL SCRUM Google Cloud Platform MICROSTRATEGY BIGQUERY
Bientôt disponible
CV Data Scientist Google Cloud Platform
Abdelwahed

Data Scientist Google Cloud Platform

  • ANDRÉSY
Google Cloud Platform TIBCO SPOTFIRE PYTHON SQL R
Disponible
CV Développeur fullstack / mobile
Andreea

Développeur fullstack / mobile

  • PARIS
FLUTTER NODE.JS JAVASCRIPT JAVA
Disponible
CV Data engineer senior | certified gcp
Ousmane

Data engineer senior | certified gcp

  • BRY-SUR-MARNE
APACHE SPARK APACHE HADOOP Google Cloud Platform
Disponible
CV Développeur JAVA
Roland

Développeur JAVA

  • NOISIEL
JAVA Spring Boot SPRING Angular Vue.js DOCKER Microservices JENKINS Kubernetes APACHE KAFKA
Disponible
Je trouve mon freelance BIGQUERY

Les nouvelles missions BIGQUERY

Data analyst

SQL Google Cloud Platform BIGQUERY TABLEAU SOFTWARE Qlik
ASAP
91 - MASSY
12 mois
Voir la mission

Architecte Applicatif - JAVA/J2EE/kafka/Big Query/GCP - Mission à Lille

JAVA J2EE APACHE KAFKA BIGQUERY
ASAP
59 - RONCHIN
188 jours ouvrés
Voir la mission

Architecte / Expert Cloud

DATA BIGQUERY
ASAP
59 - LILLE
12 mois
Voir la mission

FORMATEUR sur Maitriser Google Analytics 4 – FREELANCE H/F

GOOGLE ANALYTICS
ASAP
74940
2 jours ouvrés
Voir la mission

Business Analyst Data / chef de projet BI Retail

SQL BI BIG DATA Google Cloud Platform
ASAP
94
10 mois
Voir la mission

Data Analyst retail

SQL BI BIG DATA
ASAP
94
6 mois
Voir la mission

Lead Data Scientist

SQL PYTHON BIGQUERY
ASAP
Boulogne
12 mois
Voir la mission

Data Engineer sur GCP obligatoire

PYTHON APACHE HIVE SCALA APACHE SPARK Google Cloud Platform
ASAP
PARIS
12 mois
Voir la mission

Architecte Technique

Kubernetes HASHICORP TERRAFORM
ASAP
75
6 mois
Voir la mission

Data Analyst GCP

Google Cloud Platform Microsoft Power BI BIGQUERY
ASAP
94 - Charenton le Pont
3 mois
Voir la mission
Je trouve ma mission BIGQUERY

Les freelances maîtrisant BIGQUERY ont postulé à :

Data Analyst H/F

MATLAB DATA PYTHON BIG DATA Procédés industriels
ASAP
01 - MONTLUEL
12 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

CP Data

DATA
ASAP
92 - LEVALLOIS-PERRET
12 mois
Voir la mission

ANALYTICS ENGINEER

SQL PYTHON
ASAP
92 - BOULOGNE-BILLANCOURT
130 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

FORMATION DATA

DATA
ASAP
13 - BOUC-BEL-AIR
15 jours ouvrés
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Consultant BI / Tableau software

SQL TABLEAU SOFTWARE Cloud AWS
ASAP
75 - PARIS
12 mois
Voir la mission

Data analyst

SQL PYTHON R
ASAP
75 - PARIS
12 mois
Voir la mission

Ingénieur Data

JAVA SQL DATA SPRING AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
11 mois
Voir la mission
Je trouve ma mission BIGQUERY