CV/Mission de Consultant BIGQUERY freelance

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple de missions de Mohamed,
Consultant BIGQUERY habitant le Val-de-Marne (94)

  • INGENIEUR BIG DATA & CLOUD / ASSISTANT PO AUCHAN

    Jan 2021 - aujourd'hui

    Projet  : Mise en place d'un datalake (RDO) permettant de centraliser let referencer es données client
    Auchan
    Mission : Maintenance, évolution d'un datalake RDO (Referentiel de données opérationnelles) et migration
    de celui-ci de l'ancien socle vers le Cloud GCP.
    Réalisations / Tâches :
    Participation à la définition et validation des schemas des nouveaux RDO avec les clients Métier
    Évolutions et maintenance des API's permettant l'alimentation et l'extraction des données du
    datalake.
    Évolution, migration et fiabilisation des API's sur GCP.
    Support auprès des clients utilisant le Socle RDO et récolte des nouveaux besoins.
    Assurer les astreintes en production (24h/24) sur le projet.
    Développement de nouveaux services GCP (nouveau socle) pour satisfaire les nouveaux besoin du
    client
    Assister le PO sur le suivi, chiffrage des instanciations RDO et Migration,
    récolte, validation et ajout des nouveaux besoin clients dans le backlog.
    Assurer les mise en Qualif/production automatique via les outils Devops (gitlab-ci).

  • INGENIEUR BIG DATA

    DEVOPS THALES (TDF/SIX GTS)
    Jan 2019 - aujourd'hui

    Projet1 (20 mois) : Développement d'une plate-forme Big data Cloud/OnPremise (SDP), pour la
    gestion de la sécurité des villes intelligentes et des sites critiques.
    Mission : Assurer le workflow d’ingestion, de traitement des données sécurisées dans le data store.
    Réalisations / Tâches :
    Intervention dans les phases amonts (avant-vente, conseil) pour définir et concevoir les
    architectures big-data adaptées aux divers contextes clients.
    Modélisation et spécification des différentes interfaces clients pour les partenaires Thales.
    Participation à la mise en œuvre et intégration des différentes solutions definies :
    1. Développement d'Api’s, et Job ETL permettant l'alimentation de l'entrepôt de données.
    2. Mise en place des règles permettant le traitement et l'exploitation des données dans l'entrepôt
    de données.
    3. Développement d'outils de visualisation et dadshboard (KPI’s).
    4. Déploiement des services dans la plateforme Big data OnPremise.
    Support aux différents partenaires utilisant la plateforme Big data.
    Mentorer les nouveaux arrivant sur le projet pour les amener a développer les compétences
    nécessaires
    Veille technologiques et bench Mark

    Environnement technique : Stockage: Elasticsearch, Minio S3, posgresql. Traitement des données : apache Flink, Flink SQL, apache ustream. Securité : keycloak, casbin Plateforme de messagerie : Apache Kafka, Mqtt. Orchestration : Kubernetes, docker. ETL : Apache Nifi, Nod-red. Développement : Back-end : Go Lang, Java, python, nodejs Front-end: HTML, Javascript, echarts.js. Methodologies: Agile, Kanban, Jira Devops: gitlab CD/CI Déploiement : Ansible Autre: linux Centos, Cloud azure(IAAS),
  • INGENIEUR BIG DATA

    Thales (TDF/SIX GTS)
    Jan 2018 - aujourd'hui

    Projet : Développement d'une plateforme Big data Cloud/OnPremise, pour la gestion de la sécurité des villes intelligentes et des sites critiques.

    Mission : Assurer le workflow d’ingestion, de traitement des données sécurisées dans le data store.

    Réalisations / Tâches :

    Modélisation des événements provenant des différentes sources de données.
    Spécification des différentes interfaces pour les partenaires Thales.
    Développement d'Api’s, et Job ETL permettant l'alimentation de l'entrepôt de données.
    Mise en place des règles permettant le traitement et l'exploitation des données dans l'entrepôt de données.
    Développement d'outils de visualisation et dadshboard (KPI’s).
    Déploiement des services dans la plateforme Big data OnPremise.
    Support aux différents partenaires utilisant la plateforme Big data.

    Environnement technique : Stockage: Elasticsearch, Minio S3, posgresql.
  • Formation Consultant

    BigData FITEC
    Jan 2017 - Jan 2018

    Formation à l’écosystème Big Data

    Cycle de production (DevOps, Intégration Continue, Déploiement continue)
    Architecture distribuée BigData (Data lake, lambda, Batch, micro-batch, micro-services, …)
    Traitement des données avec Spark/Scala
    Architecture de l’écosystème Hadoop
    Méthodologie Agile.
    Intégration de données avec Talend, Kafka et Flume
    Base de données NoSQL (Cassandra, Hbase)
    Data Visualisation avec Tableau.

    Projet de fin de formation : Mise en place d’un Data Lake et développement d’une vision 360° client pour une boutique de vente de produits cosmétiques.

    Réalisations / Tâches :

    Mise en place de l’architecture BIG-DATA fonctionnelle, applicative et physique du Data lake.
    Benchmarking et étude des différents outils existants pour définir la solution adaptée au besoin
    Redimensionnement et administration du cluster HADOOP
    Conception des traitements à mettre en place.
    Développement et optimisation des traitements Spark en batch et en streaming.
    Contribution à l’exposition et à l’analyse des données pour la visualisation.

    Environnement technique : Spark & Spark streaming, Scala, shell, HortonWorks (Ambari, Ranger), zeppelin, FileBeat, ELK (LogStach, Elastic search, Kibana)
  • Ingenieur Systèmes UDS

    VALEO EQUIPEMENTS ELECTRIQUES
    Jan 2016 - Jan 2017

    Réalisation de l’architecture UDS pour assurer les fonctions de diagnostic sur la nouvelle génération d’alterno-démarreurs VALEO

    Réalisations
    Analyse des besoins du client en termes de fonctions de diagnostic à implémenter
    Définition de l’architecture UDS du logiciel embarqué sur la machine (bootloader primary, secondary, application, transitions entre les sessions de diagnostic, …).
    Définition de la stratégie DTC de gestion de default sur la machine (détection, confirmation, Snapshot, Aging, …)
    Définition des opérations de calibration effectuées par l’UDS en phase de production et de fin de ligne.
    Rédaction et Raffinement des exigences internes pour les équipes de développement et de test
    Support des équipes de développement et de test.
    Workshop organisées chez les constructeurs pour définir et étudier la faisabilité de l’implémentation des besoins du client.

    Environnement technique : Outil de spécification : Word (VBA) Développement des outils de tests : CANoe 8.0, CANalyser 8.5, CANDela Studio 8.5, CAPL, Canoe.Diva, CAPL.
  • Ingénieur Système fonctionnel HMI

    Continental
    Jan 2015 - Jan 2016

    Gestion des exigences relatives au fonctionnement des écrans IHM des autos radios MultiMedia automobiles
    Réalisations
    Rédaction, Convergence et acceptante des spécifications client.
    Rédaction et Raffinement des exigences internes pour les équipes de développement et de...

  • API Manager.

    Traitement des données : Integration Engine (Auchan).
    aujourd'hui

    Plateforme de messagerie : Apache Kafka.
    Orchestration : Kubernetes, docker, Rancher 1
    Développement :
    Back-end : Java, nodejs

    Methodologies: Agile, Kanban Devops: gitlab CD/CI, Nexus. Cloud GCP : pubSub, dataflow, BigQuery, IAM, BigTable, cloudStorage, fireStore Supervision : kibana, Grafana (prometheus), kafkaHQ, Rancher UI, Cerebro. Page 3 / 9 Mohamed ********
  • aujourd'hui

    Mohamed ********
    Projet2 (11 mois) : Integration et deploiement de la solution SDP dans un projet de sécurisation et
    supervison de sites critiques.
    Mission : Deploiment du Cluster SDP et intefaçage de ce dernièr avec les sous systemes de l'ecosysteme
    existant.
    Réalisations / Tâches :
    Réception, vérification et paramétrages des livraisons reçues.
    Accompagnement et formation des differents intervenants sur le projets à la SDP et son utilisation
    (ingénieur IT et systemes, chefs de projet, developpeurs, testeurs, ingénieurs securité, ….)
    Remonter les differentes contraintes et failles ISO fonctionnelles liées aux exigences cients à
    l'equipe SDP et s'assurer que celles ci soit corrigerés ou implementées.
    Assurer le deploiment de la SDP sur les plateformes dediées :
    1. Verification des prerequis sur les machines livrées par l'IT et sur l'os endurci livré également
    2. deploiment de la solution SDP avec ansible.
    3. Analyse, detection des anomalies et création de patchs
    4. implémentation des régles métiers flink et ustream specifiques aux projet.
    5. Développenent des Job permettant l(integration des données specifiques pour
    l'industrialisation).
    Demonstration de la solution fonctionelle au client final (gendarmes & police).

    Environnement technique : Stockage: Elasticsearch, Minio S3, posgresql.
  • aujourd'hui

    Traitement des données : apache Flink, Flink SQL, apache ustream.
    Securité : keycloak, casbin
    Plateforme de messagerie : Apache Kafka, Mqtt.
    Orchestration : Kubernetes, containerd.
    Methodologies: Agile, Kanban
    Déploiement : Ansible
    Autre: linux Redhat 8.

  • aujourd'hui

    Traitement des données : apache Flink, Flink SQL, apache ustream.
    Securité : keycloak, casbin
    Plateforme de messagerie : Apache Kafka, Mqtt.
    Orchestration : Kubernetes, docker.
    ETL : Apache Nifi, Nod-red.
    Développement :
    Back-end : Go Lang, Java, python, nodejs
    Front-end: HTML, Javascript, jQuery, Ajax, echarts.js.

    Methodologies: Agile, Kanban Devops: gitlab CD/CI Déploiement : Ansible Autre: linux Centos, Cloud azure(IAAS), IOT, micro-services, MVP, Coworking (MVP), documentation (confluence, swagger)
Voir le profil complet de ce freelance

Profils similaires parfois recherchés

CV Consultant BIGQUERY, Missions Consultant BIGQUERY, Consultant BIGQUERY freelance

Les nouvelles missions de Consultant BIGQUERY

Chef de projet Data

CONFLUENCE Microsoft Power BI Google Cloud Platform BIGQUERY
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer GCP H/F

SQL PYTHON GIT DEVOPS Google Cloud Platform
ASAP
93 - NOISY-LE-GRAND
12 mois
Voir la mission

Data Analyst GCP

Google Cloud Platform Microsoft Power BI BIGQUERY
ASAP
94 - Charenton le Pont
3 mois
Voir la mission

Data Analyst AMADEA

Microsoft Power BI SSAS Google Cloud Platform
ASAP
94 - Charenton le Pont
6 mois
Voir la mission

Data Engineer GCP

Google Cloud Platform
ASAP
76 - Rouen
3 mois
Voir la mission

Data Engineer GCP

Google Cloud Platform BIG DATA PYTHON CI/CD
ASAP
76 - Rouen
12 mois
Voir la mission

Data Analyst / Data Scientist

ASAP
94 - Charenton le Pont
6 mois
Voir la mission

Développeur GCP

Google Cloud Platform
ASAP
75 - Paris
6 mois
Voir la mission

Digital Data Engineer

BIGQUERY NODE.JS GOOGLE TAG MANAGER (GTM)
ASAP
79 - Niort
3 mois
Voir la mission

Data Consultant

SQL Google Cloud Platform BIGQUERY PYTHON
ASAP
75 - Paris
6 mois
Voir la mission
Je trouve ma mission

Les profils de Consultant BIGQUERY ont postulé à :

Machine Learning/ Testeur

PYTHON AZURE API RESTful
ASAP
75 - PARIS
12 mois
Voir la mission

Tech Lead DATA F/H

DATA AGILE AMAZON WEB SERVICES
ASAP
75 - PARIS
12 mois
Voir la mission

Tech Lead Talend

TALEND
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

ANALYTICS ENGINEER

SQL PYTHON
ASAP
92 - BOULOGNE-BILLANCOURT
130 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Ingénieur Data

JAVA SQL DATA SPRING AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
11 mois
Voir la mission

Business Analyst Data / chef de projet BI Retail

SQL BI BIG DATA Google Cloud Platform
ASAP
94
10 mois
Voir la mission

Data Analyst

DATA
ASAP
75010-Paris
90 jours ouvrés
Voir la mission
Je trouve ma mission

Les derniers CV de Consultant BIGQUERY disponibles

CV Assistant à maîtrise d'ouvrage BUSINESS OBJECTS
Thierry André Clément

Assistant à maîtrise d'ouvrage BUSINESS OBJECTS

  • Chatillon
BUSINESS OBJECTS ACCESS VISUAL BASIC ORACLE POWER DESIGNER SQL SERVER AMC DESIGNOR MS PROJECT SOAP ORACLE WAREHOUSE BUILDER BUSINESS OBJECTS DATA INTEGRATOR QLIKVIEW MYSQL
Bientôt disponible
CV DevOps DEVOPS
Maher

DevOps DEVOPS

  • MONTPELLIER
PYTHON DEVOPS Cloud AWS CI/CD HASHICORP TERRAFORM GIT ANSIBLE JAVA Kubernetes
Bientôt disponible
CV Data Engineer
Nayel

Data Engineer

  • SAVIGNY-SUR-ORGE
DATA SQL Google Cloud Platform HASHICORP TERRAFORM BIGQUERY GIT AGILE PYTHON
Bientôt disponible
CV Directeur IT / Directeur & Chef de projet / Manager
Christian

Directeur IT / Directeur & Chef de projet / Manager

  • PARIS
AGILE SQL PROJECT MANAGEMENT OFFICE PYTHON SCRUM JIRA DEVOPS JAVA .NET ITIL
Disponible
CV Data Engineer SQL
Alimou

Data Engineer SQL

  • CERGY
SQL PYTHON JAVASCRIPT
Disponible
CV Data Engineer
Si Ahmed

Data Engineer

  • CHOISY-LE-ROI
BODS TALEND DI TALEND SQL SERVER SQL SAP BI Microsoft Power BI Google Cloud Platform BIGQUERY HASHICORP TERRAFORM
Disponible
CV Expert Dataviz Tableau / Power BI
Thierno

Expert Dataviz Tableau / Power BI

  • MANTES-LA-JOLIE
BI Microsoft Power BI TABLEAU SOFTWARE SAS ENTERPRISE GUIDE SQL Dataiku TERADATA ORACLE SQL SERVER
Disponible
CV Technical Lead, Architecte
Mohamed

Technical Lead, Architecte

  • LES MUREAUX
PHP SYMFONY Google Cloud Platform NODE.JS REACT.JS Angular MYSQL DOCKER Kubernetes FLUTTER
Disponible
CV Machine Learning Engineer
Nelly

Machine Learning Engineer

  • PARIS
PYTHON DOCKER SQL SAS CSS Google Cloud Platform HASHICORP TERRAFORM APACHE KAFKA APACHE SPARK
Disponible
CV Consultant décisionnel  Analyste Data
Justin

Consultant décisionnel Analyste Data

  • SARTROUVILLE
BIG DATA AGILE DECISIONNEL DATA DATAVIZ TALEND SAP BO SAP BI SAP BW SAP HANA
Disponible
Je trouve mon freelance