CV Cloudera : Trouvez votre consultant indépendant

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils Cloudera connectés

CV Data & DevOps Engineer
Samir

Data & DevOps Engineer

  • NANTERRE
JAVA SAP DEVOPS ANSIBLE APACHE SPARK APACHE HIVE SAP HANA APACHE HADOOP AZURE PYTHON
Disponible
CV Architecte d'entreprise cloud
Danut Marian

Architecte d'entreprise cloud

  • LE PLESSIS-ROBINSON
DEVOPS SQL DATA Cloud AWS GIT GITLAB DOCKER Kubernetes LINUX Microsoft Power BI
CV Architecte  Big Data / Expert Cloud AWS/GCP/Azure
Mohamed

Architecte Big Data / Expert Cloud AWS/GCP/Azure

  • PALAISEAU
JAVA APACHE HADOOP DATA SCALA APACHE SPARK APACHE KAFKA BIG DATA AMAZON WEB SERVICES PYTHON AZURE
Disponible
CV DevOps CI/CD
Hai

DevOps CI/CD

  • SAINT-MAURICE
DEVOPS ANSIBLE GRAFANA LINUX DOCKER AZURE ELASTICSEARCH Cloudera Kubernetes
Disponible
CV Directeur de projet PROJECT MANAGEMENT OFFICE
Bm

Directeur de projet PROJECT MANAGEMENT OFFICE

  • PARIS
PROJECT MANAGEMENT OFFICE AGILE SQL
Disponible
CV Consultant Formateur Change Managment Bureautique Mobilite Réseaux et Sécurité Informatique
Mehdi

Consultant Formateur Change Managment Bureautique Mobilite Réseaux et Sécurité Informatique

  • MONTREUIL
IOT C++ MICROSOFT TEAMS iOS ANDROID ARCGIS DELPHI Cybersécurité APACHE SCRUM
Disponible
CV Data Engineer | Developpeur Big Data
Mounir

Data Engineer | Developpeur Big Data

  • CHÂTENAY-MALABRY
APACHE SPARK SQL BIG DATA APACHE HADOOP SCALA JAVA PYTHON APACHE KAFKA NoSQL Cloudera
Disponible
CV Chef de projet IT
Olivier

Chef de projet IT

  • Corbeil-Essonnes
ORACLE 11G DYNATRACE LINUX SQL VMWARE Oracle Fusion Middleware AGILE BIG DATA DEVOPS MAINFRAME
Disponible
CV Consultant Data Visualisation (TABLEAU SOFTWARE)
Dalal

Consultant Data Visualisation (TABLEAU SOFTWARE)

  • GENTILLY
ORACLE SQL SERVER SQL BI DATA TABLEAU SOFTWARE TALEND
Disponible
CV Ingénieur système LINUX
Souleymane

Ingénieur système LINUX

  • PRINGY
LINUX
Je trouve un CV Cloudera
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des emplois d'Irving,
freelance CLOUDERA résidant dans les Hauts-de-Seine (92)

  • Data Architect:

    Spuerkeess
    2023 - aujourd'hui

    Professionnel spécialisé dans la création d'écosystèmes, la transformation numérique, les architectures de
    data fabric et data lakehouses. Mon expertise permet aux organisations d'exploiter efficacement leurs données, favorisant ainsi
    l'innovation et la prise de décision basée sur les données, tout en mettant en œuvre les principes du Data Mesh et en assurant
    une gouvernance solide.
    Data Strategy Development: Concevoir une stratégie de données alignée sur les objectifs de transformation numérique de
    l'organisation, en identifiant les objectifs clés en matière de données et en élaborant une feuille de route pour les initiatives liées
    aux données.
    Data Integration Planning: Conception de stratégies d'intégration de données visant à simplifier le flux de données entre divers
    systèmes et plateformes, favorisant ainsi la cohérence et la disponibilité des données. Expertise confirmée dans la gestion de
    flux d'intégration de données complexes pour des pipelines de fabrication automobile, IoT et l'analyse de données en temps réel,
    tout en démontrant une solide compréhension des architectures basées sur les données.
    Cloud Data Architecture : Accompagnement dans l'évaluation, la sélection et la conception de solutions et de services de
    données basés sur le cloud pour favoriser la scalabilité, la flexibilité et l'efficacité des coûts dans un environnement numérique.
    Mon approche est alignée sur les cadres d'adoption frameworks pour garantir une intégration transparente et une optimisation.
    Lakehouse Design: Détermination de l'architecture pour la transition des data lakes et des entrepôts de données monolithiques
    vers une architecture de data fabric et lakehouse, avec une adoption claire de l'architecture Data Mesh.
    Data Mesh: Expérience avérée dans l'implémentation d'une approche décentralisée du Data Mesh, où j'ai joué un rôle clé dans
    la création d'une culture de données au sein de plates-formes de data lakehouse modernes. Expertise pratique dans la mise en
    place d'une gouvernance de données fédérées au sein d'un écosystème collaboratif de données.
    Data Governance : Implémentation des meilleures pratiques de la gouvernance des données et des procédures de gestion des
    données, y compris la data ownership, la data quality standards, et la data lifecycle management des données, le tout dans le
    but de maintenir l'exactitude des données. Création et maintenance de catalogues de données complets pour faciliter la
    découverte et le partage des données au sein de divers domaines (démocratisation des données). Élaboration de stratégies
    d'enrichissement des données visant à améliorer la qualité, la pertinence et l'utilité des données, garantissant ainsi que les
    organisations maximisent la valeur de leurs actifs de données.
    Data-driven architecture : Création d'architectures et de systèmes où les données occupent une position centrale dans la prise
    de décision et les opérations commerciales, les transformant ainsi en une force motrice au sein de l'organisation
    Architecture Diagrams & Documentations : Maintien d'une documentation exhaustive des processus d'intégration de données,
    de diagrammes de flux de données, de diagrammes d'architecture (AD), de dictionnaires de données et de catalogues, dans le
    but de faciliter le partage des connaissances et de garantir la conformité aux réglementations.

    Environnements techniques : #Data Mesh #Cloud adoption framework #Lakehouse #Cloud #Azure #Data driven architecture #Data Governance #Data Fabric #Data Modeling #Data Catalog #Ontology #Data Culture #Data sharing #Data lineage #Data Governance #CAF #Data quality #MDM
  • Cloud Data intégration project leader:

    Forvia
    2019 - 2022

    Expertise confirmée dans la conception et la mise en œuvre de solutions
    d'intégration de données visant à assurer une gestion efficace des données, leur traitement et leur analyse au sein
    d'écosystèmes de données modernes complexes. Compétence éprouvée dans l'utilisation de ressources basées sur le cloud et
    d'outils open source pour générer des data-driven insights basés sur les données, offrant ainsi aux organisations des solutions
    de données évolutives, performantes et rentables.
    Cloud Data integration & Transition: J'ai dirigé l'intégration des données dans Azure Cloud ainsi que dans différents data lakes
    et lakehouses ,Big Data. J'ai une solide expérience dans la migration des données entre plateformes, notamment de Cloudera
    CDP à Palantir Foundry, Azure Databricks et Azure Synapse Analytics.

    Data ingestion : J'ai orchestré l'ingestion en temps réel de flux de données ainsi que la création de pipelines par lots à partir de
    sources diverses et hétérogènes, notamment SAP, IoT telemetry, RDBMS, DHW, API REST, etc., en utilisant des outils tels
    qu'Azure Data Factory, Azure Event Hubs, Apache Kafka, Cloudera Flow Management CFM et Cloudera Stream Messaging CSM.
    Data Pipeline Management : Construction de pipelines de flux de données pour automatiser le déplacement de données entre
    les systèmes, garantissant des transferts efficaces et fiables pour divers cas d'utilisation critiques tels que la détection
    d'anomalies en intelligence artificielle, la gestion des nomenclatures (BOM), la prédiction des prix d'achat, etc.

    Data Mapping and Transformation : Analyse des besoins en données, mappage des sources vers les cibles et conception de
    processus de transformation des données afin d'assurer la cohérence et la qualité, avec une expertise approfondie dans les
    connecteurs de données et les protocoles pour les solutions basées sur les données et l'analyse en temps réel.

    ETL Development: Création et maintenance de processus ETL (Extraction, Transformation, Chargement) pour déplacer, nettoyer,
    transformer et préparer les données en vue de l'analyse et de la génération de rapports, en utilisant des technologies telles
    qu'Azure Data Factory, Apache Spark, Apache Nifi - Minifi, Apache Kafka, ainsi que les connexions et synchronisations de
    données avec Palantir.

    Data Quality Assurance : Développement de procédures de validation et de nettoyage des données visant à assurer l'exactitude
    et l'intégrité des données.

    Monitoring and Error Handling : Surveillance des jobs d'intégration, identification des problèmes, création de processus de
    gestion des erreurs pour une résolution rapide, et réalisation de vérifications de l'état de santé (health checks).

    Data integration for global operational databases: Implémentation de l'intégration des données pour la traçabilité en utilisant
    Azure Cosmos DB pour PostgreSQL (hyperscale) et l'optimisation des performances en mémoire pour les applications mobiles et
    web avec Azure Cache for Redis.

    Agile Project Management : Pratique de la gestion de projet Agile Scrum en utilisant Azure DevOps, assurant une exécution
    efficace du projet et un alignement sur les objectifs de l'organisation.

    Collaboration et Tests Collaboration étroite avec les équipes pour comprendre les besoins en données, réalisation de preuves
    de concept (POC) et garantie que les solutions intégrées de données répondent aux besoins commerciaux.

    Environnements techniques : #AzureCloud #Spark #PySpark #Kafka #Cloudera CDP #Cloudera CFM #Cloudera CEM #Cloudera CSM #AzureDevOps #Nifi #Minifi #Palantir #Grafana #Dataiku #PostgreSQL #AzureSynapse #Solr #Influxdb #Impala #AzureDataFactory #SQLServer #AzureSQLdatabase #ADLS2 #Hadoop #Docker #IoT #REST #DataMesh #Deltalake, #Azure Cosmos DB for PostgreSQL #Cache for Redis #Scrum
  • Senior Big Data Engineer:

    Faurecia:
    2015 - 2019

    Ingénieur Big Data avec une vaste expérience en transformation numérique des données.
    Expert dans plusieurs plates-formes de data lakehouse, incluant le traitement des données, l'ingestion et l'analyse en temps réel,
    le développement et l'optimisation de pipelines de bout en bout, ainsi que la gestion de la sécurité.

    Data Processing: Responsable de l'ensemble du processus de développement des données, y compris la préparation, le
    nettoyage et la transformation des données sur les plateformes Cloudera CDP, Azure Databricks, Azure Synapse Analytics et
    Palantir Foundry.

    Real-time Analytics : Conception de solutions d'analyse en temps réel pour les machines IoT en utilisant Azure Data Explorer et
    le langage de requête Kusto, renforçant ainsi les capacités de prise de décision.

    Data Ingestion : Gestion de données en temps réel et par lots en utilisant des outils tels que Kafka, Cloudera CFM & CEM, et
    Azure EventHub pour une gestion de données delta/append efficace, y compris la capture des modifications (CDC).

    Data Platform Management : Établir et administration des clusters Cloudera CDP et Databricks, garantissant la scalabilité,
    l'optimisation des performances, la haute disponibilité et la fiabilité.

    Data Warehousing: Utilisation d'Azure Synapse Analytics, Apache Impala, Hive et Kudu pour développer et gérer des solutions
    d'entrepôt de données pour des données structurées.

    Sécurité et conformité : Mis en place des mesures robustes de sécurité des données, des contrôles d'accès et de chiffrement
    pour assurer la conformité aux normes de l'industrie et aux réglementations.

    Data Storage Optimisation : Optimisation du stockage et de la récupération des données en gérant les métadonnées, en
    améliorant les performances des requêtes, et en mettant en œuvre des formats de stockage en colonnes tels que Parquet /
    Delta Lake pour les transactions ACID et l'historisation des données dans HDFS et ADLS.

    Migration Cloud : Migration dee la plateforme de données en production de l'on-premises vers le cloud Azure, en veillant à faire
    une transition avec une perturbation minimale.

    Data Quality Assurance : Élaboration de contrôles de qualité des données et de processus de validation visant à maintenir
    l'exactitude et la fiabilité des données.

    Monitoring and Troubleshooting : Surveillance d...

Voir le profil complet de ce freelance