CV RStudio : Nos nouveaux indépendants identifiés

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils RStudio connectés

CV Data Analyst RStudio
Abdoulaye

Data Analyst RStudio

  • BURES-SUR-YVETTE
RStudio Excel Data SAS
Disponible
CV Data Analyst/ Data Scientist RStudio Python
Alice

Data Analyst/ Data Scientist RStudio Python

  • PARIS
RStudio Python SAS
CV Chef de projet SECURITE
Nicolas

Chef de projet SECURITE

  • DESHAIES
Linux IAM Sécurité DevOps Azure BI
Disponible
CV Data Engineer TALEND / MSBI / Power BI / Azure Cloud
Dmitri

Data Engineer TALEND / MSBI / Power BI / Azure Cloud

  • Neuilly-sur-Marne
SSIS Talend DI SQL Java C# Microsoft Power BI Git DevOps Azure Data Factory Big Data
Disponible
CV Data Analyst
Siham

Data Analyst

  • PARIS
SQL Python Excel Java Scala BI Microsoft Power BI Data Big Data Azure
Disponible
CV Consultant Data Engineer / Data Analyst
Abdoulaye

Consultant Data Engineer / Data Analyst

  • Champigny sur Marne
Teradata SQL BI Dataiku SAP BO SAP BI Informatica Python Agile Pandas
Disponible
CV Chef de projet IA/DATA
Fatemeh

Chef de projet IA/DATA

  • LE PERREUX-SUR-MARNE
Oracle Project Management Office SQL Agile Windows Business Objects SAFe Apache Hive Python Teradata
Disponible
CV Consultant AGILE, Data Scientist, ML/DL/GenAI (RAG). Data Quality
Bruno

Consultant AGILE, Data Scientist, ML/DL/GenAI (RAG). Data Quality

  • Boulogne-Billancourt
Agile Scrum TCP / IP HTTP CORBA Java Oracle MySQL Cassandra
Disponible
CV Développeur C#, SQL, .NET, REACT spécialisé en finance
Bilel

Développeur C#, SQL, .NET, REACT spécialisé en finance

  • SAINT-GRATIEN
React.js SQL C# React Native
CV Chef de projet
Amir Amine

Chef de projet

  • VILLIERS-SUR-MARNE
ArcGIS Oracle Excel SQL SIG Python
Je trouve un CV RStudio
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Sanjiev,
freelance RSTUDIO résidant dans la Seine-Saint-Denis (93)

  • Data Engineer

    BNP Paribas
    Jan 2018 - aujourd'hui

    Construire un Data Hub permettant l’acquisition de flux et de stocker de bout en bout toutes
    les données relatives aux transactions bancaires : virements domestiques, virements
    internationaux, prélèvement, monétique, transactions.
    Participation dans différentes phases du projet depuis la définition de l’architecture technique,
    la qualification des exigences techniques basées sur des User Stories, à la réalisation ainsi
    qu’au suivi de développements de l’équipe.
    • Caractériser des solutions techniques à la fois transverse et propres aux users stories.
    • Prédéfinir l’architecture de la gestion des flux de données.
    • Conceptions et développements d’une application de type Extract-transform-load
    (ETL), gérant principalement les processus d’ingestion, manipulation (Spark), mises en
    correspondances (mappage) des données et exposition des données.
    • Ingestion de données (Serveur de collecte, MQSeries, Kafka Connect, Kafka)
    • Enrichissement des données (Flink)
    • Indexation des données (Elasticsearch)
    • Exposition des données (Topic Kafka, Hive, Kibana, Angular)
    • Stockages et extraction des données (Cassandra, HDFS, Spark)
    • Revue de code et vérification des métriques (Jenkins, Sonar) afin d’assurer la qualité
    du code.
    • Mise en place de documents techniques et de bonnes pratiques en ligne, à disposition
    des équipes et nouveaux arrivants (Confluence).

    Environnement technique : JAVA 8, Maven 3.6.3, Jenkins, sonarQube, Jira, Git, GitLab, Nexus repository, Distribution Hortonworks d’Hadoop, MQSeries, Kafka, Kafka Connect, Spark, Flink, ElasticSearch, Kibana, Swagger, Mokito, JUnit.
  • Data Analyst

    Bosch
    Jan 2018 - Jan 2018

    Au sein du pôle IoT Analytics, suite à la mise en place des fonctionnalités contrôle moteur des
    véhicules automobiles, différents rapports de qualité du code sont générés. Ce projet avait
    pour but d’analyser ces rapports issus de la chaîne d’intégration continue afin de détecter les
    erreurs de codage en amont.
    ● Conception et déploiement d’une architecture distribuée de traitement de données Big Data
    (Hadoop, Sqoop, Spark, R/RStudio)
    ● Analyse des Rapports de Qualité du code (R, Spark)
    ● Visualisation des données (Power BI)

    Environnement technique : Python, Hadoop, MySQL, Sqoop, Spark, R/RStudio, Power BI
  • UNIVERSITY OF NEVADA, Las Vegas, États-Unis – Data Mining
    Jan 2017 - Jan 2017

    Au sein du Centre de Développement et Recherche de l’University of Nevada, analyser des
    habitudes de vie, les moyens de transport utilisés par les habitants de Los Angeles & les causes
    des accidents de la route.
    ● Ingestion de données et nettoyage des données (CSV),
    ● Réalisation des analyses descriptives et prédictives (R/RStudio Server)
    ● Machine Learning : segmentation, clustering, modèles de régressions logistiques dans le but
    de prédire le temps de travail des Angelenos
    ● Visualisation des données (ggplot2)

    Environnement technique : R/RStudio Server, ggplot2
Voir le profil complet de ce freelance