CV AIRTABLE : Sélectionnez rapidement les meilleurs profils

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils AIRTABLE connectés

CV Consultant IT : Senior Developper / Tech Lead / Technical PO
Redouane

Consultant IT : Senior Developper / Tech Lead / Technical PO

  • LYON
PHP TALEND AIRTABLE ELK GIT API RESTful SYMFONY ELASTICSEARCH DATA PYTHON
Disponible
CV Développeur fullstack Angular/Symfony
Clément

Développeur fullstack Angular/Symfony

  • LA MÉZIÈRE
HTML5 CSS Angular SYMFONY TypeScript JAVASCRIPT PHP MYSQL AGILE
Disponible
CV Développeur JAVASCRIPT
Anna

Développeur JAVASCRIPT

  • LA TESTE-DE-BUCH
CSS HTML Github JAVASCRIPT REACT.JS React Native MONGODB BUBBLE FIGMA Trello
Disponible
CV Product Owner / Product Manager
Maher

Product Owner / Product Manager

  • SCEAUX
JIRA API RESTful TESTLINK AGILE CONFLUENCE AIRTABLE SQL NoSQL
Disponible
CV Développeur BUBBLE
Izu

Développeur BUBBLE

  • CHÂTILLON
BUBBLE AIRTABLE NOTION ZAPIER WEBFLOW
Disponible
CV Urbaniste SI MEGA HOPEX
Wilson

Urbaniste SI MEGA HOPEX

  • PARIS
MEGA HOPEX DATA AIRTABLE Cloud AWS TOGAF
Bientôt disponible
CV Développeur JAVA
Mustapha

Développeur JAVA

  • THIONVILLE
JAVA SPRING Microservices
Disponible
CV Développeuse Web
Nathalie

Développeuse Web

  • CAEN
CSS HTML5 BUBBLE WORDPRESS JAVASCRIPT PHP PHP LARAVEL SQL PYTHON REACT.JS
Bientôt disponible
CV Professeure et experte cybersécurité  - Product owner
Sarah

Professeure et experte cybersécurité - Product owner

  • TOULOUSE
Cybersécurité LINUX Cloud AWS
Disponible
CV Chef de projet CRM
Philippe

Chef de projet CRM

  • PARIS
CRM PACK OFFICE SAP ERP AGILE AIRTABLE
Disponible
Je trouve un CV AIRTABLE
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences d'Alexandre,
freelance AIRTABLE résidant dans l'Isère (38)

PARCOURS PROFESSIONNEL

03.2022 –
09.2022 Agorize – Paris, France
Développeur / Data Analyst
Stage de fin d’études
• Création de bases de données sur Airtable à destination des différentes équipes en interne :
récolte des données par les API Google, Zoho, Hubspot, Facebook, LinkedIn (et autres) via des
scripts automatisés.
• Pour les projets clients : extraction de données via notre API pour former des jeux de données
servant à créer des reporting pour nos clients sous forme de dashboard.
• Mise en place d’automatisations pour assurer la mise à jour régulière des données utilisées
par les équipes en interne et pour les dashboard des clients.
• Participation à un benchmark de solutions de Business Intelligence : Tableau, Power BI, Whaly,
Preset, Metabase.
Technologies : Apps Script, Looker, Airtable, PostgreSQL, Python, Big Query, Make, Jira.

05.2021 –
08.2021 Cassini Conseil – Paris, France
Développeur cartographie interactive
Stage de fin de 4ème année
• Création d’une plateforme de cartographie pour représenter le prix de l’immobilier en Ile-deFrance en fonction des axes de circulation (GPE, Metro, Tramway…) : frontend et un prototype
d’espace admin pour ajouter ses jeux de données.
• Réalisation d’un dashboard « from scratch » pour l’Agence nationale de la sécurité des
systèmes d'information (ANSSI). Choix des bibliothèques, implémentation et documentation
du code. L’architecture est aujourd’hui encore en place et à permis de faire passer un cap à la
cartographie.
• Rédaction d’un livre blanc expliquant mon code à destination des futurs développeurs
poursuivant le travail de cartographie chez Cassini.
Technologies : Javascript (Leaflet.js, DC.js, D3.js), HTML, CSS, Bootstrap, Python, Excel

Projets scolaires

09.2021 –
03.2022 Erasmus – Madrid, Espagne
Projet de Machine Learning : Prédiction de retards de vol
L’objectif de ce projet était d’arriver à prédire des retards de vol sur un dataset contenant l’historique
sur une année des vols aériens de nombreuses compagnies. Le travail a été réalisé en équipe de 3
personnes. Nous avons utilisé Pyspark pour faire l’exploration de données, le data processing, le feature
engineering ainsi que l'entraînement des modèles et les prédictions. Les algorithmes utilisés ont été :
Linear Regression et Random Forest Regressor. Pour l’optimisation des paramètres des algorithmes,
nous avons employé le système de GridSearchCV. Ce projet m’a permis de prendre en main
l’écosystème AWS avec l’utilisation de S3 pour le stockage et d’un cluster sur Amazon EMR pour
l’entrainement et les prédictions des modèles. Cliquez ici pour accéder à notre code sur Github.
Technologies : Pyspark, Jupyter Notebook, AWS (EMR, S3), Git, Scikit-Learn, Seaborn, Matplotlib

Projet de data science sur la Covid-19
L’objectif de ce projet réalisé en équipe de 4 personnes et dans le cadre du cours de « Data Processes »
était de proposer un plan d’action pour catégoriser les patients atteint de la Covid-19 pour les orienter
vers le bon service hospitalier. En plus d’être un projet de data science avancé (bivariate analysis,
survival curves, predict the survival…), ce travail nous a demandé d’élaborer un projet d’entreprise
détaillé et par conséquent, la rédaction d’un business plan. Voici le lien vers le rapport de notre projet :
********?id=1WhdSul_bCxeFmoi63878_bZA1v8RP9FZ
Technologies : Google Colab, Pandas, Seaborn, Scikit-Learn, Knime, Gantt

2021 Polytech – Annecy, France
Projet de fin de 4ème année
Création d’une application d’achat et de vente de NFT avec la blockchain Avalanche (AVAX). Le travail
a été réalisé en équipe de 8 personnes. Nous avons codé un système de vente aux enchères via la
rédaction de smart contracts en langage Solidity. Le backend était en Node.js, la base de données
MongoDB Atlas, le code en TypeScript. Le frontend en React et notre API codé avec Express. Les NFT
proposés étaient des tableaux créés à partir d’un transfert de style généré grâce à des réseaux de
neurones convolutifs (CNN) avec TensorFlow.
Technologies : Git, Node.js, Python, AWS, MongoDB Atlas, TypeScript, React, Express, TensorFlow, Singularity,
Trello, Notion

Voir le profil complet de ce freelance