Freelance SPAD : Obtenez facilement les CV que vous avez choisi

Je dépose une mission gratuitement
Je dépose mon CV

Qu'est-ce que SPAD ?

SPAD est un éditeur de logiciels spécialisés dans la gestion de la qualité des données et de leur analyse. SPAD possède deux versions : SPAD DQM (Data Quality Management) pour le contrôle et la gestion de la qualité des données et SPAD Décisionnel pour l'analyse de données, le data mining et le text mining.
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple des missions de Norbert,
freelance SPAD résidant dans le Val-de-Marne (94)

  • Fonction : Consultant Senior Data Scientist

    Banque de France
    Jan 2018 - Jan 2020

    Mission :
    Conception et développement des modèles explicatifs, prescriptifs et prédictifs du taux de règlement
    du marché financier de la Zone Euro
     Elaboration d’une typologie des acteurs du marché à travers les comptes cash dans la zone Euro

  • Fonction : Consultant senior Data Scientist

    CNAM
    Jan 2017 - Jan 2018

    Mission :
    Maquettage et développement des modèles prédictifs de fraude à l’assurance maladie
     Algorithmes et technologie : Machine Learning (Forêts aléatoires, SVM, logistique-Probit) sous
    l’environnement R/RStudio

  • Fonction : Ingénieur statisticien en Charge des études

    Groupe Crédit Mutuel Strasbourg / EPS
    Jan 2012 - aujourd'hui

    Data Mining et Econométrie.
    Missions R & D réalisées :
    - Développement des indicateurs de prévision des missions techniques SAV
    - Développement des indicateurs d’évaluation des risques de pannes sur les équipements de la télésurveillance
    - Développement des indicateurs de suivi de la performance des opérateurs téléphoniques
    - Amélioration méthodologique des études d’impact par des techniques d’économétrie
    - Amélioration du process de collecte de données pour garantir la qualité des études statistiques
    - Développement du modèle de prévision en temps réel de charge de l’activité des téléconseillers (Appels sortants/entrants)
    - Développement du modèle de prévision des sinistres chez les clients télé-surveillés
    - Développement du modèle de scoring pour le ciblage des prospects de la téléassistance
    - Développement du modèle d’attrition (résiliation) des clients de la télésurveillance.

    Compétences et techniques mises en œuvre :
    - Modèle de survie de vie :
    o Estimation de la probabilité instantanée des pannes sur les matériels de télésurveillance avec traitement de la censure dans le modèle de Kaplan-Meier
    o Loi de Weibull pour l’estimation du délai d’attrition par segment de clients
    o Evaluation des risques de défauts en fonction du type et l’environnement des matériels : Modèle de survie généralisé à hasard proportionnel de COX.

    - Techniques du Data Mining :
    o Exploitation des Big Data de sources variées
    o Modélisation prédictive par apprentissage supervisé : Réseaux de neurones, Arbres de décision, Modèle de régression par les splines adaptatives (MARS, PolyMARS), Forêts aléatoires et Séparateurs à vaste marge (SVM), les modèles de régression logistique binaire et multinomial et KNN (Plus proches voisins).
    o Modélisation par apprentissage non supervisé : ACP, AFC, AFCM, Classification ascendante hiérarchique
    - Maîtrise des requêtes de haut niveau : SQL/ORACLE, SQL/SAS Enterprise Guide et SQL/R.
    - Gestion de flux de données : IBM SPSS MODELER 17.1

  • Fonction : Attaché de recherche et d’enseignement en Post-doctorant Chargé d’études statistiques

    Ecole polytechnique de Lyon et CNRS/délégation de Grenoble
    Jan 2010 - Jan 2011

    Post-doctorant (ATR) : Chargé d’études statistiques
    Mission de recherche au CNRS
    - Etude des facteurs d’exposition et de vulnérabilité des personnes sur le réseau routier du département du Gard en période d’inondation.

    Mission d’enseignement à l’Ecole polytechnique de Lyon :
    - Statistiques et informatique décisionnelle pour l’ingénieur
    - Modélisation statistique des procédés industriels (MSPC) : Estimation des paramètres de contrôle
    o Cartes de contrôle aux mesures
    o Cartes de contrôle aux attributs

    - Travaux pratiques :
    o Méthodes exploratoires d’analyse des données : ACP, AFC, AFCM et AFD
    o Séries chronologiques en 4ème et 5ème années
    - Encadrement de projets de 5ème année à l’Ecole polytechnique de Lyon.
    Logiciels utilisés : SAS 9.2, IBM SPSS MODELER 17.1, STATISTICA 10, R SPAD

  • Fonction : Ingénieur Statisticien et Data Mining

    CDD IFSTTAR - Institut Français des Sciences et Technologies des Transports, de l’Aménagement et Réseaux
    Jan 2006 - Jan 2010

    Projet :
    Développement des modèles statistiques de prévision des trajectoires d’avions et de charge de l’espace aérien en nombre d’avions.
    Les résultats ont fait l’objet d’une soutenance de thèse en mathématiques appliquées soutenue en octobre 2010 et d’une publication scientifique à la Revue des Nouvelles Technologies.

    Missions réalisées :
    - Première classe de modèles proposés : Techniques d’apprentissage automatique supervisé
    o Classification par arbres de décision et de régression (CART)
    o Forêts aléatoires (random forests, Bootstrap)
    o Séparateur à Vaste Marge (SVM)
    - Deuxième classe de modèles proposés : Techniques de régression
    o Régression Multivariée par les Splines Adaptatives (MARS)
    o Régression de type PLS 1 et sur composantes principales – RCP
    - Développement et validation d’un indicateur d’influence du vent sur les avions en vol

    Compétences et logiciels :
    - Techniques et outils de fouilles des données (Data mining)
    - Exploitation des données multi-sources : Trafic aérien, météo et performances des avions
    - Construction des variables synthétiques pour la mise en place des modèles de prévision
    - SAS 9, MATLAB, SPAD 9, ORACLE.

  • STAGE GATE

    Groupe d’Analyse et Théorie Economique à l’Université Lyon 2
    Jan 2006 - aujourd'hui

    Projet :
    Evaluation économétrique de l’impact du stigmate du chômage sur les salaires et leur croissance. Source des données : Ministère de l’emploi et de la solidarité et la DARES

    Missions réalisées :
    - Evaluation des déterminants de la trajectoire salariale par modèle de régression logistique avec correction du biais de sélection par la méthode d’Heckman et Robb (Ratio de Mills)
    - Estimation de la durée du chômage en fonction des caractéristiques individuelles et des politiques de l’emploi par le modèle général de durée de vie : Modèle à hasard proportionnel de Cox
    - Validation des modèles économétriques multi-niveaux par genre (H/F) avec le test de Chow
    - Evaluation des effets du capital humain sur la croissance salariale et le retour à l’emploi

    Compétences et techniques : - Exploitation des données longitudinales de panel et modèles économétriques Logiciels : SAS 9.2, R, SPSS et STATA.
  • STAGE ATMO, Société de surveillance de la qualité de l’air en Poitou-Charentes
    Jan 2005 - aujourd'hui

    Mission réalisée :
    - Développement d’un modèle statistique de prévision de l’ozone dans la région Poitou-Charentes.
    - Réduction des coûts d’investissements sur les appareils de mesure d’O3, NOX et particules fines

    Techniques et compétences : - Modèles de régression générale - Modèle de géostatistique (Krigéage, Co-Krigéage) pour la cartographie de la pollution Logiciels : R sous Linux, EXCEL et ISATIS.
  • STAGE INSEE - Institut national de statistique et des études économiques
    Jan 2004 - aujourd'hui

    Mission :
    Analyse de l’impact du lien de parenté du chef de ménage sur les activités domestiques des enfants. Données d’enquête ménage du Ghana 2000 réalisée par le Bureau international du travail.

    Compétences et techniques mises en œuvre : - Les techniques exploratoires d’analyses multidimensionnelles des données : ACP (Analyse en composantes principales), AFCM (Analyse factorielle des correspondances multiples) - Validation d’un indicateur de mesure de l’intensité de l’activité domestique des enfants au Ghana. Logiciels : SAS, R, EXCEL et SPAD.
  • STAGE Laboratoire ARC’ANTIQUE de Loire Atlantique – Nantes
    Jan 2004 - aujourd'hui

    Mission :
    Classification des matériaux archéologiques en fonction de la composition chimique
    Techniques et compétences mises en œuvre :
    - Classification ascendante hiérarchique (CAH) : Simple et sur composantes principales
    Logiciels : R et EXCEL.

  • CDI Ministère de l’éducation nationale
    1999 - 2003

    Missions :
    - Enseignement des mathématiques/statistiques et animateur pédagogique du département.

Voir le profil complet de ce freelance

Les derniers freelances SPAD

CV Chef de projet AGILE
Oualid

Chef de projet AGILE

  • COURBEVOIE
Agile Project Management Office MOA
Disponible
CV Data Analyst
Nagette

Data Analyst

  • TORCY
SQL Data SAS Microsoft Power BI Python Modélisation de Langage Qlik
CV Chargé de ciblage campagnes CRM
Bougouma

Chargé de ciblage campagnes CRM

  • HAUBOURDIN
Selligent Adobe Campaign Salesforce Marketing Cloud SQL Snowflake SAS SQL Server Dataiku
CV Géomaticienne
Margot

Géomaticienne

  • BETTON
SQL SIG Python R GEOSERVER
CV Data Analyst DATA
Souad

Data Analyst DATA

  • LYON
Data Gestion multi-projets Salesforce Gestion d'équipe SQL COUPA
CV DevOps LINUX
Abderahman

DevOps LINUX

  • LYON
Java Linux DevOps Docker CI/CD GitLab Ansible Jenkins Kubernetes
Bientôt disponible
CV Consultant ORACLE
Jean Pierre

Consultant ORACLE

  • SÉAILLES
Oracle
CV Data Analyst
Boubacar

Data Analyst

  • LIEUSAINT
SQL SAS SQL Server Microsoft Power BI Google Cloud Platform Python Jira
CV Data / Business Analyst
Hakim

Data / Business Analyst

  • CARRIÈRES-SOUS-POISSY
Data SQL Jira Microsoft Power BI SAS Oracle Dataiku Tableau Software Google Cloud Platform Alteryx
CV Data Analyst EXCEL
Ndeye Fatou

Data Analyst EXCEL

  • ALLEVARD
Excel
Je trouve mon freelance SPAD

Les nouvelles missions SPAD

🚀 Consultant Data Scientist / Machine Learning – Environnement GCP & MLOps

Big Data BigQuery Microsoft Azure Machine Learning DataRobot MLOps
ASAP
75 - PARIS
86 mois
Voir la mission

Chef de Projet Data GCP

Google Cloud Platform BigQuery SQL
01/01/2026
75 - PARIS
12 mois
Voir la mission

Data Engineer Dataiku & Azure - Clermont-Ferrand

SQL Python Azure Dataiku Databricks
05/01/2026
63 - CLERMONT-FERRAND
12 mois
Voir la mission

Data engineer

SQL Python Power BI Dataiku Azure Data Factory
ASAP
63 - Clermont-Ferrand
3 mois
Voir la mission

TechLead Data

Google Cloud Platform BigQuery Tableau Kafka
ASAP
79 - NIORT
6 mois
Voir la mission

Tech Lead Data Dataiiku

Data ODI Big Data Microsoft Power BI Dataiku
ASAP
79 - NIORT
36 mois
Voir la mission

développeur Angular Java SINEQUA

Java SINEQUA Angular
ASAP
92 - NANTERRE
12 mois
Voir la mission

DATAVIZ

Data Dataviz Microsoft Power BI Dataiku Tableau
ASAP
75 - PARIS
12 mois
Voir la mission

Business Analyst ABA et Sinequa

SINEQUA
ASAP
75 ET remote
3 mois
Voir la mission

Scrum Master Data

Google Cloud Platform Cloudera
ASAP
75 - Paris
6 mois
Voir la mission
Je trouve ma mission SPAD