Gilles - Consultant C++

Ref : 140924D006
Photo de Gilles, Consultant C++
Compétences
Expériences professionnelles
  • En CDD de mars 2014 à septembre 2014: Chef de projet au sein de la société Valoritech (1 personne) à Montréal-Québec.

    Spécifications fonctionnelles et techniques d'une application Web de valorisation du potentiel humain.

    En CDI de novembre 2013 à janvier 2014 : Consultant scientifique en financement de l'innovation au sein de la société Artimia (société de services – 25 personnes) à Malakoff.
    Rédaction de dossiers Crédit-Impôt-Recherche.

    Réalisation d'états de l'art sur les systèmes d'aide à la décision pour les ressources humaines et pour les télécommunications.
    Rédaction des dossiers sous Latex.

    En CDI de septembre 2012 à octobre 2013: Ingénieur R&D Traitement Automatique du Langage au sein de la sociétéOnyme à Lille (Editeur - 7 personnes).

    Spécifications et développement d'un moteur d'analyse automatique
    d'opinions.
    Etude bibliographique: Opinion Mining (mots à polarité, intensité, inversion de polarité, engagement, objet évalué,
    émetteur d'une opinion, relations de discours entre opinions,...), théories de l'évaluation et de modélisation des émotions,
    analyse syntaxique, tutoriels Nooj, apprentissage semi supervisé par bootstrapping, ressources linguistiques.
    Etudes, développements et tests:
    Modèles linguistiques: constitution de lexiques (mots à polarité, inverseurs de polarité, objets évalués -typiquement des produits et caractéristiques produit,...) par extraction / fouille de texte (à partir de corpus ou sur le web),par extension via une ressource sémantique générale (WordNet par ex), et par récupération/traduction (WordNetAffect, SentiSense,...), recherche de ressources sémantiques (synonymie, hyperonymie,...), d'analyseurs morphologiques et syntaxiques, de correcteurs orthographique et grammatical, traitement du langage texto, recherche des objets évalués et entités nommées, extraction de collocations (mot à polarité + objet évalué, relations Nom-Verbe,...), élaboration de patterns syntaxico-sémantiques (avec Nooj).
    Classification des opinions par apprentissage semi-supervisé (modèles mathématiques et linguistiques combinés).
    Programmation en Java 7 (NetBeans sous Linux KDE Ubuntu).
    Encadrement d'une équipe de 3 ingénieurs en Informatique et en Traitement Automatique du Langage (TAL).

    En CDD de janvier à mai 2012: Ingénieur R&D au sein de la société Novasecur (Éditeur – 5 personnes) à Paris.

    Etude de modèles d'IA et développement d'algorithmes en C++ pour la détection de fraude et la gestion des risques.
    Etude et tests de modèles de Data-Mining : préparation des données (réduction de dimension, valeurs aberrantes,...),
    méthodes mathématiques de classification (apprentissage supervisé), de clustering (apprentissage non supervisé) et de prédiction de variables continues (régression), utilisation du logiciel Weka (classification, régression, clustering, règles d'association), programmation en C++ (sous CodeBlocks) de la méthode de clustering «PSO based Fuzzy C-Means».

    En CDI de janvier à octobre 2011 : Ingénieur d’études au sein de la société Expertise Informatique (SSII – 130personnes).

    Mission de 10 mois en tant qu'ingénieur IA à la Banque de France de Poitiers
    : maintenance corrective et évolutive d'une application de diagnostic d'entreprise (système expert - logique d'ordre 0+, chaînage mixte).
    Programmation en C++ (interface Visual Studio 2008) : nouvelles fonctionnalités et interfaces graphiques (MFC,librairie graphique Stingray, Standard Template Library - STL).
    Bases de données (SQL Server 2005) : modélisation, requêtes Sql, stockage dans la base et chargement depuis la base.
    Scripts Xml (gestion de la présentation et de conditions pour l’édition de rapports Html), développement Html / Css.
    Tests: unitaires, intégration, non-régression, recette.

    En CDD de juin à septembre 2010 : Ingénieur de recherche "tests d'un logiciel de compréhension du langage naturel sur un corpus" au sein de la société OWI-Tech (Éditeur - 7 personnes) à Chatenay-Malabry.

    Programmation en C++ (interface CodeBlocks) : traitements de fichiers Xml (corpus de textes) avec utilisation d'un parseur Xml, interface graphique correspondante (wxFormBuilder), utilisation de la STL.
    Création de tables et de requêtes au sein d’une base de données (
    MySql).
    Analyse des performances avec le logiciel AQTime, notamment au niveau des requêtes Sql.
    Tests sur un corpus de textes, modification des paramètres d'influence.

    En CDD de novembre 2008 à avril 2009 : Ingénieur Projet "Dialogue Homme-Machine" au sein de la société AS ANANGEL (Éditeur - 7 personnes) à Paris.

    Rédaction de dossiers de réponse à appels à projets financés (ANR, FEDER, FUI).
    Aide au dépôt d'un brevet relatif à un avatar de l'utilisateur.
    Étude et audit de la technologie de dialogue, proposition d'améliorations.
    Traduction anglais → français des ressources sémantiques (règles d'identification de catégories sémantiques).
    Étude bibliographique sur la modélisation du dialogue homme-machine.

    En CDI de janvier 2007 à octobre 2008: Ingénieur R&D au sein de la société EDITIONS-PROFIL (Éditeur - 60personnes) à Montrouge.

    Utilisation des technologies TAL afin de catégoriser des pages Web (en français et anglais)
    dans le cadre d’un logiciel de filtrage (parental et entreprise). Développement en C# (interface VisualStudio 2005).
    Étude bibliographique : apprentissage automatique de classes (SVM, Rocchio, Bayésien naïf, perceptronmulticouches, système de règles/frames, KNN, arbres de décision, LSI), sélection des mots pertinents à partir d’un
    corpus (Document Frequency, Chi2, Information Gain, Mutual Information), représentation vectorielle d’un texte (TF-IDF, thésaurus de concepts,...), réduction de l'espace (LSI, word clustering basé sur la synonymie et/oul'hyperonymie,...), prise en compte du contexte (collocation, cooccurrence,...), mesures de similarité entre 2 documents,prétraitements (suppression des “mots vides”, lemmatisation,...), prise en compte de la structure de la page Html.
    Développement en C# : représentation TF-IDF des textes, création automatique de dictionnaires de mots pertinents
    (Document Frequency puis Chi2) pour chaque catégorie et pour 4 balises Html (description, mots clés, texte, liens),
    apprentissage des catégories par arbres de décision (algorithme C5 avec
    boosting - R.Quinlan) pour les 4 balises Html,recherche et généralisation d'expressions à partir de mots pertinents, règles utilisant divers indices (classes d'expressions
    généralisées, structure du document web (rubriques, boutons,...), mots contenus dans l'URL,...), mise en œuvre de la sémantique interprétative de F.Rastier pour la catégorie “racisme”, fusion des décisions intermédiaires.
    Constitution de bases d'exemples et de contre-exemples, apprentissages, tests et évaluation.
    Encadrement dingénieurs stagiaires en informatique (recherche et généralisation d'expressions) et de traducteurs(catégorisation multilingue : allemand, espagnol, italien).
    Résultat : logiciel «Parental Filter» classé 1er a test «Filtra» organisé par l'association Action Innocence.

    En CDD de janvier 2004à mai 2005 : doctorant au LAAS-CNRS (500 personnes) à Toulouse.

    Coopération et évaluation cognitive d’agents artificiels pour la supervision d’un réseau hydraulique.
    Étude des modèles classiques de l’activité cognitive de l’opérateur de supervision.
    Développement en langage C à partir d'un simulateur (interface LabWindows) de trois types d’agents artificiels:
    Raisonnement qualitatif: perception qualitative, graphe causal, prédiction qualitative.
    Raisonnement par classification: apprentissage d’actions à partir d’exemples (logiciel Lamda-CNRS).
    Raisonnement à partir de cas: définition et indexation des cas, recherche de cas similaires (mise en correspondance entre deux graphes), apprentissage (par accumulation, par l’erreur et par généralisation).
    Évaluation cognitive des agents artificiels : détermination de la cohérence d’une action d’un opérateur humain avec le comportement d’un agent, et reconnaissance de l’intention associée à cette action, selon une approche basée sur la logique floue. Développement en langage C.
    Étude de la coopération entre agents artificiels.

    En CDD d’octobre 2002 à décembre 2003 :agent contractuel de recherche au LAAS-CNRS à Toulouse, en collaboration avec le groupe SNECMA.

    Diagnostic et conduite sécuritaire d’un moteur d’aviation civile (système dynamique non linéaire).
    Développement sous Matlab-Simulink d’une méthode de détection et localisation des défaillances de capteurs,basée sur la prédiction des valeurs des capteurs (modèle statistique auto régressif ARX). Comparaison avec une méthode de prédiction basée sur les réseaux connexionnistes. Tests sur un ensemble de scénarios.
    Apprentissage et reconnaissance du type de défaillance par classification: adéquation probabiliste sur chaque attribut
    du vecteur d’entrée et agrégation floue sur l’ensemble des attributs (logiciel Lamda - CNRS).

    En CDD de décembre 2001 à octobre 2002: agent contractuel de recherche au sein du Laboratoire d’Automatique

    Mécanique et Informatique industrielles et Humaines (LAMIH-CNRS - 200 personnes) à Valenciennes, en collaboration avec la société ACTEOS (Éditeur - 100 personnes) à Roubaix.
    Étude de technologies d’optimisation et de leur application au développement d'un logiciel d'optimisation des tournées de véhicules prenant en compte diverses situations de transport.
    Étude bibliographique: Vehicle Routing Problem, Traveling Salesman Problem, Programmation Par Contraintes
    (PPC) en nombres entiers, méta-heuristiques (recherche Tabou, algorithmes génétiques, recuit simulé,...).
    Spécifications fonctionnelles et techniques.

    En CDI de novembre 2000à octobre 2001: ingénieur logiciel au sein de la société PROLOGIA (Éditeur - 20 personnes) à Marseille.

    Développement en Java(interface Visual Age) de fonctionnalités d'un progiciel de planification du personnel.
    Connexions avec des bases de données Access (driver Jdbc-Odbc) et Oracle (driver Jdbc).
    Algorithmique: optimisation de processus (affectation des horaires, planification des repos, affectation des tâches)sous contraintes (réglementations, charges de travail, qualifications) par la méthode «depth first search».
    Réalisation d’une interface graphique (package Awt).
    Étude bibliographique : Prolog, PPC en nombres réels.

    Stages2000: Stage de 4 mois au sein du LAMIH-CNRS à Valenciennes.

    Résolution de problèmes de grande taille en programmation linéaire (variables réelles et/ou entières).
    Étude bibliographique(méthodes de génération de colonnes, décomposition de Dantzig-Wolfe, dual Lagrangien,
    Branch & Price, Branch & Cut,...), et développement en langage C sous Unix d’une relaxation Lagrangienne d’un
    programme linéaire en variables binaires avec utilisation de la bibliothèque CPLEX-ILOG.

    2000 : Projet de fin d'études dans le cadre du DESS à l' ISTV (Valenciennes).

    Programmation en langage C sous Unix de l'algorithme du Simplex en variables bornées

    1997: Stage de 6 mois au sein de la société SAFEGE (bureau d’études – 750 personnes) à Poissy.

    Schéma directeur d’assainissement des eaux usées et pluviales - principes et études de cas.
    Analyse de l’existant, campagne de mesures, modélisation informatique d’un réseau et simulations, proposition de solutions d’aménagements, simulations financières, rédaction des rapports d’étude.

    1993: Stage de 3 mois au CEMAGREF (centre de recherche – 1000 personnes) à Aix-en-Provence.

    Étude des possibilités d’augentation de la capacité de stockage des barrages équipés d’un déversoir, grâce à des hausses effaçables en cas de crue pour garantir la sécurité de l’ouvrage.
    Analyse statistique des pluies et développement en Fortran sous Windows d’un modèle de simulation de pluies journalières. Modélisation informatique de la transformation pluie-débit et du comportement du barrage.
    1992: Stage de 2 mois au BCEOM (bureau d’études – 500 personnes) à Montpellier.
    Développement en Fortran sous Windows de programmes de calculs d’hydraulique fluviale. Modélisation informatique d’un canal d’évacuation des eaux pluviales et d’un bassin d’orage

Études et formations
  • Formation

    2004/2005: Doctorat option Intelligence Artificielle (IA) de l’Institut National des Sciences Appliquées de Toulouse
    (INSA), préparé au Laboratoire d’Analyse et Architecture des Systèmes (LAAS-CNRS) à Toulouse. Thèse soutenue le 23 mai 2005, mention très honorable.

    1999/2000: DESS Compétence Complémentaire en Informatique - Informatique Décisionnelle
    de l’Institut des Sciences et Techniques de Valenciennes (ISTV): major de promotion.

    1996/1997: Mastère Spécialisé Eau Potable et Assainissement de l’École Nationale du Génie de l’Eau et de l’Environnement de Strasbourg (ENGEES): major de promotion.

    1990/1993: Ingénieur hydraulicien option Ressources en Eau et Aménagements de l’École Nationale Supérieure d’Hydraulique et de Mécanique de Grenoble (ENSHMG).

    1987/1990: Classes préparatoires: Mathématiques Supérieures et Mathématiques Spéciales section P’

    Connaissances
    Langues :
    Anglais: courant ;
    Allemand: notions.

    Informatique et logiciels :

    Algorithmique et structures de données complexes: listes, arbres, graphes, dictionnaire,...
    Langages de programmation : C, C#, C++, Java, Python, Prolog, Pascal, Fortran, Assembleur, Caml.
    Langages de représentation : Xml, DTD, Xml Schema, XSLT, XPath, Html, Css.
    Systèmes d’exploitation: Windows, Unix. Linux Ubuntu.
    Principes d'une base de données relationnelles: modèle “entité - relation”, algèbre relationnelle, requêtes Sql.
    Logiciels de gestion des bases de données relationnelles : Oracle, MySql, SQL Server.
    Logiciels : mathématiques et modélisation de systèmes (Matlab-Simulink,, Cplex-ILOG), classification et statistiques(Statlab , Weka, Lamda-CNRS), induction d’arbres de décision en logique des prédicats (FirstClass-ISTV, C5), Excel,
    Word, Powerpoint, Access, analyse de performance d'un programme (AQTime).
    IDE : CodeBlocks (C++), LabWindows (C), VisualStudio (C#, C++), VisualAge (Java), NetBeans (Java).
    GUI :wxFormBuilder (C++), MFC (C++), Awt (Java).
    Outil de gestion des versions : Tortoise SVN.
    Modélisation, architecture: Cycle en V, MVC, DAO, Uml, Sasd, Sadt, réseaux de Pétri, Merise, diagramme des
    classes.
    Web sémantique : RDF, RDF Schema, OWL, SPARQL, Sérialisation (Xml, N3),...
    Outils/Ressources linguistiques: lemmatisation / POS tagging (MeltTagger, TreeTagger,...), analyse syntaxique
    (robuste, complette vs. partielle), analyse syntaxico-sémantique (Supple, Attempto Controlled English, Connexor),extraction de terminologie ou de regroupements conceptuels (Ana, Acabit, Lexter, Fastr, Exit, Upery, Asium, Lexiclass,
    Sres, KnowItAll, TextRunner,...), ontologies/dictionnaires généraux/ressources sémantiques (WordNet, VerbNet,Framenet, Verbaction, Derif, Delaf, TLFi, Freebase, DBpedia, Odp, Volem, Wiktionnaire,...), dictionnaires de synonymes/antonymes, connaissances de bon sens (CYC, ConceptNet,...), WEKA, NOOJ, framework GATE,...
    Aide à la décision (Mathématiques, Intelligence Artificielle et TAL) :
    Classification: reconnaissance de la catégorie d’un exemplaire à partir d'exemples (numériques ou symboliques)issus de bases de données/corpus de textes/pages web, après un éventuel apprentissage (supervisé vs. semi supervisé vs.
    non supervisé, organisation hiérarchique ou à plat) de concept: espace des versions, réseaux connexionnistes, Support
    Vector Machines, méthodes probabilistes (Lamda-CNRS, arbres de décision, réseaux bayésiens), classification dans une hiérarchie de frames (KL-ONE, SHIRKA), K-means, Fuzzy K-Means, Conditional Random Fields (CRF), K-Nearest Neighbors (KNN), raisonnement à partir de cas,... Utilisation du logiciel Weka (prétraitements statistiques, méthodes d'apprentissage supervisé et non supervisé, découverte de règles d'association entre valeurs de variables).
    Raisonnement logique : logique des propositions, logique des prédicats du 1er ordre, logiques modales (ex: BDI),logique des descriptions (ex: OWL-DL), modélisation des imprécisions et incertitudes (logique floue, théorie des possibilités), révision des connaissances (systèmes de maintien de vérité, logiques non monotones), raisonnement temporel (logiques temporelles, calcul des situations et «frame problem», planification (non linéaire, hiérarchique,plans partiels)), programmation logique inductive, inférences formelles (déduction, abduction, induction), moteurs
    d'inférence (chaînage avant/arrière/mixte), inférences naturelles (sophisme, paralogisme, prise en compte du contexte).
    Raisonnement qualitatif : discrétisation de l’information, abstraction fonctionnelle, modèle qualitatif (graphe causal,formules logiques) pour prédire le fonctionnement normal d'un système et/ou diagnostiquer un fonctionnement anormal.
    Management des connaissances: KADS, MKSM (notion de système de connaissances, modèle du domaine, modèle
    des activités, modèle des concepts, et modèle des tâches).
    Recherche dans un graphe d’états (A*, AO*, depth first search, breadth first search, min-max, alpha-béta,...).
    Recherche Opérationnelle: programmation linéaire (simplex, branch and bound, génération de colonnes,...), théoriede la décision et programmation dynamique, théorie des graphes, méta-heuristiques (recherche Tabou, algorithmes
    génétiques, Particule Swarm Optimization,...), programmation par contraintes (en nombres réels et nombres entiers).
    Modèles probabilistes et statistiques: théorie du calcul des probabilités, statistiques descriptives (moyenne, écart-type, quantiles,...), histogrammes des fréquences empiriques, lois de probabilités et tests d’adéquation aux lois, analyse
    en composantes principales (traitement d'un phénomène spatial ou temporel), krigeage, ajustement d'une fonction à un ensemble de valeurs, modèles de régression, modèles de prévision (ARX, coefficients d'auto corrélation, chaînes de Markov), modèles de simulation (inversion de lois de probabilité, simulation de systèmes d'attente ou d'approvisionnement à l'aide de processus stochastiques de naissance-décès ou markoviens), méthodes de classification
    probabilistes, réseaux bayésiens (apprentissage et inférence).
    Intelligence Artificielle distribuée: systèmes à tableau noir (contrôle global ou hiérarchique), et systèmes multi-agents(protocoles de communication, situations de coopération / compétition / coordination / négociation,...).
    Raisonnement à partir de cas, qui consiste à indexer la situation courante à traiter, rechercher en mémoire une
    situation passée similaire, adapter cette solution, la valider et éventuellement la corriger, puis apprendre à partir de cette expérience. Il s’agit d’une technologie puissante pour modéliser le raisonnement d’un expert ou un système à base de connaissances, par ex dans le cadre de la supervision de processus dynamiques (travaux de thèse).
    Fusion de données et système d'argumentation : théorie de Dempster-Shafer, fonction de décision et poids associés
    à des attributs, classification statistique, optimisation / programmation par contraintes, systèmes multi-agents,raisonnement à partir de cas, résolution de conflit (système de maintien de vérité, logiques non monotones, frame problem, règles spécifiques/contextuelles, méta connaissances sur les arguments).
    Moteur de recommandation: méthodes de « Collaborative Filtering » (KNN, apprentissage de classes, LSA,...) et méthodes basées sur une analyse linguistique (produits, utilisateurs, opinion, similarité,...).
    TAL et représentation des connaissances :
    Chaîne de traitement TAL: Tokenisation et recherche des entités (nommées, métier) et abréviations/sigles/langage texto, correction orthographique et grammaticale, lemmatisation-POS tagging, analyse syntaxique, et traitements sémantiques spécifiques (synonymie, hyperonymie, désambiguisation, coréférence,recherche d'entités et de relations entre elles,...)
    Modèles de grammaire (grammaire de cas, lexicale, de dépendances,...), délimiteur de syntagmes (chunker), POS Tagger (règles, CRF, arbres de décisions),...
    Paliers de la sémantique (G. Sabah, P. Enjalbert, F. Rastier) :
    Mot : délimitation des mots (mots composés, séparateurs, entités nommées), morphologie (lemme, stemme,morphème,...), représentation du sens lexical (sémantique différentielle et sèmes génériques / spécifiques /afférents / inhérents (F.Rastier), lexique génératif et structure de Qualia (J.Pustejovsky),...), liens généraux
    (synonymie, antonymie, hyperonymie, méronymie...), cas sémantiques (notions d'agent, patient, bénéficiaire,instrument, lieu,...), classes sémantiques (personne, organisation, lieu,...),...
    Phrase : notion de syntagme, instanciation des entités et événements (relations entre entités), distribution des rôles sémantiques, traitement des questions, sémantique de l'espace et du déplacement (P.Enjalbert),modalités, focalisation, thématisation, découpage d'une phrase en propositions et relations entre elles,quantification, réseaux sémantiques et graphes conceptuels (J.Sowa, P.Clark,...), théorie des dépendances conceptuelles (R.C.Schank), présuppositions et implications, figures de style, argumentation, aspects logiques
    des relations d’inférence, d’antonymie et de paraphrase (R.Martin), Théorie Sens-Texte (I.Melcuk).
    Texte : interprétation en contexte (J.François, F.Corblin), théories des structures discursives (RST, DRT,SDRT), segmentation, analyse causale (R.C.Schank, P.H.Winston), anaphores (P.Enjalbert, B.Victorri), calculdes chaînes (isotopies, coréférence), temporalité (calcul d'un chronogramme associé à un texte : modèle en français de L.Gosselin), composante sémantico-logique (R.Martin), notion de scénario, résumé de texte,...
    Structuration des connaissances selon F.Rastier : sèmes → mots → taxèmes → champs → domaines.
    Désambigüisation (POS Tag, rôle sémantique, collocation, domaine, contexte) et polysémie (B.Victorri,
    J.Pustejvsky,...).
    Verbes: rôles sémantiques (P.H.Winston, C.J.Fillmore), primitives sémantiques
    (R.C.Schank, A.Wierzbicka,...),catégorisation des verbes
    (traits sémantiques participatifs et aspectuels (J.François), classification selon WordNet(15 domaines), selon Framenet,...).
    Représentation des connaissances basées sur les frames(M.Minsky, L.Barsalou, P.H.Winston) et les prédicats.
    Modélisation et structuration des expériences et des buts
    (R.C.Schank) : Thematic Organization Packet,Memory Organization Packet (scripts), plans, buts (7 classes de buts généraux et règles de priorité entre eux).
    Modèles de communication et de dialogue : maximes de conversation (H.P.Grice), notions de pertinence et
    d'intention (D.Sperber et D.Wilson), actes de langage (J.L.Austin et J.R.Searle), approche de J.Caelen (pile de buts,
    stratégies (réactive, directive, constructive, coopération, négociation), modèles de tâches et de connaissances,
    planification, scénario de dialogue, pragmatique et structuration du dialogue, SDRT, analyse rhétorique,...).
    Fouille de textes : méthodes d'extraction (avec éventuellement une étape de généralisation) de connaissances (entités nommées, termes ou collocations pertinentes, rôles sémantiques, regroupements conceptuels, règles syntaxiques/sémantiques,...) à partir d'un corpus de textes (ou du web) et de ressources linguistiques (syntaxiques/sémantiques), représentation vectorielle d'un texte (TF-IDF avec sélection des dimensions) en vue d'un traitement mathématique (LSA, clustering, classification via apprentissage,...), recherche d'information (indexation des documents, index inversé, similarité «cosinus», Latent Semantic Analysis, traitements sémantiques des questions (type, focus, type de réponse, expansion) et des documents,...),...
    Analyse d'opinion: méthodes de constitution de lexiques de mots à polarité (à partir de corpus ou de ressources linguistiques générales), lexiques de modificateurs de polarité, analyse locale (objet évalué, émetteur d'opinion, intensité, degré d'engagement,...), classification d'opinion (modèles mathématiques, règles basés sur des patterns syntaxico-sémantiques, méthode hybride via bootstrapping), théories de l'évaluation (modèle OCC d'Ortony, modèle de Martin et White), ressources existantes (SentiWordNet, WordNetAffect, SenticNet,.)

D'autres freelances
Consultant C

Ces profils pourraient vous intéresser !
CV Ingénieur/docteur développement FPGA et IA
Tarek

Ingénieur/docteur développement FPGA et IA

  • SAINT-OUEN-L'AUMÔNE
FPGA PYTHON C++ C
Disponible
CV Consultant embedded software
Guillaume

Consultant embedded software

  • SACLAY
MATLAB C++ C MBD
Disponible
CV Développeur C++
Iurii

Développeur C++

  • SÉLESTAT
C++ C LINUX LINUX EMBARQUE SYSTEMES EMBARQUES
Disponible
CV Expert JAVA
Sami

Expert JAVA

  • LILLE
JAVA J2EE C SQL Angular AGILE CI/CD LEAD MANAGEMENT JAVASCRIPT POSTGRESQL
CV Expert UNIX
Acacio

Expert UNIX

  • BORDEAUX
ORACLE SQL C BASH UNIX SQL SERVER LINUX JAVA DB2
CV Consultant Solution Architect
Minh

Consultant Solution Architect

  • VILLEJUIF
ORACLE BRM BSCS ORACLE SQL C MAITRISE D OUVRAGE JAVA
CV Développeur GO
Dimitri

Développeur GO

  • LYON
GO C C++ BASH PYTHON
CV Ingénieur de développement PYTHON
Olivier

Ingénieur de développement PYTHON

  • VILLENEUVE-D'ASCQ
SQL SERVER ORACLE PYTHON POSTGRESQL SQL C ORACLE DATA INTEGRATOR HUMMINGBIRD ETL NoSQL Vue.js
CV Manager IT
Mustapha

Manager IT

  • REIMS
EDI C SQL UNIX
CV Tech Lead IoT & Cloud
Walid

Tech Lead IoT & Cloud

  • SOISY-SOUS-MONTMORENCY
IOT Cloud AWS PYTHON SQL GITLAB LINUX BIG DATA HASHICORP TERRAFORM AZURE C