ISCA - International Speech
Communication Association


ISCApad Archive  »  2017  »  ISCApad #232  »  Jobs  »  (2017-07-25) Post-doc à Paris et Saclay , France

ISCApad #232

Tuesday, October 10, 2017 by Chris Wellekens

6-22 (2017-07-25) Post-doc à Paris et Saclay , France
  

eurosPost-doc à Paris et Saclay : Apprentissage semi-supervisé et apprentissage profond pour une mesure de l'expérience émotionnelle du client dans les interactions orales


[1] Telecom ParisTech, 46 rue Barrault, 75013 Paris

[2] EDF Lab Paris Saclay, 7 boulevard Gaspard Monge 91120 Palaiseau

Durée :  1 an

Début :  Novembre 2017

Salaire : en fonction de l'expérience et à partir de 2300 euros/mois

       

*Description du sujet de post-doctorat*

 

Avec l'engouement récent du Big Data pour le Feel data, EDF souhaite développer des méthodes d'analyse automatique de l'expérience émotionnelle du client dans ses interactions orales. Les interactions orales considérées sont les données des centres d'appels et données d'interaction avec des assistants virtuels vocaux (de type Alexa, Siri). L'objectif du post-doctorat est de mettre en place desméthodes d'apprentissage semi-supervisées, combinées à de l'apprentissage profond (deep learning) pour l'analyse automatique de l'expérience émotionnelle du client. Les méthodes reposeront sur des caractéristiques (features) linguistiques et acoustiques extraites des interactions orales.

 

Le chercheur post-doctorant prendra part à une collaboration entre EDF Lab et Telecom-ParisTech et son travail de recherche reposera sur les étapes suivantes :

- la mise en place de schéma d?annotation de l?expérience émotionnelle de l?utilisateur sur les données collectées à EDF Lab (données des centres d'appels et données d'interaction avec des assistants virtuels vocaux (de type Alexa, Siri)

- l?extraction d?indices acoustiques caractéristiques des réalisations non verbales de l?expérience émotionnelle de l?utilisateur

- l?extraction d?indices linguistiques caractéristiques des réalisations verbales de l?expérience émotionnelle de l?utilisateur

-  la mise en place de stratégies d?apprentissage permettant de mixer des approches non supervisées et des approches d?apprentissage profond

Le post-doc aura lieu au sein des deux centres de recherche : EDFLab [2] et Telecom-Paristech (département IDS image and signal processing department of Telecom ParisTech [1], équipe S2a, thème Social computing).


* Profil du candidat*

 

Le candidat devra posséder a minima les compétences suivantes :

 

?    un diplôme de doctorat

?   des recherches et publications dans au moins l?une des thématiques suivantes : machine learning, traitement de la parole, affective computing. Traitement automatique des langues

?    d?excellentes compétences en programmation  (avec une préférence pour le python)

?    excellente maîtrise du français et bonne maîtrise de l?anglais

 

Les compétences ci-dessous, seront également un atout :

?        apprentissage semi-supervisé

?        Deep learning

?        analyse acoustique des émotions

 

-- Informations pratiques

Lieu du post-doc: Paris (Telecom-ParisTech) et Palaiseau (EDF Lab Paris-Saclay)

Encadrement : Delphine Lagarde, Aurélie Dano (EDF Lab) et Chloé Clavel (Telecom-ParisTech)

 

-- Comment candidater :

Les candidatures sont à envoyer à Chloé Clavel (chloe.clavel@telecom-paristech.fr)

 

Elles doivent être compilées ** en un seul fichier pdf ** et inclure :

?    Un CV complet et détaillé incluant la liste des publications

?    Une lettre de motivation spécifique au sujet du post-doc

?   Les noms et les adresses de 2 référents.

 

[1]http://www.tsi.telecom-paristech.fr

[2]htttps://www.edf.fr/groupe-edf/qui-sommes-nous/activites/recherche-et-developpement/nos-centres-de-recherche/le-centre-de-recherche-edf-lab-paris-saclay-souffle-sa-premiere-bougie  


Back  Top


 Organisation  Events   Membership   Help 
 > Board  > Interspeech  > Join - renew  > Sitemap
 > Legal documents  > Workshops  > Membership directory  > Contact
 > Logos      > FAQ
       > Privacy policy

© Copyright 2024 - ISCA International Speech Communication Association - All right reserved.

Powered by ISCA