Réunion d’automne 2009 (22/10/2009)

Les émotions et le handicap

Matinée scientifique organisée par Choubeila Maaoui

à l’INJS

Programme

10h00 C. Maaoui et A. Pruski, Université de Metz. Laboratoire LASC
La reconnaissance automatique des émotions

Résumé : La communication non verbale est une partie importante dans la communication humaine et elle est également importante dans la communication homme-machine. Puisqu’elle permet à la machine de dialoguer interactivement et d’une manière naturelle avec le ou les utilisateurs.
Notre étude porte sur le développement d’un système de reconnaissance automatique des émotions en vue de l’intégrer dans un système de thérapie basé sur la réalité virtuelle pour le traitement de la phobie sociale. Ce système est basé sur l‘analyse des signaux physiologiques et des expressions faciales du sujet pour la reconnaissance automatique de son état émotionnel.
Les résultats obtenus montrent l’efficacité du système bimodal pour la reconnaissance des émotions, par rapport à l’utilisation séparée des deux modalités (expressions faciales et signaux physiologiques).

10h30 R. Jouvent, Université Pierre et Marie Curie-Paris 6
La nature émotionnelle de la marche

11h00 L. Devillers, Université Paris-Sud, LIMSI
Détection des émotions « real-life »

Résumé : Ce séminaire est l’occasion de présenter les sujets de recherche actuels du thème « Emotion et Parole » du groupe Traitement du Langage Parlé. Nous présenterons lors de ce séminaire les avancées majeures en termes de recueil de données et d’annotation, d’indices caractéristiques des émotions et de reconnaissance des émotions dans la voix ainsi que les projets en cours. Nous participons à 3 projets : ROMEO en robotique, VoxFactory sur les centres d’appels et Affective Avatar, un projet ANR d’animation d’avatars pilotés par la voix. Nous terminerons par les challenges des applications réelles et des données non-prototypiques.

11h30 H. Daassi et J. Lopez-Krahe, Université Paris 8, Laboratoire THIM/ CHART
Reconnaissance d’émotions à partir du signal de parole. Animation d’une tête parlante à l’intention de personnes sourdes

Résumé : Ce travail de recherche est essentiellement centré autour de l’extension de l’ancien projet LABIAO (lecture LABIale Assistée par Ordinateur). Ce dernier avait pour objectif de développer un système qui se base sur la reconnaissance automatique de la parole. Ce système permet de reconnaître les phonèmes prononcés par le locuteur afin d’animer, sur un écran informatique, une tête parlante située devant la personne sourde ou malentendante. Cette tête de synthèse produit des mouvements de lèvres et, optionnellement, des codes du LPC (Langage Parlé Complété). Toutefois, les utilisateurs de ce système exigent non seulement le contenu linguistique de la parole mais aussi l’état émotionnel du locuteur. Le manque d’expressivité du vissage devenant rapidement peu motivant, voir ennuyeux à terme. Pour répondre à ces exigences, il est nécessaire d’introduire des techniques de reconnaissance et de synthèse de l’état émotionnel du locuteur. Donc, outre la reconnaissance automatique de la parole, notre contribution porte sur l’utilisation des paramètres acoustiques de la prosodie (les variations de la fréquence fondamentale f0 au cours du temps, l’évolution de l’énergie du signal de parole au cours du temps, les valeurs des formants f1 f2 f3 et la durée d’un phonème) afin de déterminer les émotions du locuteur. Ceci permet de donner « plus de vie » à la tête parlante.

12h00 B. Le Pévédic et D. Duhaut, Université Bretagne Sud – Laboratoire Valoria – Equipe RIMH
EmI : Model d’Interacton Emotionnelle

Résumé : Cette présentation aborde les travaux de recherche effectués dans le domaine de l’interaction émotionnelle non verbale du projet EmotiRob. Il est une composante du projet MAPH dont l’objectif est de réconforter les enfants fragilisés et/ou en longue hospitalisation à l’aide d’un robot compagnon émotionnel. Les études menées sur la perception et la synthèse émotionnelle nous ont permis de déterminer la méthode d’expression des émotions pour notre public. Il est important de noter que nous ne cherchons pas à reproduire les émotions humaines, mais à rendre un robot expressif émotionnellement. Nos expérimentations sur le sujet ont permis de déterminer les degrés de libertés minimum nécessaires au robot et de valider notre modèle émotionnel. Nous décrirons le modèle informatique d’émotions iGrace que nous avons défini, ainsi que son évaluation. Nous évoquerons pour finir la description de l’architecture d’EmI, ainsi que les améliorations à effectuer pour sa troisième version.

Télécharger la présentation au format PDF : EmotiRob-20091022.pdf

Laisser un commentaire

Votre adresse ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.