Année
2012-2013
Laboratoire
d’Informatique Fondamentale de Lille, Equipe FOX-MIIRE
Directeur :
Chabane.Djeraba@lifl.fr
Encadrants et contacts : Marius.Bilasco@lifl.fr, Taner.Danisman@lifl.fr
émotions, détection des éléments du visage, quantification du mouvement des éléments du visage, analyse gestuelle
Le but de ce travail est d’étudier l’impact de la dynamique du visage et des gestes sur l’extraction des émotions à partir des flux vidéo. Actuellement, il y a un vrai engouement autour des technologies permettant de reconnaître les actions réalisées par les humains à l’aide des systèmes avancées des caméras et/ou capteurs. Nous nous intéressons à une classe spécifique d’actions qui correspondent à la manifestation des émotions telles que la joie, la tristesse, l’énervement. La reconnaissance d’émotion peut servir dans différents domaines impliquant de l’interaction homme-machine tels que dans l’industrie du commerce (tables de vente interactives), dans l’aide des personnes à domicile, etc.
L’équipe FOX s’intéresse de manière générale à l’extraction des informations de la vidéo et à des applications au comportement humain. Dans nos travaux passés, nous avons déjà exploré l’extraction des émotions de base (telle que la joie, cf. image ci-dessous) à partir des images en utilisant uniquement des informations statiques telles que les distances entre les régions significatives du visage (sourcils, yeux, nez, bouche, etc.). Si ces informations sont suffisante pour caractériser des émotions simples et plutôt statiques telle que la joie. En effet, dès que l’on aperçoit le visage d’une personne nous pouvons de rendre compte si la personne exprime la joie. Cependant, elles ne suffisent plus lorsque l’on étudie des émotions plus complexes telle que l’énervement. Nous croyons que l’apport informationnel issu de l’étude du mouvement de la personne dans sa globalité peut augmenter de manière importante la détection des émotions et la quantification de leur intensité.

Le travail à mener pendant ce stage concerne :
1) l’état de l’art de la détection des émotions à partir des éléments du visage et de la dynamique de la personne suivi
2) la proposition d’une méthode pour la reconnaissance d’émotions dynamiques telles que l’énervement
3) la réalisation d’un prototype pour étudier la faisabilité et les performances de la méthode proposée
4) évaluation du prototype en temps réel dans un contexte laboratoire, ainsi que sur des vidéos tests
Possibilité de poursuivre en thèse.
IRCICA, Parc de la Haute Borne, Villeneuve d’Ascq
Rémuneration
Gratification
1. Taner Danisman,
Marius Bilasco, Nacim Ihaddadene and Chabane Djeraba, "Automatic facial feature detection for
facial expression ", VISAPP 2010, Angers, France.
2. Badioze Zaman H.,
Robinson P., Petrou M., Olivier P., Schröder H., Shih T., "Detecting Emotions from
Connected Action Sequences" in Visual Informatics: Bridging Research and
Practice, Lecture Notes in Computer Science 2009, vol. 5857
3. Metallinou, A.; Busso,
C.; Sungbok Lee; Narayanan, S.; , "Visual
emotion recognition using compact facial representations and viseme information," Acoustics Speech and Signal Processing (ICASSP), 2010 IEEE International
Conference on , vol., no., pp.2474-2477, 14-19 March 2010
4. Tingfan Wu; Bartlett, M.S.; Movellan, J.R.; , "Facial expression recognition using
Gabor motion energy filters," Computer
Vision and Pattern Recognition Workshops (CVPRW), 2010 IEEE Computer Society
Conference on , vol., no., pp.42-47, 13-18 June 2010