Titre : Lire et
comprendre le langage du corps : suivi multi-flux
Laboratoire d’Informatique Fondamentale de Lille,
Equipe FOX-MIIRE
Directeur : Chabane.Djeraba
(à) lifl.fr
Encadrants et contacts : Marius.Bilasco
(à) lifl.fr, Jean.Martinet (à) lifl.fr
Mots clés : vidéo,
analyse, fouille de données, suivi, multi-flux, multi-caméras, occlusion, recouvrement
Sujet :
Le clavier et la souris ne sont plus le seul moyen de
communiquer avec les ordinateurs. Les appareils modernes répondent à de
nombreuses modalités d'interaction comme la parole, mais pouvons-nous aller
encore plus loin? Un ordinateur peut-il comprendre comment nous marchons, nous
nous déplaçons, nous regardons, nous touchons, nous réagissons ?
La vision est de mettre l'homme dans la boucle
d'interaction entre l'ordinateur et son environnement. Nous aimerions obtenir
une forme d'intelligence ambiante où les ordinateurs seraient complètement cachés.
Nous imaginons un monde où des ordinateurs cachés anticipent les besoins des
hommes, et développons des applications pouvant fonctionner dans un tel monde.
Cela implique une interface multimodale par laquelle les
individus pourraient interagir avec leur environnement. L'ordinateur observe
leur comportement et en retire des informations qui leur sont utiles. La
technologie de base que nous utilisons s'appuie sur l'extraction d'informations
de la vidéo.
Parmi les applications, nous retenons l'analyse du
comportement des clients dans les magasins pour en tirer des leçons sur les réflexes
d'achat ou encore l'analyse des comportements humains dans le transport.
Dans le cadre de ce stage, nous proposons d’étudier un
système de suivi d’objets mobiles dans un environnement multi-caméras.
Une attention toute particulière sera donnée au problème du near-
occlusion. Le travail sera réalisé en deux temps, d’abord, étudier le suivi mono-flux, ensuite étudier la fusion des flux.
Poursuite :
Nous comptons proposer un
sujet de thèse comme poursuite de ce travail.
Lieu
de stage :
IRCICA, Parc de la Haute Borne, Villeneuve d’Ascq
Rémunération
:
Gratification
Références :
[1] Chaabane
Djeraba, Adel Lablack, Yassine Benabbas, Interactions
avec l'utilisateur Multi-Modal dans des environnements contrôlés, Série:
Multimedia Systems and Applications, Vol. 34, 216 pages, ISBN: 978-1-4419-0315-0,
Springer, 2010.