Active Perception For Autonomous Predictive Fusion (APF²)

Funded by :Mission pour l'interdisciplinarité du CNRS
Funding :25000€
Period :2017-2017
Status :In progress
Coordinator :Mathieu Lefort
Collaborators :Jean-Charles Quinton, Marie Avillac



Description

Sans connaissances a priori sur l'environnement, comment un agent incarné et autonome (vivant ou artificiel) peut-il fusionner les informations sensorielles hétérogènes qu'il reçoit? Cette question est centrale en intelligence artificielle pour améliorer l'adaptabilité des systèmes robotiques mais aussi pour la compréhension des mécanismes de perception et de prise de décision dans le vivant. Le système doit faire face à deux problématiques interdépendantes:

  • l'identification des informations provenant du même événement (suivant les régularités précédemment apprises)
  • la fusion de ces informations selon leur pertinence (fonction du contexte et de la qualité du capteur et des stimuli).

Dans ce projet, nous proposons un modèle neuronal actif et générique, en lien avec des expérimentations psychophysiques, permettant d'évaluer de manière autonome la pertinence de chaque information dans la perception multimodale résultante.