Précédent : Présentation générale et
objectifs Remonter : Projet VISTA, Vision Spatio-Temporelle et
Suivant : Grands domaines
d'application
Mots-clés : champs markoviens, observation partielle,
estimation bayésienne, estimation de paramètres, modèles
hiérarchiques, algorithme multigrille, arbres, inférence
non-itérative
Résumé : Dans le but de traiter les problèmes inverses multi-images liés aux axes de recherche du projet, nous nous intéressons au formalisme markovien associé à la théorie bayésienne de la décision [Win95]. Dans ce cadre, nous nous attachons à définir des modèles ou des algorithmes de type hiérarchique qui permettent de mener de façon efficace les tâches d'estimation (des cartes d'attributs cachés ou des paramètres du modèle), pour des problèmes à espace d'états aussi bien continu que discret.
Le type d'approche statistique de l'analyse d'image que nous
privilégions nous conduit à mettre en place des modèles
markoviens partiellement observés, associés à des
distributions , où
est un jeu de
paramètres. L'ensemble
se
décompose en variables observées
et variables cachées
:
.Le caractère markovien se manifeste
par une factorisation de cette loi jointe en un produit
d'interactions locales :
Sur la base de la distribution ,se
posent les deux problèmes suivants (outre celui préalable du
choix de la famille paramétrique) :
Quels que soient l'estimateur et l'algorithmique d'inférence associée, une propagation de l'ensemble de l'information va devoir être opérée au travers du modèle par le biais des interactions locales. Les estimées vont résulter de la combinaison de décisions locales basées sur la fusion de l'information fournie par l'ensemble ou une partie du voisinage spatial ou temporel (donnant lieu à une prédiction) avec celle apportée localement par les données. C'est ce même principe qui, par exemple, sous-tend aussi bien les différents filtrages de Kalman temporels que nous sommes amenés à mettre en oeuvre en matière de suivi, que l'estimation lissée (en espace) de champs de vitesses instantanées. Par contre cette inférence devra être itérative pour la plupart des structures de graphe (en particulier sur la grille bidimensionnelle usuelle) [GG84].
Dans le cas de problèmes de très grande dimension (telle que l'extraction de cartes denses de primitives à partir de plusieurs images), les différents algorithmes génériques précédemment évoqués, même pour des paramètres supposés connus, sont coûteux : en raison de la localité des couplages entre variables, l'information se propageant de façon lente et peu efficace.
Dans le but de traiter ces problèmes, une démarche générique souvent fructueuse consiste à hiérarchiser les primitives et/ou les données. Cette idée peut être déclinée de diverses manières.
Dans un premier groupe d'approches, des versions
``réduites'' (en terme du nombre des variables inconnues)
ou
,
, du modèle spatial initial sont
d'abord construites, puis exploitées au sein d'une
algorithmique descendante. Les attributs
inférés à un niveau
servent de point de départ à
la procédure d'inférence au niveau
de ``taille''
immédiatement supérieure. Il s'agit ici principalement des
méthodes multirésolutions ou multigrilles (selon que des versions
réduites de
sont également calculées ou non). Ces méthodes
permettent une accélération substantielle des schémas itératifs
déterministes standard, et fournissent souvent une amélioration
de la qualité des résultats [4].
Une deuxième classe d'approches vise à la définition de
modèles hiérarchiques globaux . Il s'agit de champs markoviens sous-tendus par un
graphe hiérarchique causal, un arbre le plus souvent. Dans
ce cas, les différents niveaux sont liés au sein du même modèle.
L'inférence est donc menée de façon globale, et est rendue
efficace par l'exploitation de la causalité. Plus précisément,
des estimateurs exacts peuvent être obtenus en deux ``passes''
rappelant celles connues dans le cadre des chaînes de Markov. Par
contre, il s'agit d'une classe restrictive de modèles dont la
capacité à rendre compte des interactions spatiales entre
primitives images est encore à étudier de façon complète.
Mots-clés : vision, robotique, commande référencée
capteurs, asservissement visuel
Résumé : L'asservissement visuel consiste à utiliser les informations fournies par une caméra afin d'en contrôler le mouvement. L'approche que nous avons retenue repose sur la modélisation de fonctions de tâches appropriées et consiste à spécifier le problème en termes de régulation dans l'image. Elle permet de compenser les imprécisions des modèles (erreurs de calibration), aussi bien du capteur que du porteur de la caméra, par des lois de commande robustes en boucle fermée sur les informations visuelles extraites de l'image.
Les techniques d'asservissement visuel [HHC96] utilisent généralement
des informations visuelles 2D
extraites de l'image. Les lois de commande consistent alors à
contrôler le mouvement de la caméra afin que les mesures dans
l'image atteignent une valeur désirée
ou
suivent une trajectoire spécifiée
.
Afin d'élaborer une loi de commande en boucle fermée sur des
mesures , il est nécessaire d'estimer ou d'approximer la
relation qui lie la variation de
aux variables de contrôle.
Dans le cas d'informations visuelles géométriques (telles par
exemple les coordonnées 2D d'un
point) contrôlées à l'aide des six degrés de liberté d'une
caméra, cette relation est définie par [2] :
Ces deux possibilités ont chacune leurs avantages et leurs inconvénients [34] : dans le premier cas, mouvements de la caméra inadéquats, voire impossibles à réaliser, rencontre éventuelle de minima locaux ; dans le second cas, possible passage de l'objet hors du champ de vue de la caméra. Finalement, il est possible de rencontrer une singularité de la matrice d'interaction, entraînant soit une instabilité de la commande, soit un échec dans la convergence du système. Nous travaillons à lever ces limitations, notamment par le développement des techniques dites d'asservissement visuel 2D 1/2.
Ces différents problèmes ne doivent pas faire oublier que l'asservissement visuel 2D apporte toute satisfaction dans un grand nombre de cas. De plus, l'intégration de l'asservissement visuel dans l'approche générale de la fonction de tâche [SBE91] permet de résoudre de manière efficace et élégante les problèmes de redondance rencontrés lorsqu'une tâche visuelle ne contraint pas l'ensemble des degrés de liberté de la caméra. Il est alors possible d'exécuter, parallèlement à la tâche visuelle, des tâches secondaires telles des opérations de suivi de trajectoires pour des applications d'inspection, ou d'évitement des butées et singularités du robot.
Lorsque la fonction de tâche est correctement modélisée, il
est ensuite assez aisé d'élaborer une loi de commande générique
permettant une décroissance exponentielle de la fonction de
tâche. On obtient :
Mots-clés : Trajectographie, extraction de pistes,
poursuite, hypothèses multiples, combinatoire
Résumé : Nous décrivons les problèmes liés à l'extraction de pistes et à l'estimation des paramètres cinématiques. L'accent est mis sur la nature des observations et des problèmes d'estimation associés.
Nous considérons les problèmes liés à l'estimation de systèmes
dynamiques partiellement observés. Pratiquement, ces problèmes
sont généralement posés dans un cadre passif, l'observateur est
uniquement un récepteur.
Un corollaire de ceci est que le système est, en général, uniquement partiellement observé, ce qui siginifie que l'on n'observe pas directement l'état du système, mais seulement une fonction (non-linéaire) bruitée de cet état. Ainsi, en sonar passif, l'état du système (i.e. les paramètres définissant la trajectoire de la source) n'est observé qu'au travers des gisements (angles) estimés par l'antenne.
Le problème d'extraction-poursuite de cibles mobiles se pose
dans le contexte du traitement de l'information. On dispose
d'observations constituées de fonctions non-linéaires de l'état
de la source (azimuts, dopplers, etc.). Les observations sont
décrites comme les sorties d'un système variable dans le temps.
Le modèle d'évolution temporelle de l'état est lié aux hypothèses
faites sur la trajectoire des sources. Il est alors possible de
décrire les observations par un système non-linéaire variable
dans le temps pour lequel les paramètres à déterminer sont les
composantes de l'état initial. Plus précisément, on appelle
le vecteur de l'état relatif (i.e. dans un
repère lié à l'observateur) de la ième source dont les
composantes sont les coordonnées relatives
et
les vitesses relatives
de la
source. L'état du système est
et son équation à temps discret prend alors
la forme ci-dessous, [NLG84]:
Les caractéristiques de ce type de problème sont
multiples : i) non-linéarité du système, ii)
possibilité de manoeuvre (action sur ); iii)
caractère aléatoire de
. L'étape d'extraction consiste à
attribuer des détections aux sources (estimation de
), et lorsque
est connu, ou estimé, le
problème se découple alors sur les différentes sources.
L'objectif de l'extraction consiste à élaborer des pistes
à partir des données provenant des étapes de traitement direct et
massif des sorties de capteurs. Les données sont constituées de
plots (de nature binaire dans le cas le plus simple). Le problème
de l'extraction est le suivant: quels sont les
sous-ensembles de plots
ayant une origine commune?
On entend ici par origine commune le fait que les différents
points de
sont associés à une même source en
mouvement. Un sous-ensemble
s'appelle alors une piste
extraite. Il importe de noter que cette suite est d'une nature
statistique plus compliquée que précédemment puisque, dans le cas
général, elle inclut des fausses alarmes, des fausses
associations ainsi que des non-détections.
Une approche naturelle consiste donc à considérer un modèle probabiliste des observations incluant à la fois des hypothèses sur la nature statistique des observations (probabilités de détection, de fausse-alarme, distribution et nombre de fausses alarmes) et sur la nature de la trajectoire de la (ou des) source(s). Utilisant cette structure, il s'agit de séparer l'ensembles des plots en des sous-ensembles de plots ayant une origine cinématique commune et un ensemble de fausses alarmes.
Ainsi, dans le cas mono-source, la densité des observations
est un mélange de lois normale (la densité d'une vraie
détection), de Poisson (le nombre de fausses alarmes par unité de
volume) et uniforme (répartition des fausses alarmes). On montre
ainsi que la densité des observations prend la forme
ci-dessous:
Une approche séduisante consiste alors à considérer que les
probabilités d'assignation des mesures aux pistes sont
indépendantes d'un scan à l'autre. Ainsi, la méthode PMHT (Probabilistic Multiple Hypothese Tracking) ne
nécessite aucune énumération des hypothèses, mais un nombre
(maximal) de pistes est fixé. L'algorithme PMHT repose sur deux étapes, l'une d'optimisation et
l'autre de calcul d'espérance conditionnelle. Ces deux étapes ont
été reconsidérées dans le contexte plus général de l'estimation
des paramètres de mélanges (algorithme EM), [3].
Le problème de l'initialisation des pistes, lui-même, consiste
en l'association de diverses détections élémentaires prises au
cours du temps. C'est avant tout un problème de combinatoire. Il
s'agit, en général, d'un problème d'assignation -dimensionnel de variables binaires. Notre approche a
été celle de la relaxation Lagrangienne où n -2 variables
d'assignation sont relaxées et où l'on se ramène à une série de
problèmes d'assignation 2D, [9,37]. L'estimation des variables
duales est elle-même accomplie au moyen d'algorithmes du type
``sous-gradient''. Les étapes d'obtention de solutions
réalisables (calcul du saut de dualité), d'optimisation
(sous-gradients, calcul du pas) ainsi que l'inclusion de fausses
mesures ont été étudiées avec attention. Ce type d'approche a été
appliqué à des problèmes d'association de données multi-capteurs,
[PDBSW92].