Précédent : Logiciels Remonter : Projet VISTA, Vision
Spatio-Temporelle et Suivant : Actions industrielles
Résumé : Dans le cadre de l'analyse de signaux spatio-temporels, et du suivi dans le temps des primitives extraites, les modélisations statistiques à base de dépendances locales offrent un cadre méthodologique souple et riche, permettant d'aborder à l'aide d'outils variés de nombreux problèmes. Associés à la théorie bayésienne de la décision, de tels modèles permettent de spécifier le lien entre les données et les primitives inconnues, en y adjoignant une connaissance a priori sur ces dernières prenant en compte le contexte local (spatial ou temporel). La spécificité des différents modèles d'analyse spatio-temporelle que nous avons déjà définis ou que nous comptons développer, dépend de la nature des variables, continue, discrète, ou symbolique, et de leurs interactions, linéaires ou non, mais aussi de la structuration de ces interactions locales. Nous nous intéressons dans ce contexte à des modèles markoviens hiérarchiques. Les problèmes d'analyse multi-images auxquels nous sommes confrontés nous poussent d'autre part à aborder certains aspects de la fusion de données au sens de la manipulation conjointe de mesures différentes en nature, résolution, positionnement. Enfin, la détection décentralisée concerne l'étude des problèmes de détection pour lesquels est abandonnée l'hypothèse, implicite dans les situations habituelles, de la centralisation des observations.
Participants : Patrick Pérez , Annabelle Chardin
Dans le but de pouvoir analyser efficacement des volumes d'images très importants (séquences d'images vidéo, images satellitaires de très grande taille obtenues à différentes résolutions et dans différentes longueurs d'onde), nous étudions des modèles probabilistes hiérarchiques autorisant l'emploi d'une algorithmique légère, tout en conservant la souplesse de définition et la richesse de modélisation des champs markoviens. Moyennant la spécification d'interactions dont le graphe sous-jacent soit triangulé (cas des arbres en particulier), trois estimateurs discrets différents ont pu être définis, qui reposent sur des procédures non-itératives en deux passes, [58]. Ainsi, des segmentations ou des classifications supervisées de bonne qualité peuvent être obtenues avec une complexité algorithmique par pixel constante.
L'une des ces procédures a été intégrée à un algorithme d'estimation de paramètres de type EM, dont chacune des étapes est ainsi grandement allégée par rapport aux versions standard basées sur des approximations Monte Carlo. Cette approche a permis d'obtenir à un coût réduit des classifications non-supervisées (i.e., nombre des classes et caractéristiques de chacune inconnus) de bonne qualité tant sur des images de synthèse, que sur des données multirésolution/multispectrale fournies par le satellite Landsat. La confrontation de cette approche à des applications spécifiques est poursuivie dans le cadre du GIS GSTB ``Groupement Scientifique de Télédétection en Bretagne''.
D'un point de vue plus méthodologique, nous étudions d'une part la mise en place de modèles hybrides obtenus en tronquant l'arbre d'interaction et en dotant le niveau le plus ``grossier'' d'une structure spatiale. De cette façon, une propagation de l'information sur l'ensemble du domaine est assurée au niveau du réseau non-causal de petite taille par un schéma itératif léger, et sur le reste de la structure hiérarchique par les techniques non-itératives en deux passes.
D'autre part, nous avons commencé à étudier les analogies existant entre les méthodes d'inférences non-itératives qui nous intéressent et les algorithmes de factorisation de matrices creuses à structures triangulées (pour une telle structure, les factorisations LU ou Cholesky par exemple peuvent être réalisées avec conservation de la dite structure au niveau des facteurs, et ce grâce à un ``arbre de factorisation'').
Participant : Christian Barillot
Dans le contexte de l'imagerie médicale, l'objectif recherché est la création d'un modèle statistique d'un ``objet'', s'appuyant sur la notion de modèles déformables afin d'exprimer la variabilité possible des formes de cet objet. Nous avons développé une méthode d'analyse modale permettant d'établir une hiérarchie dans la description de la forme (et de la déformation) d'un ``objet'' à travers ses différentes réalisations. Nous l'avons appliquée à la modélisation statistique des variations de forme et de position de sillons du cortex cérébral. Cette étude exploite en partie les travaux de la thèse de C. Kervrann soutenue en 1995 à l'Irisa. Le principe consiste à prendre en compte un ensemble de représentations analytiques d'un même sillon, extraites d'images IRM 3D, pour constituer une base d'apprentissage des déformations. La représentation employée est appelée ``ruban actif'' et a été précédemment développée au laboratoire SIM de l'université de Rennes 1 dans la thèse de G. Le Goualher.
Nous nous intéressons aux transformations globales affectant les structures d'intérêt (les sillons dans notre cas) représentées par une suite discrète de points. Une distribution de probabilité sur l'espace des formes est introduite pour exprimer la variation d'un objet. Un modèle stochastique déformable est bâti en conséquence, qui permet d'appréhender l'ensemble des configurations jugées admissibles pour la classe d'objets considérés. Les déformations globales significatives sont identifiées grâce à une décomposition de Karhunen-Loeve sur une population d'apprentissage, suite à la génération d'une forme moyenne obtenue après recalage rigide de chaque forme sur la base d'un référentiel local (plan de régression quadratique des surfaces et centroïde des points projetés). Les déformations d'un individu sont caractérisées par un vecteur de déplacement par rapport au modèle moyen. Les modes de variation retenus permettent de déterminer une probabilité d'occurrence (présence, localisation, forme, ...) du sillon autour de son modèle moyen. Le champ de déformation calculé peut ensuite être appliqué à toute entité (structure, localisation d'activation, etc.) qui aura été associée à ce sillon.
Participants : Patrick Bouthemy , Christophe Papin
Nous nous intéressons à un problème de classification nuageuse à partir d'images satellitales météorologiques (MeteoSat, canal IR) relatif à une des situations critiques pour l'établissement des prévisions météorologiques, à savoir la détection des nuages bas. Nous avons défini une méthode de segmentation nuageuse en trois classes (nuages bas, ciel clair, autres nuages) par étiquetage statistique contextuel résultant d'une approche markovienne-bayésienne. Nous tenons également compte de la localisation du pixel considéré, sur une zone du continent ou bien sur une zone de mer ou d'océan. La seconde originalité de la méthode, dans le contexte d'application considéré, est l'introduction d'observations spatio-temporelles. Outre l'utilisation des intensités (comptes numériques) dans le canal utilisé, nous avons exploité une mesure locale partielle de mouvement permettant de mieux discriminer chaque classe. En outre, il est possible de lui associer une mesure de confiance qui est mise à profit à plusieurs niveaux. Nous avons spécifié une fonction d'énergie incorporant des fonctions robustes, et dont les paramètres des termes d'attache aux données sont estimés en ligne par une étude d'histogrammes appropriés. Nous avons de plus construit une stratégie opportuniste de visite des sites dans la phase de minimisation de la fonction d'énergie par relaxation déterministe, qui s'étend à partir de points de confiance automatiquement déterminés et se trouvant généralement sur les bords des nuages bas. Une première validation sur images réelles a été réalisée.
Figure: Image METEOSAT dans
l'infrarouge (le 21/1/97 à 4h UTC)
Figure: Classification nuageuse:
nuages bas en vert (ou gris clair)
Participant : Jean-Pierre Le Cadre
La détection décentralisée concerne l'étude des problèmes de détection pour lesquels est abandonnée l'hypothèse de la centralisation des observations. Plus précisément, on considère que les observations sont localement quantifiées par des processeurs ayant en charge l'envoi d'un meilleur résumé des observations locales à un fusionneur (central).
Ces travaux sont maintenant appliqués dans le cadre de l'étude d'un réseau de surveillance passif, en collaboration avec le Gesma (Brest). L'architecture retenue est celle du tandem (détecteurs en série), le critère est celui de Neyman-Pearson. L'optimisation des seuils de détection des récepteurs locaux constitue une bonne part de la difficulté du problème. Il a alors été possible de quantifier le gain apporté par la détection décentralisée par rapport à un traitement monocapteur. Ce gain est déjà relativement important. Il faut maintenant considérer des architectures plus générales (arborescentes), correspondant à l'optimisation d'un grand nombre de capteurs. La méconnaissance du niveau de signal émis constitue une autre source de difficultés.
Résumé : L'analyse du mouvement dans une séquence d'images doit être posée comme un problème joint d'estimation et de segmentation, puisqu'il s'agit d'appréhender des informations partiellement observables et discontinues. Une partition de l'image en régions cohérentes au sens du mouvement nécessite, sous une forme ou une autre, une mesure du mouvement. Inversement, le calcul d'un champ des vitesses 2D dans le cas général impose une détection et une gestion simultanées des possibles discontinuités (inconnues a priori) du mouvement. C'est donc un problème particulièrement difficile, mais dont la résolution est cruciale pour la plupart des tâches en analyse de scène dynamique. Ce problème peut se présenter en fait sous plusieurs variantes, suivant que l'objectif prioritaire se trouve être l'obtention d'une mesure dense ou paramétrique du mouvement, d'une partition de l'image en régions, ou l'extraction d'entités pertinentes. Un thème central et encore très ouvert sur ce sujet est l'analyse du mouvement déformable, qu'il soit articulé, élastique ou fluide. Un autre champ d'investigation motivant ces études sur la segmentation et la caractérisation du mouvement, ainsi que sur le suivi temporel, est représenté par l'indexation vidéo par le contenu. Enfin, sur les aspects de trajectographie, nous considérons des problèmes liés à l'estimation de systèmes dynamiques partiellement observés dans un contexte passif, notamment dans le domaine sonar.
Participants : Patrick Pérez , Étienne Mémin , Yvan
Berlocher
Nous avons étudié et conçu un modèle énergétique générique réalisant conjointement l'estimation du mouvement apparent et sa segmentation en zones homogènes. Il autorise divers degrés de paramétrisation et divers degrés de localité.
Le recours à la théorie de l'estimation robuste nous avait déjà permis dans un premier temps d'enrichir un modèle markovien standard basé sur l'hypothèse de conservation de luminance couplée à un lissage régularisant, en lui adjoignant deux ensembles de variables auxiliaires pondératrices [25]. Les premières permettent de s'affranchir des points où l'hypothèse de luminance constante n'est pas du tout respectée (zones d'occultation en particulier) ; le deuxième jeu de poids rend anisotrope le lissage en le suspendant au niveau des discontinuités naturelles du champ de vitesse (inconnu). Sur la base de ce modèle, nous avions défini une double structure hiérarchique.
Ce dernier aspect a été étendu en remplaçant la contrainte initialement adoptée de constance par blocs, par celle de linéarité par blocs plus adaptée aux mouvements non rigides. Par ailleurs une utilisation originale des variables auxiliaires a permis la définition d'un schéma multigrille adaptatif : les divisions successives sont stoppées sur les indications fournies par les poids concernant le respect du modèle de flot optique sur l'étendue du bloc concerné. Il en résulte une procédure plus rapide et plus légère car manipulant beaucoup moins de variables en général, et ce au prix d'une dégradation ``contrôlable'' de la qualité des résultats. Le gain a été particulièrement ressenti dans le cas de grandes déformations de type fluide.
Il restait à rendre le modèle capable de gérer simultanément le problème de la segmentation. Nous avions d'abord considéré le problème de la segmentation d'une seule zone de mouvement à l'aide d'une courbe fermée déformable. Cette primitive interagissait simplement avec les variables auxiliaires de discontinuités, et évoluait en alternance avec le champ de vitesses en cours d'estimation. L'extension à un nombre quelconque de régions concomitantes a été menée, avec, entre autre, la nécessité d'introduire un terme de ``ressemblance'' affine du champ dans chacune des régions considérées.
La spécification de ces différents ingrédients dans le cadre du mouvement fluide a été entreprise (à la faveur du séjour de P. Pérez au CWI). Elle débouche sur le choix de paramétrisations liées à la décomposition d'un écoulement en termes de composantes laminaire, irrotationnelle et solenoïdale, les deux dernières étant (approximativement) engendrées par un petit nombre de puits et de sources d'une part, et de vortex (structures stables jouant un rôle majeur tant en océanographie et météorologie que dans la compréhension de la turbulence bidimensionnelle) d'autre part.
La synthèse d'un hardware VLSI dédié à l'estimation dense des vitesses est par ailleurs étudiée en collaboration avec T. Risset (projet Api).
Figure: (a) image
représentant une émission de fumée; (b) grille adaptative
d'estimation correspondante; (c-f) quatre champs de
vecteurs consécutifs obtenus par un estimateur multigrille à
paramétrisation variable.
Participants : Patrick Bouthemy , Mariette Maurizot ,
Bernard Delyon (projet Sigma-2)
Nous nous intéressons à l'analyse spatio-temporelle du mouvement fluide 2D dans des images numériques [10]. La considération de modèles linéaires du mouvement peut généralement permettre l'interprétation qualitative d'un tel mouvement, à la condition que ces approximations au premier ordre soient considérées sur un voisinage approprié des points dits singuliers, (i.e. des points où la vitesse est nulle). Localiser les points singuliers, délimiter ces voisinages, et estimer les modèles de mouvement 2D associés sont des problèmes imbriqués. Nous avons proposé une méthode pour résoudre ces trois problèmes qui s'appuie sur une approche statistique adaptative (basée notamment sur un critère biais-variance). Nous avons appliqué ce schéma à des images issues de visualisation expérimentale en mécanique des fluides, [53]; ces images nous ont eté fournies par le LEA de Poitiers et le laboratoire TSI de l'université de Saint-Etienne. Elles montrent la propagation de fumées ou le déplacement de particules dans un fluide en mouvement. La particularité de ce nouveau développement est que l'information spatio-temporelle visée n'est paradoxalement extraite que d'une seule image. L'information de mouvement est en effet contenue soit dans la forme visualisée (images de filets d'émission ou de fumées), soit dans les traits perceptibles dans l'image correspondant à des portions de trajectoire dans les images (images PSV) suite à un temps de pose prolongé.
Dans ce contexte, nous avons défini plusieurs estimateurs du modèle de mouvement n'exploitant qu'une seule image. Nous posons que le champ de vitesse instantané induit par le modèle de mouvement 2D doit être tangent à la forme observée, c'est-à-dire orthogonal au champ des gradients spatiaux de l'intensité avec l'hypothèse que les contours des formes perçues sont des isophotes. Nous avons développé quatre estimateurs de complexité graduelle : i) un estimateur simple par moindres-carrés (via la recherche du vecteur propre associé à la plus petite valeur propre d'une matrice appropriée), ii) ce même estimateur avec pondération des contributions, iii) l'estimateur précédent plongé dans un schéma multi-résolution, et iv) une méthode originale. Cette dernière s'attaque conjointement à l'estimation des paramètres du modèle affine de mouvement (par l'une des trois méthodes précédentes selon les cas considérés), et des gradients spatiaux d'intensité. Elle intègre une modélisation explicite des erreurs respectives de modèle de mouvement et de mesure des gradients d'intensité, et elle revient à une technique de minimisation itérative alternée. Cette dernière méthode s'est avérée la plus fiable sur l'ensemble des exemples réels traités, [10].
Figure: Analyse du mouvement
fluide 2D sur des images de PSV (Particule Streack velocimetry),
provenance Laboratoire d'Études Aérodynamiques de Poitiers.
(a) L'image étudiée sur laquelle nous avons tracé les points
singuliers localisés et les fenêtres finales d'estimation
associées. (b) Tracé, dans les fenêtres finales
d'estimation, des sous-champs de vitesse associés aux modèles de
mouvement estimés sur l'image. (c) et (d) Comparaison entre le
champ des vecteurs orthogonaux au champ estimé des gradients
spatiaux d'intensité, et le champ de vitesse associé au modèle de
mouvement affine estimé pour le point de selle
(élargissement).
Participants : Patrick Bouthemy , Marc Gelgon
L'élaboration d'une représentation compacte du contenu d'une séquence vidéo nécessite une analyse de son contenu spatio-temporel. Cette représentation peut être à la base de nombreuses fonctionnalités comme la visualisation rapide et efficace de vidéo, ou l'indexation par le contenu spatio-temporel pour la recherche d'informations dans une base vidéo. Nous développons une méthode de structuration de vidéo par son contenu dynamique, et de représentation de cette vidéo, dont l'objectif est de créer, de manière automatique, un résumé du contenu d'une vidéo, au moyen d'un ensemble réduit de vues synoptiques, analogue à un ``storyboard'' cinématographique, [64]. Nous effectuons d'abord un découpage temporel de la vidéo en plans et nous caractérisons le mouvement de la caméra par plan, [61]. Ensuite, pour chaque plan, nous extrayons et nous suivons les objets mobiles, [40]. Nous résumons alors chaque plan par une vue synoptique sur laquelle sont annotées les trajectoires des objets mobiles, et les ``événements dynamiques'' pouvant survenir, comme l'apparition, la disparition, l'occultation d'une région mobile ou un croisement entre régions. Les trois phases de la structuration (le découpage en plans, l'extraction des éléments mobiles, la construction du repère synoptique et de l'image mosaïque par plan) exploitent l'estimateur robuste de modèle affine de mouvement 2D [7], dont le coût calculatoire est faible. Pour le moment, nous considérons la représentation de la trajectoire du barycentre des objets mobiles segmentés, trajectoire obtenue par filtrage de Kalman. Deux trajectoires sont en fait fournies : la trajectoire apparente, correspondant aux déplacements dans l'image, et la trajectoire où le mouvement de la caméra est compensé, qui correspond à la trajectoire dans la vue synoptique reconstruite. Cette dernière permet de mieux rendre compte du mouvement réel de l'objet dans la scène, et sa superposition sur la mosaïque permet une appréhension globale du contenu dynamique du plan considéré. Nous avons évalué ce schéma sur plusieurs séquences réelles.
Nous avons défini par ailleurs une nouvelle approche pour la caractérisation non paramétrique du mouvement dans l'image, qui permet d'extraire des descripteurs globaux utiles pour l'indexation vidéo par le contenu. Ces descripteurs de mouvement sont issus de mesures spatio-temporelles locales et ne nécessitent pas de segmentation préalable. Ils résultent de statistiques de co-occurrence liées à une notion de texture temporelle associée au mouvement sous-jacent. L'un des intérêts de cette approche est de permettre une caractérisation de mouvements difficilement modélisables sous forme paramétrique simple comme ceux de l'eau (vagues, rivières), de flammes, ou de foules. De plus, nous avons dérivé une modélisation markovienne équivalente permettant entre autres de générer des réalisations de ces mouvements qui pourront être exploitées dans des phases de requête d'informations.
Figure: Création d'une vue
synoptique de séquence, au moyen d'une image mosaique et du tracé
des trajectoires des éléments mobiles, pour la visualisation
rapide de vidéo et leur indexation.
Participants : Jean-Pierre Le Cadre , Hervé Gauvrit
Les aspects de trajectographie passive se placent une fois les étapes d'extraction (association de données) effectuées. Les méthodes ``batch'' (exploitation en bloc d'un ensemble de mesures) présentent de nombreux avantages, particulièrement dans le domaine sonar [5], du fait d'une part de la nature non-linéaire des observations et, d'autre part, de données manquantes et d'origine incertaine. Elles reposent, pour l'essentiel, sur des algorithmes itératifs de maximisation de la vraisemblance. La question de la convergence de ces algorithmes est un sujet ancien, auquel nous avons pu donner une réponse définitive, valide pour la plupart des modèles de mouvement de source. La détection de manoeuvre prend alors une importance particulière. Ainsi, nous avons démontré la quasi-concavité de la fonctionnelle de vraisemblance par des arguments purement géométriques. Ceci a été illustré par des résultats de simulation montrant l'intérêt d'une estimation globale de la trajectoire d'une source manoeuvrante. Il semble que, pour de nombreux domaines de la trajectographie passive, ce type d'approche pourrait surclasser des approches de type Bayesien (e.g. GPB, IMM, etc.).
Un autre point important est l'analyse de l'estimabilité (d'une trajectoire source). Les liens avec l'observabilité sont plutôt flous et le vocabulaire est incertain. Nous avons développé une analyse explicite de l'estimabilité (en trajectographie), basée sur un formalisme commun, [16]. Cela a conduit aussi bien à des analyses originales, concernant la trajectographie par temps de retard (TPR), et l'appréhension de source manoeuvrante, qu'à des résultats généraux. En particulier, dans le cas de la TPR, cette analyse permet d'optimiser l'architecture du système. La robustesse des méthodes de trajectographie est aussi un point important, peu étudié dans la pratique. Nous avons débuté l'étude de l'utilisation de méthodes d'estimation ensembliste (polytopiques, ellipsoïdales), en collaboration avec le LSS, dans le contexte des méthodes de trajectographie passive. Le but est d'améliorer la robustesse aux maoeuvres, à l'origine des mesures (rejet de mesures aberrantes), ainsi que de permettre la prise en compte explicite de contraintes (e.g. position, vitesse).
L'objectif de la phase d'extraction des pistes est d'attribuer des détections élémentaires aux sources. Elle se situe donc en amont de la partie trajectographie. En fait, les interactions entre ces deux étapes sont très fortes. Il s'agit d'élaborer des pistes à partir des données constituées de plots (de nature binaire dans le cas le plus simple), correspondant aux sorties des étapes de traitement de signaux issus des capteurs. Les problèmes d'optimisation combinatoire sont d'une importance fondamentale dans ce domaine. Une limitation essentielle vient, bien sûr, de la croissance non-polynomiale du nombre d'hypothèses. Pour y remédier, nous avons considéré la résolution d'une suite de problèmes duaux associés, correspondant à une relaxation Lagrangienne de contraintes. Il s'agit d'une résolution approchée, pour laquelle l'optimisation de la stratégie de descente est un point important et difficile. Pour une utilisation pratique de ces méthodes, nous avons soigneusement étudié les étapes préalables de réduction de l'information. Les résultats, obtenus sur des signaux simulés, démontrent l'intérêt de cette approche, que ce soit pour l'extraction multi-capteurs ou pour l'extraction-association de données vectorielles. Dans ce dernier cas, la méthode permet d'initialiser convenablement un algorithme basé sur l'estimation de paramètres de lois de mélanges. L'importance pratique de ces résultats est liée à la généralité de l'approche ainsi qu'à sa robustesse, [9].
Résumé : La perception active consiste à élaborer des stratégies de perception et d'action dans le but d'améliorer, par le contrôle des paramètres du capteur, les performances des algorithmes de vision ou de détection. Nous nous intéressons au contrôle de la position, de la vitesse, ou de la trajectoire de capteurs de type vidéo ou sonar. Deux types de stratégies sont considérés et combinés : d'une part, des stratégies locales, liées aux techniques d'asservissement visuel et fournissant une perception de bas niveau, et d'autre part, des stratégies globales, activées sur des événements particuliers et remontant à une perception de haut niveau.
Participants : François Chaumette , Ezio Malis
Les techniques d'asservissement visuel 2D 1/2 consistent à combiner, dans la fonction de tâche à réguler, des mesures 2D provenant directement de l'image et des mesures 3D obtenues par estimation de l'homographie qui relie l'image de points coplanaires [Fau93]. La combinaison de ces informations permet d'aboutir à des solutions aux propriétés particulièrement intéressantes, évitant notamment les problèmes de non convergence potentielle en asservissement visuel 2D pour des positions initiales de la caméra très éloignées de la position désirée. Nous obtenons en effet un fort découplage de la loi de commande, un contrôle partiel dans l'image permettant de conserver l'objet en permanence dans le champ de vision de la caméra, et une étude assez aisée de la stabilité et du domaine de convergence de la loi de commande. Nous avons ainsi pu démontrer, sous l'hypothèse que l'homographie était correctement estimée (ce qui reste un problème en soi), que la loi de commande était toujours stable (pas de singularité notamment) et que le domaine de convergence était constitué de l'ensemble de la demi-sphère surplombant l'objet [48].
Nous avons généralisé cette approche, que nous n'avions jusqu'alors validée que pour des points appartenant à un plan, à l'utilisation de droites coplanaires, et surtout à l'utilisation de points appartenant à un objet quelconque. Pour ce faire, une nouvelle méthode d'estimation de l'homographie a été développée. Par rapport à l'ensemble des méthodes existantes, elle a l'avantage d'éviter l'estimation conjointe de la position de l'épipole, ce qui lui permet d'obtenir des résultats plus robustes et de ne pas présenter de cas dégénérés.
De plus, l'avantage majeur des techniques d'asservissement visuel 2D 1/2 par rapport à l'ensemble de celles qui avaient été développées auparavant est que la connaissance d'un modèle géométrique 3D de l'objet n'est plus nécessaire. Cela lui donne des potentialités d'application très importantes à partir du moment où le motif à atteindre est préalablement déterminé, par exemple lors d'une phase d'apprentissage.
Participants : François Chaumette , Armel Crétual
Nous avons poursuivi les travaux en asservissement visuel d2D/dt qui consistent à utiliser dans la boucle d'asservissement des informations issues d'une analyse du mouvement 2D, et plus précisément des paramètres représentant un modèle de ce mouvement sur une séquence d'images segmentées ou non. Cette approche a été utilisée pour réaliser une tâche de positionnement telle que le plan image de la caméra soit parallèle au plan d'un objet observé [36]. La réalisation de cette tâche revient à annuler les termes quadratiques du modèle polynomial du mouvement projeté dans l'image. Sous l'hypothèse d'une translation non nulle le long de l'axe optique nous garantissant d'obtenir des mesures significatives, nous pouvons alors obtenir une relation linéaire entre la dérivée temporelle de ces paramètres et la vitesse de rotation de la caméra. Une commande en boucle fermée sur ces informations peut alors être établie. L'utilisation des seuls degrés de liberté en rotation amenant le risque de perte de l'objet dans l'image, cette commande a été complétée par une tâche de fixation qui contraint les deux degrés de liberté de translation parallèle au plan image. Cette tâche supplémentaire permet de conserver toujours le même point au centre de l'image, sans mesurer explicitement la position de ce point dans l'image.
Par ailleurs, il est possible de remonter à des informations visuelles géométriques par simple intégration des paramètres de mouvement estimés (si une localisation initiale est disponible). Nous pouvons alors utiliser directement les lois de commande qui ont été développées en asservissement visuel 2D. Cette approche a été validée sur une tâche de poursuite d'un objet quelconque (tel un piéton par exemple) en contrôlant l'orientation de la caméra. La position du centre de gravité de l'objet peut être estimée à partir des seuls paramètres constants du modèle du mouvement 2D, ce qui a permis une implantation de l'algorithme d'estimation de modèle paramétré de mouvement développé dans le projet [7] à la cadence vidéo sur station de travail (en l'occurrence une Ultra Sparc). Signalons que nous n'avons pas rencontré les problèmes de dérive qui surviennent généralement avec des techniques d'intégration. Cela indique que l'estimation fournie n'est pas biaisée, et est adéquate pour réaliser la tâche choisie.
Participant : Jean-Pierre Le Cadre
Nous considérons le problème de l'optimisation de la stratégie d'observation en trajectographie passive. La maximisation de l'estimabilité, [19], repose alors sur l'optimisation des seules commandes dont nous disposons, la trajectoire de l'observateur. Dans le cadre d'une stratégie à long terme, [17,18], nous avons déterminé la structure des commandes optimales, quantifié les gains en performance ainsi obtenus. L'étude se pousuit avec l'inclusion de contraintes, la prise en compte d'incertitudes a priori, l'optimisation de l'effort de détection d'une source mobile, les scenarii à récepteurs et sources multiples.