Projet Pastis

previous up next contents
Précédent : Logiciels Remonter : Projet PASTIS, Projet d'Analyse de Suivant : Actions industrielles



Résultats nouveaux

 

Reconstruction du relief

Mots-clés : vision 3D, analyse de scène, observation de la Terre


Génération de Modèles Numériques de Terrain par interférométrie RSO

 

Participants : Stéphane Dupont , Marc Berthod


L'interférométrie Radar à Synthèse d'Ouverture (RSO) satellitaire multipasse est une technique fondée sur l'exploitation de différences de phases de deux images radar complexes prises dans des conditions géométriques très proches à deux dates différentes. Parmi les nombreuses applications offertes, l'activité de recherche du projet Pastis s'est concentrée principalement sur la génération de Modèles Numériques de Terrain (MNT).

Une chaîne de production de ces MNT interférométriques a été développée au sein de la société Istar. Pour chaque étape de cette chaîne, c'est-à-dire le déroulement de phase, le calage géométrique et la restitution, des méthodes originales ont été proposées.

Cette chaîne de production est maintenant opérationnelle. L'étendue et la diversité des zones traitées ont permis de recenser certains problèmes mais aussi de réelles limitations. Ainsi, bien plus que les problèmes déterministes (inversion et décalage spectral) et les phénomènes différentiels incohérents comme les forêts ou les rivières, ce sont les phénomènes différentiels cohérents, principalement les artefacts atmosphériques, qui s'avèrent limitatifs.

Trois améliorations du processus de génération de MNT interférométriques ont été apportées: le calage relatif qui doit permettre de limiter le nombre de points d'appui, le quicklook interférométrique qui détecte en un temps réduit les effets différentiels cohérents présents dans une paire d'interférogrammes (voir figure [*]) et la fusion de MNT.


   Figure: Exemple de résultat obtenu sur la détection d'effets différentiels cohérents à l'aide du quicklook sur un site de Bretagne: (Gauche) La différence des deux MNT RSO en géométrie radar. (Droite) Le quicklook associé. Des effets basse fréquence sont associés à des phénomènes plus localisés d'amplitude pouvant atteindre les deux tours de phase. Dimensions au sol: 100 km $\times$ 100 km.

\begin{figure} {\includegraphics[width=6.8cm]{FIG/slow.ps} \includegraphics[width=6.8cm]{FIG/quick.ps}}\end{figure}


Super-résolution

 

Participants : Hassan Shekarforoush , Josiane Zerubia , Marc Berthod


Ce travail se situe dans le cadre d'une modélisation markovienne pour traiter le problème de la reconstruction 3D à haute résolution à partir d'images aériennes ou satellitaires présentant un décalage sous pixélique (logiciel SURPRISE). En utilisant des résultats obtenus les années précédentes sur la mise en correspondance sous-pixélique, par une méthode fondée sur l'estimation des composantes polyphases du spectre de puissance croisé des images, nous avons traité des images aériennes ainsi que des simulations d'images du futur capteur Spot 5 dans le cadre d'un contrat avec le Cnes. L'utilisation de champs de Markov nous a permis d'introduire la connaissance a priori et de ramener le problème à celui de la minimisation d'une fonction de coût non convexe lorsque l'on souhaite reconstruire à la fois l'intensité et l'altitude qui correspondent à chaque pixel de l'image.

Restauration et déconvolution

Mots-clés : champ de Markov, estimation de paramètres, analyse de scène, observation de la Terre


Restauration d'images et estimation simultanée des hyperparamètres par une analyse en cumulants

 

Participant : Marc Sigelle


Ce travail a utilisé les propriétés de base des distributions de Gibbs en tant que statistiques exponentielles : échantillonnage, recuit et convergence pour un espace de configuration fini ainsi que les principales propriétés du développement en cumulant de telles distributions. On a abordé ensuite le problème de l'estimation des hyperparamètres dans un contexte de restauration d'images, c'est-à-dire en données incomplètes. Cela nous a conduit à formuler plusieurs méthodes de restauration-estimation simultanées des hyperparamètres, sur la base d'un algorithme de gradient stochastique généralisé. Un développement en cumulants a amené là aussi à proposer une nouvelle formulation ainsi qu'à étendre la méthode au cas d'un processus bord complémentaire explicite, pour la gestion des discontinuités.

Estimation d'hyperparamètres pour la déconvolution d'images satellitaires.

 

Participants : Mustapha Khoumri , Laure Blanc-Féraud , Josiane Zerubia


Le problème posé est la restauration d'image à partir de données satellitaires. Il s'agit d'éliminer l'effet de la fonction de transfert du système d'acquisition, cette fonction étant connue.

Ce problème de déconvolution en présence de bruit est mal posé et une technique de régularisation non linéaire (préservant les contours de l'image) pour stabiliser la solution est utilisée. Le modèle d'image mis en oeuvre fait intervenir des hyperparamètres et nous nous sommes intéressés plus particulièrement à l'estimation conjointe de l'image et des hyperparamètres.

L'estimateur du maximum de vraisemblance est extrêmement difficile à calculer en données incomplètes. De plus, dans le cas étudié, la fonction de transfert est de large support ce qui rend impossible la mise en oeuvre de méthodes à base d'échantillonnage. Nous proposons donc de maximiser la vraisemblance généralisée, ce qui est effectué par une méthode sous-optimale (par minimisation alternée sur l'image et les paramètres).

Le problème revient alors, à chaque itération, à estimer le maximum de vraisemblance des hyperparamètres en données complètes (connaissant l'image restaurée). Nous utilisons la méthode de gradient stochastique pour l'estimation des paramètres du modèle, qu'ils soient à dépendance linéaire ou non. Ainsi, tous les paramètres sont estimés en même temps.

La méthode a été validée expérimentalement sur des données synthétiques et réelles. Dans le cas d'une dégradation de l'image par un bruit uniquement, elle a été comparée avec succès à la méthode exacte du maximum de vraisemblance (voir figure [*]).


   Figure: Restauration d'image satellitaire

\begin{figure}\begin{center}$\begin{array}{cc}\includegraphics[width=4cm]{F... ...{ image des erreurs } \\ \mbox{ } &\mbox{ } \end{array}$\end{center}\end{figure}


Segmentation et classification

Mots-clés : champ de Markov, observation de la Terre, cartographie


Segmentation d'image par une méthode de jeu coopératif

 

Participants : Guo-Dong Guo , Shan Yu


En collaboration avec l'Institut d'automatique de l'académie des sciences de Chine, nous avons proposé une nouvelle méthode de segmentation d'images fondée sur la théorie des jeux coopératifs. Nous considérons le problème de segmentation d'images comme un problème d'étiquetage. Les joueurs représentent les objets (ou les pixels) dans des images et les stratégies des joueurs représentent les étiquettes à attribuer. Les fonctions de gain des joueurs sont dérivées de la modélisation bayésienne par le formalisme des champs de Markov. Nous nous intéressons à la maximisation de la probabilité a posteriori de ces fonctions.

Dans un jeu coopératif, les joueurs peuvent former des coalitions, ce qui correspond à des regroupements d'objets dans les images à analyser. Dans notre méthode, la coalition se forme en deux étapes. Après la phase d'initialisation, se forment des coalitions non stables dans lesquelles le bénéfice de l'ensemble de l'équipe croît. Néanmoins, il se peut que le bénéfice individuel de certains joueurs décroisse. Ensuite se forment des coalitions stables où les bénéfices collectifs et individuels croissent tous les deux. Cette méthode semble être prometteuse d'après les résultats obtenus sur des images synthétiques et sur des images réelles, en comparaison avec notre ancien algorithme de jeu non-coopératif et d'autres méthodes connues dans la littérature. La figure [*] montre les résultats de segmentation d'une image par cette méthode ainsi que par d'autres méthodes existantes (mode conditionnel itéré ICM, recuit simulé (SA), jeu non-coopératif (GSA), jeu coopératif (CGA)).

   Figure: Segmentation d'image par une méthode de jeu coopératif et par d'autres méthodes.

\begin{figure}\begin{center}\begin{picture}(14, 11)\put(0, 6){\includegraph... ...cs[width=4cm]{FIG/sa.2.ps}}\put(11, 0){SA}\end{picture}\end{center}\end{figure}


Classification de zones urbaines à partir d'images Spot

 

Participants : Frédéric Richard , Gérard Giraudon , Josiane Zerubia


Dans le cadre d'un contrat avec Alcatel Alsthom Recherche (collaboration avec F. Falzon), nous nous sommes posés le problème de l'identification de zones urbaines dans l'imagerie Spot panchromatique à partir de techniques de classification non supervisée. La difficulté de la tâche est la très grande variabilité de l'habitat inter et intra-ville de sorte qu'il est très difficile d'établir des critères ou un modèle a priori permettant d'identifier les villes et plus encore les quartiers pour l'ensemble des situations qui peuvent être rencontrées. Pour résoudre cette difficulté, nous avons étudié un algorithme semi-supervisé de classification. Deux principales caractéristiques ont guidé l'approche. La première était la volonté d'utiliser des attributs texturaux locaux, la seconde était fondée sur une formulation markovienne permettant de ramener le problème à un problème d'optimisation. Le point de départ de la réflexion a été le modèle de segmentation défini par Kervrann et Heitz en 95 que nous avons amélioré sur trois points :

Cela se traduit sur les résultats par la distinction entre l'urbain et le non-urbain à la première itération, puis, le critère d'étiquetage d'un site s'affinant, on constate la détection de différentes textures (ou classes) à l'intérieur de l'urbain même. L'algorithme est semi-supervisé car il fait appel à l'opérateur pour stopper la convergence de manière à ce que les régions détectées aient encore un sens interprétatif. Les expérimentations que nous avons menées sur des images panchromatiques en utilisant des techniques ICM ou de recuit montrent que notre formulation donne des résultats stables et qu'avec un ICM en une itération, nous sommes capables de discerner de manière macroscopique l'urbain du non-urbain (voir figure [*]).


   Figure: ICM amélioré sur Paris extrait 3.

\begin{figure}\begin{center}\subfigure[phase $k=1$]{\includegraphics[angle=90... ...ics[angle=90,width=6.5cm]{FIG/paris3.icm1.et11.seg.eps}}\end{center}\end{figure}


Modélisation de la redondance d'image, étude et application à la classification

 

Participants : Espen Volden , Gérard Giraudon


Après avoir proposé les années précédentes, des modélisations de la redondance d'image afin d'avoir une mesure de comparaison et après avoir appliqué ces modèles à la classification d'images, nous nous sommes intéressés, pour cette dernière année, à formaliser une mesure qui puisse être une distance, au sens mathématique, entre images. Nous proposons l'équation suivante :

\begin{equation}d(X,Y) = H(X,Y) - R(X,Y)\end{equation}



$H(X,Y)$ décrit l'entropie conjointe et $R(X,Y)$ représente l'information mutuelle (ou redondance).

On considère, l'ensemble $E$ de toutes les images d'une taille donnée tel que

\begin{equation}E = { {A(B_i)}, f_i(A) = B_i} \end{equation}



$f_i$ est une bijection sur les niveaux de gris de l'image X.

On peut alors montrer que la distance $d(X,Y)$, telle que définie ci-dessus, est une distance au sens mathématique du terme c.à.d. qu'elle vérifie les trois propriétés : i positivité, ii symétrie, iii inégalité triangulaire.

En tant que distance entre deux images quelconques, elle ne vérifie pas la propriété de positivité stricte ($d(X,Y) \gt 0$ si $X \neq Y$). Cependant, cette mesure peut être intéressante car elle fournit un outil de mesure invariante par toute transformation bijective sur l'espace des niveaux de gris d'une image (et en particulier par des transformations monotones tel que logarithme etc). Nous avons vérifié expérimentalement cette propriété pour un certain nombre de transformations bijectives à savoir :
$d(X,f(X)) = 0.0$$f$ est une bijection sur les niveaux de gris de $X$.

Texture

Mots-clés : champ de Markov, estimation de paramètres, observation de la Terre, cartographie


Champs de Gibbs avec interactions de paires multiples en synthèse et segmentation de texture



Participant : Georgy Gimel'farb


On présente une nouvelle modélisation d'images de textures homogènes globalement ou par morceaux (régions). Nous faisons pour cela appel à de nouveaux modèles de champs de Gibbs, markoviens ou non-markoviens, mettant en jeu des interactions de paires multiples. Ces modèles permettent l'apprentissage simultané de la structure des interactions et de la force des potentiels de Gibbs associés à partir d'un échantillon d'apprentissage initial. La méthode d'apprentissage est fondée sur une approximation analytique, puis stochastique, de l'estimée au maximum de vraisemblance de ces potentiels de Gibbs. Une nouvelle méthode donnant l'estimation de ces potentiels (à un facteur d'échelle près) est ainsi précisée. Elle exploite l'estimation du maximum de la vraisemblance conditionnelle, à condition que l'échantillon d'apprentissage ait des caractéristiques suffisamment proches de la population parente de la texture à estimer. Ces modèles replacent la synthèse et la segmentation de textures homogènes par morceaux dans un même cadre bayésien et mettent en jeu un « recuit simulé contrôlable » afin de générer soit la texture désirée, soit la carte des labels associée. Des résultats expérimentaux en simulation et en segmentation de diverses textures naturelles ont été obtenus.

Extraction des zones urbaines par modèle markovien de texture



Participants : Anne Lorette , Josiane Zerubia , Georgy Gimel'farb


Ce travail est effectué en collaboration avec le Cnes de Toulouse. Dans un premier temps, nous avons appliqué un modèle markovien développé par G. Gimel'farb pour la segmentation d'images de texture. Ce modèle est original dans la mesure où il ne se limite pas à un voisinage restreint mais, selon le type de texture, introduit des interactions à plus longue portée (cf. 5.4.1).

Des simulations ont été effectuées sur des images Spot 3 (figure [*]). Le problème de ce modèle est qu'il suppose une invariance par translation de la texture. Or, lorsque la résolution des images augmente (par exemple en panchromatique pour les simulations Spot 5), cette hypothèse n'est plus vérifiée par la texture urbaine. Par contre, avec cette augmentation de la résolution, les voies de communications apparaissent plus nettement et semblent bien caractériser le milieu urbain.

Dans une seconde étape, on a donc cherché à extraire une partie du réseau de communication à l'aide d'un détecteur de ligne adaptée.


   Figure: Image initiale et résultat de l'extraction de zones urbaines

\begin{figure}\begin{center}\includegraphics[width=4cm]{FIG/alorette_1.ps}\hspace{2cm}\includegraphics[width=4cm]{FIG/alorette_2.ps}\end{center}\end{figure}


Étude de la décomposition de Wold 2D et son application aux images texturées

 

Participants : Radu Stoica , Josiane Zerubia , Marc Sigelle


Ce travail a été réalisé en collaboration avec J. Francos de l'université Ben Gurion en Israël. En utilisant la décomposition de Wold, on décompose la texture, supposée être la réalisation d'un champ aléatoire discret et homogène, suivant deux composantes orthogonales : une composante purement aléatoire (relative à l'aspect granulaire) et une composante déterministe. À son tour, la composante déterministe est décomposée en deux autres composantes orthogonales : une composante harmonique (relative à l'aspect périodique) et une composante évanescente (relative à l'aspect directionnel).

Ensuite, on va utiliser les paramètres des textures ainsi estimées pour construire une distance entre textures et construire une procédure de segmentation non-supervisée des images texturées. Les résultats obtenus sur une texture de Brodatz sont présentés figure [*] . Des tests ont également été réalisés sur des images satellitaires.


   Figure: Segmentation non-supervisée d'un collage de textures de Brodatz

\begin{figure}\begin{center}\subfigure[Image originale]{\includegraphics[widt... ...ations]{\includegraphics[width=4cm]{FIG/rstoica_2.eps}}\end{center}\end{figure}


Recherche d'origine appliquée

Mots-clés : interprétation de scène, reconnaissance de forme, système à base de connaissances, cartographie


Classification sub-pixélique de l'occupation du sol

 

Participants : Sandrine Mathieu-Marni , Josiane Zerubia


Ce travail se situe dans le cadre d'un contrat avec Alcatel-Alsthom-Recherche (réalisé en collaboration avec F. Falzon). Il s'agit d'intégrer dans une plateforme Alcatel, dédiée à l'extraction de données géographiques, des compétences en classification multispectrale sub-pixélique du projet Pastis. Ces compétences visent essentiellement la bibliothèque de programmes COCKTAIL et ses différentes possibilités, aussi bien en extraction de pourcentage de mélanges d'occupation du sol qu'en classification d'image satellitaire multispectrale. Un exemple est donné figure [*].


   Figure: Exemple de classification d'occupation du sol à partir de la méthode COCKTAIL

\begin{figure} \begin{center} \includegraphics[width=10cm]{FIG/smathieu.ps} \end{center}\end{figure}


Intégration d'algorithmes de détection d'objets cartographiques dans le système à base de connaissances Messie

 

Participants : Bernard Hotz , Fadi Sandakly , Gérard Giraudon


Depuis la fin des années 80, le projet Pastis travaille sur les concepts d'un système à base de connaissances, dénommé MESSIE, architecture générique multispécialiste, hiérarchique et centralisée, pour les problèmes d'interprétation d'image 2D et 3D.

Dans ce système, les différentes tâches vision sont structurées sous forme de spécialistes déclenchés par un processus superviseur. En plus des déclenchements par requêtes, la dernière version de MESSIE inclut le déclenchement des spécialistes par le mécanisme des évènements permettant ainsi la prise en compte de stratégies mixtes (guidées par les buts et/ou les données). MESSIE a démontré son intérêt dans les deux applications suivantes : l'interprétation de scènes d'intérieur 3D et la détection d'objets cartographiques dans des scènes satellitaires.

Pour cette nouvelle application, l'Inria et le Cnes ont décidé de faire évoluer MESSIE vers un fonctionnement supervisé (opérateur dans la boucle) et d'enrichir au maximum le nombre de spécialistes de détection d'objets en y intégrant des algorithmes ayant déjà fait l'objet d'une collaboration Inria-Cnes. Ces algorithmes sont les suivants :

Enfin, la dernière phase a consisté en l'évaluation des possibilités offertes par l'ensemble du système, sur différents scénarii d'interprétation faisant intervenir des données provenant de multiples capteurs (scènes Spot, Sar ...(cf. figure [*] par exemple)).

Si l'on fait le bilan de ces dix années de recherche, cette étude et les précédentes ont largement démontré le caractère générique de la structuration des connaissances et de l'architecture de MESSIE par la relative facilité d'intégration de nouveaux spécialistes et des connaissances nécessaires, tant au niveau des objets que de la stratégie. Ces différentes applications montrent que l'architecture MESSIE fonctionne aussi bien en mode autonome qu'en mode supervisé et donc nous semble être un système tout à fait adapté à l'analyse symbolique de scènes en général.


   Figure: Détection sous MESSIE d'agglomération, de mer, de routes.

\begin{figure}\includegraphics[width=14cm]{FIG/screen1.eps}\end{figure}


Étude d'un système de vision embarqué pour les phases de descente des missions planétaires



Participants : Eric Zekri , Gérard Giraudon


Cette étude concerne l'élaboration, puis l'implémentation à bord, d'une méthode de détection et d'évitement d'obstacles en vue des phases de descente des missions planétaires programmées à l'Horizon 2000 par l'Agence Spatiale Européenne - Esa/Estec à Noordwijk, Pays-Bas.

Les derniers travaux théoriques ont été consacrés à poursuivre l'étude de la détection et de la certification, c'est-à-dire la mise en oeuvre du choix du site d'atterrissage sous une contrainte de minimiser le risque. L'hypothèse forte est que nous devons prendre les décisions à l'instant $t$ uniquement à partir de l'image 2D acquise à cet instant et de la trajectoire de l'engin.

La détection est fondée sur l'analyse multiéchelle et sur la dimension fractale du signal. À partir de la signature du signal image dans le domaine multiéchelles, sont tout d'abord définis des moments (moments échelles) caractéristiques :

D'un point de vue général, les moments échelles se présentent comme un outil d'analyse permettant de qualifier à volonté le profil spectral d'un signal, et notamment, d'interpoler son spectre local par une famille de fonctions hyperboliques. Du point de vue de la détection, les moments échelles forment la base de deux thèmes de recherche :

De cette étude, aux issues plus théoriques qu'appliquées, ressort une forte corrélation entre le comportement subjectif de la surface observée et les facteurs de forme estimés, ainsi qu'un lien fort entre les thèmes « régularité » et « forme ».

La certification revient à minimiser un coût par option, une option comprenant un site préféré et quelques sites de rechange. Le coût d'une option relate des aspects régularité (au sens détection), compacité locale et coût de la navigation attachés à chacun des éléments-sites de l'option. À l'issue de cette étude, la représentation de l'information et des contraintes se révèle cohérente ; néanmoins, des techniques à base de connaissances pourraient être envisagées pour améliorer l'étape de décision en utilisant des heuristiques exploitant les connaissances a priori que l'on peut avoir sur le cadre de la mission.

Enfin, les derniers travaux relatifs à l'implémentation à bord concernent la première méthode de détection-évitement directement issue du thème « régularité » vu plus haut. À l'issue d'une étape de représentation par graphe de flot de données, les temps de calcul obtenus répondent aux spécifications d'un traitement embarqué, à savoir moins de 3 secondes quel que soit le contenu de l'image. La partie détection de la méthode a, par ailleurs, été sélectionnée dans la cadre de missions prévues à l'Horizon 2000, et fait actuellement l'objet d'une intégration au sein d'un simulateur « à grande échelle » de la mission d'exploration lunaire LEDA.

Génération de quick-looks adaptatifs préservant des thèmes cartographiques dans les images satellitaires.

 

Participants : Jean-Michel Benharrosh , Marc Berthod


Les objectifs de ce travail sont doubles. Le premier consiste à mettre au point des méthodes de réalisation d'images basse résolution conservant, voire soulignant, certains thèmes d'occupation des sols utiles à la structuration du paysage et au repérage de l'utilisateur. Le second objectif concerne la compression des images. En effet, devant le flot d'information que constitue une image satellitaire ou aérienne, il est souvent très appréciable, lorsque l'on dispose d'un réseau bas débit par exemple, de ne transmettre à la résolution optimale que les données significatives et pertinentes pour l'utilisateur. Ainsi, peut-on choisir de transmettre, par exemple, l'image basse résolution générée précédemment mettant en évidence certains thèmes spécifiques qui, eux, sont transmis à haute résolution : c'est le principe de la compression adaptative.

Nous avons continué l'étude commencée en 1996, concernant l'analogie électrique en étudiant les relations entre les paramètres diffusifs de l'algorithme et la résolution de l'image diffusée. Nous nous sommes ensuite orientés vers les aspects de réduction du support (génération du quick-look adaptatif) et de compression. À ce titre, une étude comparative de certains algorithmes de compression d'images (algorithmes réversibles et irréversibles) a été menée. À cette occasion, nous avons développé un logiciel interactif, C.A.S.T. (Compression Adaptative et Sélective pour la Transmission) permettant de compresser de façon adaptative des zones qualifiées d'intérêt par l'utilisateur désireux de transmettre de façon optimale des données de type image sur un réseau bas ou moyen débit.



previous up next contents Précédent : Logiciels Remonter : Projet PASTIS, Projet d'Analyse de Suivant : Actions industrielles