Précédent : Logiciels Remonter : Projet SIGMA2, Signaux, Modèles
et Suivant : Actions industrielles
Participants : Bernard Delyon , Jean-Jacques Fuchs ,
Pierre Yves Glorennec , Marc Joannides , Jean-Luc Le Calvez ,
François Le Gland , Serge Lepotier , Laurent Mével , Nicolas
Moal
Mots-clés : signal, identification, optimisation,
non-paramétrique, algorithme, estimation, adaptatif, antenne
Résumé : Dans le domaine de l'estimation/identification, les résultats nouveaux portent sur les points suivants. Pour les approximations stochastiques, nous avons apporté un cadre original permettant l'étude de nouveaux algorithmes. Dans le cas de modèles où le paramètre inconnu est de très grande dimension, nous avons proposé de nouveaux algorithmes, dits ``miroirs''. Nous avons proposé une technique de fusion d'un très grand nombre d'estimateurs pour le cas de l'estimation non-paramétrique, l'estimateur proposé étant naturellement parcimonieux (peu d'estimateurs sont réellement utilisés a posteriori dans le résultat de la fusion). Le même type de technique est utilisé en estimation spectrale et traitement d'antenne pour la localisation de source. Dans le cas des chaînes de Markov cachées, nous avons établi les propriétés asymptotiques de l'estimateur du maximum de vraisemblance et de l'estimateur des moindres carrés conditionnels, et de leurs versions récursives.
Les algorithmes récursifs sont étudiés sous leur forme
générale décrite au §:
Les résultats de convergence obtenus récemment dans le projet
[Del96b] pour ce
type d'algorithmes à gain décroissant ont permis d'étudier de
nouveaux algorithmes d'estimation récursive de processus ARMA et
de montrer le bon comportement d'algorithmes jusqu'ici
inexplorés. Ils sont particulièrement efficaces quand on les
couple avec la méthode de moyennisation de Polyak-Ruppert (la
vitesse de convergence de vers
est alors
optimale). Si l'ordre de l'ARMA est surestimé, l'ensemble des
points stationnaires (solutions
de
, i.e., les filtres qui minimisent l'erreur de
prédiction) devient une variété différentielle, et des techniques
particulières doivent être utilisées pour prouver la convergence
[26].
Une étude est en cours pour la conception d'algorithmes
d'optimisation distribués. L'application concernée est
l'allocation dynamique de ressources radio pour les réseaux de
téléphones mobiles. Il s'agit d'un problème d'optimisation NP
complet pour lequel nous utilisons une approche stochastique. Les
caractéristiques du réseau (absence de synchronisation, étendue
spatiale) imposent la recherche d'algorithmes décentralisés,
c'est-à-dire, éclatés en sous-algorithmes agissant chacun sur un
faible sous-ensemble des paramètres à optimiser.
La collaboration avec le projet VISTA, dans le cadre de la thèse de Mariette Maurizot, s'est poursuivie cette année avec l'utilisation de méthodes statistiques pour les algorithmes d'estimation adaptatifs dans le cadre d'une application concernant l'analyse de mouvement fluide 2D. Cette étude illustre comment le problème de l'adaptativité est lié à celui de l'équilibrage du biais et de la variance des estimateurs, et propose une approche originale pour le résoudre. Nous renvoyons pour plus de détails à la partie du rapport d'activité du projet VISTA consacrée à cette étude (Cf. section 6.2.2. de Vista).
Les algorithmes stochastiques dans le cas où le paramètre
inconnu est de grande dimension sont également
un sujet de préoccupation intéressant. L'analyse de ces méthodes
permet de résoudre le problème de fusion fonctionnelle suivant,
qui est un problème d'estimation non-paramétrique. On possède
observations
d'un processus
satisfaisant
Le réseau d'ondelettes, développé depuis quelques
années par le projet, utilise des ondelettes non-orthogonales
pour identifier des systèmes dont l'entrée est de dimension de
l'ordre de la dizaine. Il réalise un algorithme de résolution de
problèmes d'estimation non-paramétrique et s'inspire des
méthodes neuronales et de l'analyse de régression. Sa mise en
oeuvre prend en compte le caractère disséminé des observations,
s'il y a lieu, pour réduire la complexité de calcul liée à la
dimension de l'entrée. Actuellement, le réseau d'ondelettes est
intégré dans le développement d'une boîte à outils pour
l'identification non linéaire, conjointement mené avec des
collègues de l'Université de Linköping (Suède), cf. module
.
De nouvelles approches permettant de réaliser simultanément la détection et l'estimation sont en cours de développement. Dans le cas fréquent où un signal est la somme d'un petit nombre de contributions appartenant à une ou plusieurs familles paramétrées connues, elles permettent de retrouver les composantes sans estimation préalable de leur nombre. On peut y voir une nouvelle façon de réaliser la déconvolution d'impulsions, un problème en général traité par des approches bayésiennes.
L'approche considérée est très différente, la parcimonie
recherchée est obtenue par le choix d'une norme favorisant les
solutions ayant peu de composantes non-nulles. La norme en est un exemple pour lequel le problème reste convexe
et l'algorithmique est bien maîtrisée.
Dans le cas le plus simple, on observe un vecteur satisfaisant :
Les études en cours concernent l'application de cette technique au traitement d'antenne et au signal radar. Elles portent notamment sur une réécriture des conditions garantissant le succès de la méthode et sur l'évaluation de ses performances statistiques. D'autres critères sont également considérés et évalués [34].
Ce thème de recherche peut se décomposer en trois axes :
Le formalisme de la logique floue permet de manipuler des
connaissances, exprimées dans un langage proche du langage
naturel. L'établissement des règles floues peut se faire soit
directement, par interrogation des experts du domaine, soit par
le traitement de données numériques.
Un système d'inférence floue peut être transformé en un modèle non-paramétrique et non-linéaire, mais, à la différence des modèles de type boîte-noire, tous les paramètres ont une signification physique. Il est donc très facile d'initialiser et d'interpréter le modèle. La contrepartie de l'interprétabilité est double :
Quand l'espace d'entrée devient trop grand et dans la mesure
où il n'est pas entièrement couvert par les données
d'apprentissage, il devient nécessaire d'extraire des prototypes
par des algorithmes de classification floue et de raisonner sur
le degré d'appartenance à ces prototypes.
L'apprentissage par renforcement est une méthode de
programmation dynamique incrémentale, utilisée pour résoudre des
problèmes de décision markoviens, en l'absence de modèle et donc
sans connaître les probabilités de transition d'un état à un
autre. Dans notre approche, la fonction valeur de la
programmation dynamique est approximée par des systèmes
d'inférence floue [38,39]. Une thèse CIFRE [6], soutenue en juin 1997, a
comparé différentes approches pour l'apprentissage par
renforcement, avec une application pour la régulation d'ambiance
[44,65].
Ces méthodes sont utilisées dans différentes applications, citons en particulier :
Un contrat européen, portant sur la commande floue de
bâtiments solaires, vient d'être signé (décembre 1997). Ce
contrat associe des partenaires allemands, anglais, belges et
grecs. Un autre contrat européen, portant sur le traitement du
diabète, est en cours de montage avec un partenaire
industriel.
Enfin, les membres du sous-groupe ``logique floue" ont participé à différentes conférences internationales et écrit dans des revues internationales [13,12].
Nous avons poursuivi l'étude statistique des chaînes de Markov cachées [7], avec un nombre fini et inconnu d'états, le cas le plus naturel étant celui où le nombre d'états est sous-estimé.
Les propriétés d'oubli exponentiel de la condition initiale et d'ergodicité géométrique pour la chaîne de Markov augmentée, formée de la chaîne de Markov non-observée, de la suite des observations, du filtre de prédiction et de ses dérivées successives, restent vraies.
Pour l'estimation de la matrice des probabilités de transition, il n'y a pas dans ce modèle mal-spécifié de notion de vraie valeur du paramètre, mais nous avons montré la convergence de l'estimateur du maximum de vraisemblance et de l'estimateur des moindres carrés conditionnels, vers l'ensemble des minima de la fonction de contraste associée, et la normalité asymptotique des estimateurs.
Nous avons commencé à étudier les méthodes particulaires stochastiques développées par Pierre Del Moral (université Paul Sabatier) et Dan Crisan et Terry Lyons (Imperial College). Ces méthodes numériques consistent à approcher la distribution de probabilité conditionnelle de l'état sachant les observations, par la distribution empirique d'un système de particules, qui se déplacent selon des réalisations indépendantes de l'équation d'état, et qui sont redistribuées ou se multiplient, en fonction de leur cohérence (quantifiée par la fonction de vraisemblance) avec les observations. Ces méthodes sont très séduisantes, mais doivent être comparées avec les méthodes existantes, comme les méthodes de discrétisation par différences finies avec raffinement local adaptatif du maillage. Ce travail de comparaison est l'objet d'un groupe de travail informel qui a débuté en avril 1997, et qui regroupe outre les personnes déja citées, le projet INRIA/CNRS SYSDYS à Marseille. Un travail similaire de comparaison entre méthodes stochastiques et déterministes pour l'équation de Burgers a été effectué dans les projets CAIMAN et OMEGA à Sophia-Antipolis.
Dans le cadre de la collaboration avec le Center for Applied Mathematical Sciences (CAMS de USC), Marc Joannides a développé au cours de son stage d'ingénieur-expert les premiers éléments d'une librairie en C++ pour la résolution numérique des équations du filtrage non-linéaire.
Participants : Michèle Basseville , Qinghua Zhang , Albert
Benveniste , Maher Abdelghani , Laurent Tromp
Mots-clés : supervision, maintenance conditionnelle,
détection de pannes, diagnostic, mécanique, nucléaire, turbines à
gaz, automobile
Maintenance conditionnelle: type de maintenance où la
décision d'intervenir se fait sur observation continue du
procédé, sur détection et diagnostic de dysfonctionnements.
Permet une diminution des coûts de maintenance.
Résumé : Les acquis du projet dans ce domaine consistent en une démarche générale de surveillance et diagnostic d'installations industrielles pour la maintenance conditionnelle, validée par des exemples d'application réels : surveillance de structures mécaniques soumises à vibrations avec l'Ifremer puis EdF (cf. module
), surveillance des chambres de combustion de turbines à gaz avec EGT-Alsthom, surveillance du système de dépollution d'une automobile avec Renault, en coopération avec le projet SOSSO. Nous avons étudié cette année le diagnostic de certaines dégradations d'une centrale nucléaire (EdF/DER) [68]. Par ailleurs, pour un démarrage des études sur le diagnostic de systèmes hybrides de type continu/discret, nous nous sommes fabriqué un exemple d'école correspondant au diagnostic d'une fraiseuse et de ses auxiliaires.
Les travaux de recherche conduits en 1997 concernent à la fois des aspects méthodologiques (voir ci-après), le traitement de nouvelles applications (cf. modules
et
), et des aspects d'implantation et de transfert. Relève en particulier de ce dernier aspect le projet Eureka SINOPSYS qui vise, pour ce qui nous concerne, à opérer un transfert industriel de nos méthodes d'identification et de surveillance de systèmes soumis à vibrations en opération. Pour plus de détails, cf. module
.
Le problème est de surveiller et diagnostiquer les variations
du paramètre dans un système obéissant à un modèle
de la forme
Nous avons développé une autre approche [54] qui consiste au préalable à
éliminer l'état dans le modèle ci-dessus, ce qui donne
un système dynamique non linéaire implicite faisant
intervenir
et leurs dérivées. Notons formellement
ce système dynamique implicite. L'écart
entre les mesures et le modèle est alors l'erreur d'équation,
évalué comme le carré du résidu
lorsque l'on prend pour valeur du paramètre la valeur
nominale
. La fonction d'estimation est alors
. Cette technique a
l'élégance de supprimer le recours à un observateur, mais
l'élimination de l'état est une opération très coûteuse,
effectuée à l'aide de l'algorithme de Ritt (équivalent dynamique
des bases de Gröbner), en utilisant un logiciel dû à Torkel Glad,
de l'Université de Linköping en Suède. Nous n'avons pas réussi, à
ce jour, à utiliser cette approche sur de vraies applications
[54,68].
Ce travail est conduit en coopération avec Maurice Goursat, du
projet META2, Rocquencourt, en liaison
avec Bart de Moor (KUL, Leuven), et dans le cadre du projet
Eureka SINOPSYS conduit par la société
LMS, voir module .
Le problème traité est celui de la surveillance de la
structure propre (valeurs propres de et partie observée
des vecteurs propres associés) d'un système de la forme
Notons la suite des matrices de covariance de
, et notons
la matrice de Hankel formée à
l'aide de la suite
. Par
ailleurs, soit
la matrice d'observabilité du couple
. Alors, il se trouve que
et
ont même noyau à gauche (complémentaire orthogonal de
l'image). Cette propriété peut être utilisée pour estimer
à partir de la donnée de la matrice de Hankel
empirique (où les
sont des estimées
empiriques des covariances): c'est le principe des méthodes
d'identification de sous-espace pour notre problème.
Mais elle peut aussi être utilisée à l'envers: on se donne un
nominal (c'est équivalent en gros à la donnée de
la structure propre du système considéré), dont on calcule le
noyau à gauche représenté par une matrice
. Étant donné de
nouvelles mesures, et donc une nouvelle matrice de Hankel
empirique, le problème est alors de tester si, oui ou non, l'on a
. Nous avons développé une méthode
locale pour ce problème (cf. module
)
qui repose sur un théorème <<central-limite>>
[58,15].
Les méthodes de surveillance dites ``model-based'' supposent souvent l'existence d'un modèle physique du système à surveiller. Pour beaucoup de systèmes industriels complexes, la modélisation physique peut être très partielle ou manquante. Cependant, ces systèmes sont souvent équipés de nombreux capteurs dont les signaux peuvent être utilisés pour la modélisation boîte-noire. Des études ont été menées sur une approche de surveillance basée sur des modèles boîte-noire [55]. Elle consiste, dans un premier temps, à caractériser le fonctionnement normal du système à surveiller par l'identification d'un modèle boîte-noire non linéaire tel qu'un réseau de neurones ou un réseau d'ondelettes, et par la suite, à détecter des changements dans le système qui correspondent à des variations du modèle boîte-noire. Si un modèle physique, même partiel ou approximatif, est disponible, il peut être combiné avec le modèle boîte-noire pour effectuer le diagnostic physique.
Participants : Éric Fabre , Armen Aghasaryan , Albert
Benveniste , Laurent Tromp
Mots-clés : systèmes hybrides, HMM, réseaux de
Petri
Systèmes hybrides: désigne génériquement des systèmes
combinant de manière intime des aspects traités habituellement de
manière disjointe. Par exemple: état continu / état discret,
temps continu (ou échantillonné) / événements, équations ou
contraintes / variables aléatoires.
HMM: Hidden Markov Models (Modèles de Markov Cachés),
technique consistant à inférer, à partir d'observations
``bruitées'', l'état interne caché d'un automate stochastique (ou
chaîne de Markov). Technique très utilisée en reconnaissance de
la parole, et plus récemment dans le diganostic de systèmes
dynamiques discrets ou hybrides. Nous étendons cette technique
aux réseaux de Petri.
Résumé : Ce thème d'étude est en grande partie conjoint avec le projet PAMPA. En vue de l'application au diagnostic des réseaux de télécommunications, nous avons entrepris d'étendre les techniques dites de HMM aux systèmes distribués, modélisés à l'aide de Réseaux de Petri (RdP) saufs selon une interprétation adaptée aux systèmes distribués, c'est-à-dire fondée sur un modèle du temps du type ordre partiel.
Pour réaliser ceci, il nous a fallu 1/ développer une technique d'observateur d'état fondée sur le dépliage de RdP, 2/ créer une nouvelle notion de RdP stochastique adaptée à la sémantique en ordres partiels et aux techniques de dépliage, 3/ étendre l'algorithme de Viterbi calculant la trajectoire d'état de vraisemblance maximale pour un HMM aux RdP avec interprétation en ordres partiels.
Nous étudions actuellement l'utilisation de cette démarche pour le diagnostic de procédés industriels modélisables par des systèmes hybrides continus / discrets.
De nombreuses notions de RdP stochastiques ont été proposées. Si l'on excepte le cas des RdP ``à choix libre'', aucune notion de RdP stochastique ne fournit une coïncidence exacte entre concurrence et indépendance stochastique pour un ensemble de transitions. On souhaiterait en effet que deux transitions concurrentes (qui ne sont en compétition amont ou aval pour aucune place commune), lorsqu'elles sont probabilisées, soient deux variables aléatoires indépendantes.
On peut montrer que cette exigence est contradictoire avec le fait que le RdP stochastique soit une chaîne de Markov, propriété satisfaite par les notions habituelles de RdP stochastique. En revanche, le bon cadre est celui des ``Champs Markoviens avec contraintes'', qui correspond au modèle dit CSS, développé par A. Benveniste, E. Fabre et B.C. Lévy en 1992-1994 [BLFG95]. L'idée de ce modèle est simple: 1/ pour chaque place sujette à conflit (amont et/ou aval), le choix est probabilisé isolément, 2/ on considère l'ensemble de ces places, muni de la loi produit (elles sont alors indépendantes), 3/ on y adjoint les places non sujettes à conflit, 4/ prenant en compte les règles de tir des RdP, on ne conserve que les séquences légales et la loi de probabilité qui en résulte est la loi produit précédemment introduite, conditionnellement à l'ensemble des séquences légales. On montre alors qu'on a bien parfaite adéquation entre concurrence et indépendance stochastique pour un ensemble de transitions.
On dispose donc d'une notion de RdP stochastique (RdPS) pour laquelle nous voulons généraliser les techniques HMM. Nous avons montré qu'il suffit de considérer des pièces constituées d'une transition et des places qui lui sont reliées en amont ou en aval, et d'associer à chaque pièce prise isolément une vraisemblance issue de notre modèle de RdPS, vraisemblance conditionnée par les observations. Le décodage au maximum de vraisemblance revient alors à construire, à la manière d'une programmation dynamique, le puzzle des pièces contribuant aux exécutions de vraisemblance maximale. Voir [24,17,57].
Cette approche, c'est-à-dire ce modèle et cette algorithmique,
s'adapte au cas où les événements émis lors du tirage des
transitions sont des alarmes intelligentes telles que celles
décrites en .
On peut alors envisager la surveillance d'un système combinant
des aspects états et événements discrets (modes de marche du
contrôle-commande et arbre de défaillance) avec des
aspects continus (dégradations ou vieillissement des composants).
L'exemple étudié actuellement est celui du diagnostic d'une
fraiseuse et de ses auxiliaires. Des contacts en vue d'un exemple
d'application industriel pertinent sont en cours.
Mots-clés : Traitement de la parole, vérification du
locuteur, indexation sonore, analyse de données textuelles
Participants : Frédéric Bimbot , Bernard Delyon ,
Mouhamadou Seck
L'accroissement permanent de la masse de documents sonores (enregistrements radiophoniques, bandes sonores d'enregistrements vidéo, etc...) rend indispensable le développement d'outils de repérage et de navigation dans ce type de données. L'indexation sonore a pour but de représenter de façon plus structurée le matériau audio afin d'en faciliter l'accès par le contenu ou selon des critères de similarité. Des travaux ont commencé sur ce thème au sein du projet SIGMA2 notamment sur la détection musique/parole et sur la classification d'échantillons sonores. Ces techniques reposent sur la classification statistique des composantes principales du spectre du signal. Le projet européen ESPRIT DIVAN, qui a débuté en Septembre 1997, va permettre d'intégrer les résultats de ces recherches au sein d'un prototype de système de gestion d'archives audio-visuelles. Ces travaux s'effectuent en collaboration avec le projet VISTA.
Participants : Frédéric Bimbot , Annie Morin
La vérification du locuteur peut être comprise comme un problème de détection. Il s'agit en effet de décider, à partir d'un échantillon sonore, si celui-ci a été prononcé ou non par un locuteur particulier. L'état-de-l'art dans le domaine repose sur l'utilisation de modèles de Markov cachés (HMM) associés à un test de rapport de vraisemblance. Néanmoins, la robustesse des HMM, des algorithmes d'apprentissage et des stratégies de décision est souvent imparfaite, compte tenu du faible volume de données d'entrainement en regard des nombreuses sources de variabilité (dépendance au texte prononcé, variations du canal de transmission, fluctuations de la voix au cours du temps, etc...). L'arrivée dans Sigma2 de Frédéric Bimbot, participant au projet européen Télématics CAVE (vérification du locuteur au téléphone), a permis de développer cette nouvelle thématique à l'Irisa. Le projet PICASSO, qui vise à étendre les résultats du projet CAVE, et dans lequel l'Irisa sera partie prenante, devrait débuter dans les premiers mois de 1998.
Participant : Annie Morin
L'analyse de données textuelles que nous menons porte d'une
part sur l'exploration de textes, d'autre part sur la comparaison
de plusieurs textes.
L'exploration met en oeuvre des méthodes d'analyse de données
pour faire apparaître des regroupements de textes ou de mots. Ces
méthodes d'analyse des données ont été utilisées pour l'analyse
d'un sous-vocabulaire provenant d'une encyclopédie de
typographie.
La recherche sur la comparaison de plusieurs textes, menée en
collaboration avec J. André et H. Richy du projet Imadoc, a porté
sur l'utilisation d'algorithmes de comparaison de séquences,
notamment l'algorithme de Smith et Waterman. Cet algorithme
permet de comparer raisonnablement deux textes de quelques pages
mais dépend de paramètres dont nous souhaitons étudier l'impact
sur les résultats. Il devient inutilisable dans le cas de
comparaion de deux ouvrages. Nous avons constaté qu'une première
analyse des textes segmentés, par des méthodes d'analyse des
données, permet de faire une classification de ces segments en
classes, et d'étudier de façon plus approfondie ces classes, par
exemple en utilisant des algorithmes de comparaison des
différents segments d'une classe donnée. Le point critique reste
le choix du segment. Pour l'instant, une phrase est égale à un
segment. Malheureusement, les phrases peuvent être de longueurs
très différentes, et celà nuit à la performance des résultats de
classification. La recherche va donc porter sur la détermination
de segments de textes.
Participants : Bernard Delyon , Sandra Dufour , Annie
Morin
Des comparaisons entre une approche segmentale et une approche centiseconde, pour la reconnaissance de mots isolés en milieu bruité, ont été faites sur deux bases, l'une monolocuteur, l'autre multilocuteur, avec et sans débruitage. Un algorithme d'inférence automatique a été utilisé. L'application est la mise en oeuvre d'un répertoire vocal pour la numérotation main-libre en voiture.
L'étude sur la reconnaissance de phonèmes a été poursuivie, avec la construction de modèles hors contexte; l'inférence a été également utilisée. Des informations obtenues par la segmentation automatique de l'Irisa ont été introduites pour contraindre les modèles au moment de l'inférence (estimation du nombre d'états utiles), ce qui améliore les résultats, surtout en multilocuteur.
A Morin poursuit une coopération avec R. André-Obrecht de l'Irit à Toulouse, le projet actuel portant sur la comparaison des langues.