Projet Sigma2

previous up next contents
Précédent : Logiciels Remonter : Projet SIGMA2, Signaux, Modèles et Suivant : Actions industrielles



Résultats nouveaux

Identification et systèmes adaptatifs, cf. modules [*], [*]

 

Participants : Bernard Delyon , Jean-Jacques Fuchs , Pierre Yves Glorennec , Marc Joannides , Jean-Luc Le Calvez , François Le Gland , Serge Lepotier , Laurent Mével , Nicolas Moal


Mots-clés : signal, identification, optimisation, non-paramétrique, algorithme, estimation, adaptatif, antenne


Résumé : Dans le domaine de l'estimation/identification, les résultats nouveaux portent sur les points suivants. Pour les approximations stochastiques, nous avons apporté un cadre original permettant l'étude de nouveaux algorithmes. Dans le cas de modèles où le paramètre inconnu est de très grande dimension, nous avons proposé de nouveaux algorithmes, dits ``miroirs''. Nous avons proposé une technique de fusion d'un très grand nombre d'estimateurs pour le cas de l'estimation non-paramétrique, l'estimateur proposé étant naturellement parcimonieux (peu d'estimateurs sont réellement utilisés a posteriori dans le résultat de la fusion). Le même type de technique est utilisé en estimation spectrale et traitement d'antenne pour la localisation de source. Dans le cas des chaînes de Markov cachées, nous avons établi les propriétés asymptotiques de l'estimateur du maximum de vraisemblance et de l'estimateur des moindres carrés conditionnels, et de leurs versions récursives.


Estimation adaptative

Les algorithmes récursifs sont étudiés sous leur forme générale décrite au §[*]:

\begin{displaymath}\theta_{n} = \theta_{n-1} + \gamma_{n} H( \theta_{n-1},Y_n) \end{displaymath}



dans un cadre stochastique. $\theta_n$ est ici l'estimé du vrai paramètre $\theta^*$ (inconnu) à l'itération $n$, $Y_n$ est l'observation, de caractère aléatoire stationnaire, et $\gamma_n$ est un gain décroissant ou constant. $\theta^*$ est la solution de l'équation $E[H(\theta^*,Y_n)]=0$.

Les résultats de convergence obtenus récemment dans le projet [Del96b] pour ce type d'algorithmes à gain décroissant ont permis d'étudier de nouveaux algorithmes d'estimation récursive de processus ARMA et de montrer le bon comportement d'algorithmes jusqu'ici inexplorés. Ils sont particulièrement efficaces quand on les couple avec la méthode de moyennisation de Polyak-Ruppert (la vitesse de convergence de $\theta_n$ vers $\theta^*$ est alors optimale). Si l'ordre de l'ARMA est surestimé, l'ensemble des points stationnaires (solutions $\theta^*$ de $E[H(\theta^*,Y_n)]=0$, i.e., les filtres qui minimisent l'erreur de prédiction) devient une variété différentielle, et des techniques particulières doivent être utilisées pour prouver la convergence [26].

Une étude est en cours pour la conception d'algorithmes d'optimisation distribués. L'application concernée est l'allocation dynamique de ressources radio pour les réseaux de téléphones mobiles. Il s'agit d'un problème d'optimisation NP complet pour lequel nous utilisons une approche stochastique. Les caractéristiques du réseau (absence de synchronisation, étendue spatiale) imposent la recherche d'algorithmes décentralisés, c'est-à-dire, éclatés en sous-algorithmes agissant chacun sur un faible sous-ensemble des paramètres à optimiser.

La collaboration avec le projet VISTA, dans le cadre de la thèse de Mariette Maurizot, s'est poursuivie cette année avec l'utilisation de méthodes statistiques pour les algorithmes d'estimation adaptatifs dans le cadre d'une application concernant l'analyse de mouvement fluide 2D. Cette étude illustre comment le problème de l'adaptativité est lié à celui de l'équilibrage du biais et de la variance des estimateurs, et propose une approche originale pour le résoudre. Nous renvoyons pour plus de détails à la partie du rapport d'activité du projet VISTA consacrée à cette étude (Cf. section 6.2.2. de Vista).

Estimation non-paramétrique

Les algorithmes stochastiques dans le cas où le paramètre inconnu $\theta$ est de grande dimension sont également un sujet de préoccupation intéressant. L'analyse de ces méthodes permet de résoudre le problème de fusion fonctionnelle suivant, qui est un problème d'estimation non-paramétrique. On possède $n$ observations $(y_1,...y_n)$ d'un processus satisfaisant

\begin{displaymath}y_k=f(y_{k-1},...,y_{k-d})+b_k\end{displaymath}



$b_k$ est un bruit et $f$ est une fonction de ${\bf R}^d$ dans R; il s'agit de trouver le meilleur estimateur de $f$ comme combinaison convexe de $M$ fonctions $f_1,...,f_M$ données à l'avance (typiquement $M$ est d'ordre $n^{\alpha}, \alpha\gt$ et la famille $(f_i)$ est fortement non-orthogonale). Nous proposons un algorithme de type miroir qui donne des approximations de $f^*$ (la meilleure combinaison convexe) avec une vitesse ``minimax'', qui ne peut être améliorée de façon significative [61]. Notons que la solution obtenue est génériquement parcimonieuse au sens où assez peu de fonctions interviennent dans la solution finale.

Le réseau d'ondelettes, développé depuis quelques années par le projet, utilise des ondelettes non-orthogonales pour identifier des systèmes dont l'entrée est de dimension de l'ordre de la dizaine. Il réalise un algorithme de résolution de problèmes d'estimation non-paramétrique et s'inspire des méthodes neuronales et de l'analyse de régression. Sa mise en oeuvre prend en compte le caractère disséminé des observations, s'il y a lieu, pour réduire la complexité de calcul liée à la dimension de l'entrée. Actuellement, le réseau d'ondelettes est intégré dans le développement d'une boîte à outils pour l'identification non linéaire, conjointement mené avec des collègues de l'Université de Linköping (Suède), cf. module [*].

Estimation spectrale et traitement d'antenne

De nouvelles approches permettant de réaliser simultanément la détection et l'estimation sont en cours de développement. Dans le cas fréquent où un signal est la somme d'un petit nombre de contributions appartenant à une ou plusieurs familles paramétrées connues, elles permettent de retrouver les composantes sans estimation préalable de leur nombre. On peut y voir une nouvelle façon de réaliser la déconvolution d'impulsions, un problème en général traité par des approches bayésiennes.

L'approche considérée est très différente, la parcimonie recherchée est obtenue par le choix d'une norme favorisant les solutions ayant peu de composantes non-nulles. La norme $\ell_1$ en est un exemple pour lequel le problème reste convexe et l'algorithmique est bien maîtrisée.

Dans le cas le plus simple, on observe un vecteur $\hat{b}$ satisfaisant :

\begin{displaymath}\hat{b} = \sum_{p=1}^P \alpha_p a(\tau_p) + e \end{displaymath}




$e$ représente le bruit vectoriel et $a(\tau)$ la famille de vecteurs paramétrés. Il s'agit d'estimer $P$ et les paramètres $\{ \alpha_p, \tau_p \}$. On transforme ce problème pour le mettre, par exemple, sous la forme d'un programme quadratique :

\begin{displaymath}\min_X ~\Vert\hat{b} - AX\Vert _2^2 + \lambda ~\Vert X\Vert _1 \end{displaymath}



$A$ est une matrice rectangulaire horizontale dont les colonnes sont des vecteurs $a(\tau_k)$ avec $\tau_k=kh+\tau_o$ par exemple. On montre que sous certaines conditions, pour un pas de discrétisation $h$ et une pondération $\lambda$ bien choisis, l'unique solution du programme quadratique permet de résoudre le problème de détection et d'estimation.

Les études en cours concernent l'application de cette technique au traitement d'antenne et au signal radar. Elles portent notamment sur une réécriture des conditions garantissant le succès de la méthode et sur l'évaluation de ses performances statistiques. D'autres critères sont également considérés et évalués [34].

Systèmes d'inférence floue

Ce thème de recherche peut se décomposer en trois axes :

Le formalisme de la logique floue permet de manipuler des connaissances, exprimées dans un langage proche du langage naturel. L'établissement des règles floues peut se faire soit directement, par interrogation des experts du domaine, soit par le traitement de données numériques.

Un système d'inférence floue peut être transformé en un modèle non-paramétrique et non-linéaire, mais, à la différence des modèles de type boîte-noire, tous les paramètres ont une signification physique. Il est donc très facile d'initialiser et d'interpréter le modèle. La contrepartie de l'interprétabilité est double :

Quand l'espace d'entrée devient trop grand et dans la mesure où il n'est pas entièrement couvert par les données d'apprentissage, il devient nécessaire d'extraire des prototypes par des algorithmes de classification floue et de raisonner sur le degré d'appartenance à ces prototypes.

L'apprentissage par renforcement est une méthode de programmation dynamique incrémentale, utilisée pour résoudre des problèmes de décision markoviens, en l'absence de modèle et donc sans connaître les probabilités de transition d'un état à un autre. Dans notre approche, la fonction valeur de la programmation dynamique est approximée par des systèmes d'inférence floue [38,39]. Une thèse CIFRE [6], soutenue en juin 1997, a comparé différentes approches pour l'apprentissage par renforcement, avec une application pour la régulation d'ambiance [44,65].

Ces méthodes sont utilisées dans différentes applications, citons en particulier :

Un contrat européen, portant sur la commande floue de bâtiments solaires, vient d'être signé (décembre 1997). Ce contrat associe des partenaires allemands, anglais, belges et grecs. Un autre contrat européen, portant sur le traitement du diabète, est en cours de montage avec un partenaire industriel.

Enfin, les membres du sous-groupe ``logique floue" ont participé à différentes conférences internationales et écrit dans des revues internationales [13,12].

Identification des chaînes de Markov cachées

Nous avons poursuivi l'étude statistique des chaînes de Markov cachées [7], avec un nombre fini et inconnu d'états, le cas le plus naturel étant celui où le nombre d'états est sous-estimé.

Les propriétés d'oubli exponentiel de la condition initiale et d'ergodicité géométrique pour la chaîne de Markov augmentée, formée de la chaîne de Markov non-observée, de la suite des observations, du filtre de prédiction et de ses dérivées successives, restent vraies.

Pour l'estimation de la matrice des probabilités de transition, il n'y a pas dans ce modèle mal-spécifié de notion de vraie valeur du paramètre, mais nous avons montré la convergence de l'estimateur du maximum de vraisemblance et de l'estimateur des moindres carrés conditionnels, vers l'ensemble des minima de la fonction de contraste associée, et la normalité asymptotique des estimateurs.

Méthodes numériques en filtrage non-linéaire

Nous avons commencé à étudier les méthodes particulaires stochastiques développées par Pierre Del Moral (université Paul Sabatier) et Dan Crisan et Terry Lyons (Imperial College). Ces méthodes numériques consistent à approcher la distribution de probabilité conditionnelle de l'état sachant les observations, par la distribution empirique d'un système de particules, qui se déplacent selon des réalisations indépendantes de l'équation d'état, et qui sont redistribuées ou se multiplient, en fonction de leur cohérence (quantifiée par la fonction de vraisemblance) avec les observations. Ces méthodes sont très séduisantes, mais doivent être comparées avec les méthodes existantes, comme les méthodes de discrétisation par différences finies avec raffinement local adaptatif du maillage. Ce travail de comparaison est l'objet d'un groupe de travail informel qui a débuté en avril 1997, et qui regroupe outre les personnes déja citées, le projet INRIA/CNRS SYSDYS à Marseille. Un travail similaire de comparaison entre méthodes stochastiques et déterministes pour l'équation de Burgers a été effectué dans les projets CAIMAN et OMEGA à Sophia-Antipolis.

Dans le cadre de la collaboration avec le Center for Applied Mathematical Sciences (CAMS de USC), Marc Joannides a développé au cours de son stage d'ingénieur-expert les premiers éléments d'une librairie en C++ pour la résolution numérique des équations du filtrage non-linéaire.

Surveillance et diagnostic, cf. modules [*], [*], [*]

 

Participants : Michèle Basseville , Qinghua Zhang , Albert Benveniste , Maher Abdelghani , Laurent Tromp


Mots-clés : supervision, maintenance conditionnelle, détection de pannes, diagnostic, mécanique, nucléaire, turbines à gaz, automobile


Maintenance conditionnelle: type de maintenance où la décision d'intervenir se fait sur observation continue du procédé, sur détection et diagnostic de dysfonctionnements. Permet une diminution des coûts de maintenance.

Résumé : Les acquis du projet dans ce domaine consistent en une démarche générale de surveillance et diagnostic d'installations industrielles pour la maintenance conditionnelle, validée par des exemples d'application réels : surveillance de structures mécaniques soumises à vibrations avec l'Ifremer puis EdF (cf. module [*]), surveillance des chambres de combustion de turbines à gaz avec EGT-Alsthom, surveillance du système de dépollution d'une automobile avec Renault, en coopération avec le projet SOSSO. Nous avons étudié cette année le diagnostic de certaines dégradations d'une centrale nucléaire (EdF/DER) [68]. Par ailleurs, pour un démarrage des études sur le diagnostic de systèmes hybrides de type continu/discret, nous nous sommes fabriqué un exemple d'école correspondant au diagnostic d'une fraiseuse et de ses auxiliaires.

Les travaux de recherche conduits en 1997 concernent à la fois des aspects méthodologiques (voir ci-après), le traitement de nouvelles applications (cf. modules [*] et [*]), et des aspects d'implantation et de transfert. Relève en particulier de ce dernier aspect le projet Eureka SINOPSYS qui vise, pour ce qui nous concerne, à opérer un transfert industriel de nos méthodes d'identification et de surveillance de systèmes soumis à vibrations en opération. Pour plus de détails, cf. module [*].


Surveillance de systèmes non-linéaires dynamiques

Le problème est de surveiller et diagnostiquer les variations du paramètre $\theta$ dans un système obéissant à un modèle de la forme

\begin{eqnarray*}\left\{ \begin{array}{rcl}\dot{x} &=& f(\theta,x,u) \\ y &=... ...) \\ y_k &=& g(\theta,x_k,u_k) + \mbox{ bruit} \end{array}\right.\end{eqnarray*}




en temps continu ou discret. L'écart entre mesures et modèle sera évalué par la quantité $E_\theta \Vert \widehat{y}_k(\theta_0) - y_k \Vert^2$, où $\widehat{y}_k(\theta_0)$ est une prédiction de $y_k$ sachant les mesures reçues strictement avant l'instant $k$, lorsque le modèle nominal est $\theta_0$ (prédiction à un pas). La fonction d'estimation associée sera donc $\partial / \partial \theta \, \Vert \widehat{y}_k(\theta_0) - y_k \Vert^2$,cf. module [*]. Cette approche requiert de savoir calculer une prédiction $\widehat{y}_k(\theta_0)$, ce qui nécessite un observateur.

Nous avons développé une autre approche [54] qui consiste au préalable à éliminer l'état $x$ dans le modèle ci-dessus, ce qui donne un système dynamique non linéaire implicite faisant intervenir $u,y$ et leurs dérivées. Notons formellement $F(\theta,y,u)=0$ ce système dynamique implicite. L'écart entre les mesures et le modèle est alors l'erreur d'équation, évalué comme le carré du résidu $F(\theta_0,y,u)$ lorsque l'on prend pour valeur du paramètre la valeur nominale $\theta_0$. La fonction d'estimation est alors $\partial / \partial \theta \, \Vert F(\theta_0,y,u) \Vert^2$. Cette technique a l'élégance de supprimer le recours à un observateur, mais l'élimination de l'état est une opération très coûteuse, effectuée à l'aide de l'algorithme de Ritt (équivalent dynamique des bases de Gröbner), en utilisant un logiciel dû à Torkel Glad, de l'Université de Linköping en Suède. Nous n'avons pas réussi, à ce jour, à utiliser cette approche sur de vraies applications [54,68].

Méthodes de sous-espace, application à la surveillance de structures soumises à vibrations en opération

Ce travail est conduit en coopération avec Maurice Goursat, du projet META2, Rocquencourt, en liaison avec Bart de Moor (KUL, Leuven), et dans le cadre du projet Eureka SINOPSYS conduit par la société LMS, voir module [*].

Le problème traité est celui de la surveillance de la structure propre (valeurs propres de $F$ et partie observée des vecteurs propres associés) d'un système de la forme

\begin{displaymath}\left\{\begin{array}{rcl}X_{k+1} &=& FX_k+V_k \\ Y_k &=& HX_k+W_k\end{array}\right.\end{displaymath}



La dimension de $X_k$ est de l'ordre de quelques dizaines et celle de $Y_k$ de l'ordre de quelques unités. Nous avions, en 1985, développé une technique de surveillance fondée sur la méthode d'identification dites des Variables Instrumentales. Notre regain d'activité dans le domaine des vibrations nous a conduits à nous repencher sur le problème, d'autant plus que les méthodes d'identification ont, depuis lors, fait des progrès, en particulier par l'apparition des méthodes dites de sous-espace, largement promues par les écoles belge et suédoise, et dont voici le principe.

Notons $R_k$ la suite des matrices de covariance de $Y_k$, et notons $\cal H$ la matrice de Hankel formée à l'aide de la suite $R_1,R_2,R_3,\dots$. Par ailleurs, soit $\cal O$la matrice d'observabilité du couple $(H,F)$. Alors, il se trouve que $\cal H$et $\cal O$ ont même noyau à gauche (complémentaire orthogonal de l'image). Cette propriété peut être utilisée pour estimer $\cal O$ à partir de la donnée de la matrice de Hankel empirique (où les $\widehat{R}_k$ sont des estimées empiriques des covariances): c'est le principe des méthodes d'identification de sous-espace pour notre problème.

Mais elle peut aussi être utilisée à l'envers: on se donne un $\cal O$ nominal (c'est équivalent en gros à la donnée de la structure propre du système considéré), dont on calcule le noyau à gauche représenté par une matrice $S$. Étant donné de nouvelles mesures, et donc une nouvelle matrice de Hankel empirique, le problème est alors de tester si, oui ou non, l'on a $S^T \widehat{\cal H} =0$. Nous avons développé une méthode locale pour ce problème (cf. module [*]) qui repose sur un théorème <<central-limite>> [58,15].

Surveillance à l'aide de modèles boîte-noire non-linéaires

Les méthodes de surveillance dites ``model-based'' supposent souvent l'existence d'un modèle physique du système à surveiller. Pour beaucoup de systèmes industriels complexes, la modélisation physique peut être très partielle ou manquante. Cependant, ces systèmes sont souvent équipés de nombreux capteurs dont les signaux peuvent être utilisés pour la modélisation boîte-noire. Des études ont été menées sur une approche de surveillance basée sur des modèles boîte-noire [55]. Elle consiste, dans un premier temps, à caractériser le fonctionnement normal du système à surveiller par l'identification d'un modèle boîte-noire non linéaire tel qu'un réseau de neurones ou un réseau d'ondelettes, et par la suite, à détecter des changements dans le système qui correspondent à des variations du modèle boîte-noire. Si un modèle physique, même partiel ou approximatif, est disponible, il peut être combiné avec le modèle boîte-noire pour effectuer le diagnostic physique.

Systèmes hybrides, cf. modules [*], [*]

 

Participants : Éric Fabre , Armen Aghasaryan , Albert Benveniste , Laurent Tromp


Mots-clés : systèmes hybrides, HMM, réseaux de Petri


Systèmes hybrides: désigne génériquement des systèmes combinant de manière intime des aspects traités habituellement de manière disjointe. Par exemple: état continu / état discret, temps continu (ou échantillonné) / événements, équations ou contraintes / variables aléatoires.

HMM: Hidden Markov Models (Modèles de Markov Cachés), technique consistant à inférer, à partir d'observations ``bruitées'', l'état interne caché d'un automate stochastique (ou chaîne de Markov). Technique très utilisée en reconnaissance de la parole, et plus récemment dans le diganostic de systèmes dynamiques discrets ou hybrides. Nous étendons cette technique aux réseaux de Petri.

Résumé : Ce thème d'étude est en grande partie conjoint avec le projet PAMPA. En vue de l'application au diagnostic des réseaux de télécommunications, nous avons entrepris d'étendre les techniques dites de HMM aux systèmes distribués, modélisés à l'aide de Réseaux de Petri (RdP) saufs selon une interprétation adaptée aux systèmes distribués, c'est-à-dire fondée sur un modèle du temps du type ordre partiel.

Pour réaliser ceci, il nous a fallu 1/ développer une technique d'observateur d'état fondée sur le dépliage de RdP, 2/ créer une nouvelle notion de RdP stochastique adaptée à la sémantique en ordres partiels et aux techniques de dépliage, 3/ étendre l'algorithme de Viterbi calculant la trajectoire d'état de vraisemblance maximale pour un HMM aux RdP avec interprétation en ordres partiels.

Nous étudions actuellement l'utilisation de cette démarche pour le diagnostic de procédés industriels modélisables par des systèmes hybrides continus / discrets.


De nombreuses notions de RdP stochastiques ont été proposées. Si l'on excepte le cas des RdP ``à choix libre'', aucune notion de RdP stochastique ne fournit une coïncidence exacte entre concurrence et indépendance stochastique pour un ensemble de transitions. On souhaiterait en effet que deux transitions concurrentes (qui ne sont en compétition amont ou aval pour aucune place commune), lorsqu'elles sont probabilisées, soient deux variables aléatoires indépendantes.

On peut montrer que cette exigence est contradictoire avec le fait que le RdP stochastique soit une chaîne de Markov, propriété satisfaite par les notions habituelles de RdP stochastique. En revanche, le bon cadre est celui des ``Champs Markoviens avec contraintes'', qui correspond au modèle dit CSS, développé par A. Benveniste, E. Fabre et B.C. Lévy en 1992-1994 [BLFG95]. L'idée de ce modèle est simple: 1/ pour chaque place sujette à conflit (amont et/ou aval), le choix est probabilisé isolément, 2/ on considère l'ensemble de ces places, muni de la loi produit (elles sont alors indépendantes), 3/ on y adjoint les places non sujettes à conflit, 4/ prenant en compte les règles de tir des RdP, on ne conserve que les séquences légales et la loi de probabilité qui en résulte est la loi produit précédemment introduite, conditionnellement à l'ensemble des séquences légales. On montre alors qu'on a bien parfaite adéquation entre concurrence et indépendance stochastique pour un ensemble de transitions.

On dispose donc d'une notion de RdP stochastique (RdPS) pour laquelle nous voulons généraliser les techniques HMM. Nous avons montré qu'il suffit de considérer des pièces constituées d'une transition et des places qui lui sont reliées en amont ou en aval, et d'associer à chaque pièce prise isolément une vraisemblance issue de notre modèle de RdPS, vraisemblance conditionnée par les observations. Le décodage au maximum de vraisemblance revient alors à construire, à la manière d'une programmation dynamique, le puzzle des pièces contribuant aux exécutions de vraisemblance maximale. Voir [24,17,57].

Cette approche, c'est-à-dire ce modèle et cette algorithmique, s'adapte au cas où les événements émis lors du tirage des transitions sont des alarmes intelligentes telles que celles décrites en [*]. On peut alors envisager la surveillance d'un système combinant des aspects états et événements discrets (modes de marche du contrôle-commande et arbre de défaillance) avec des aspects continus (dégradations ou vieillissement des composants). L'exemple étudié actuellement est celui du diagnostic d'une fraiseuse et de ses auxiliaires. Des contacts en vue d'un exemple d'application industriel pertinent sont en cours.

Traitement de la parole et du langage

 

Mots-clés : Traitement de la parole, vérification du locuteur, indexation sonore, analyse de données textuelles


Indexation sonore



Participants : Frédéric Bimbot , Bernard Delyon , Mouhamadou Seck


L'accroissement permanent de la masse de documents sonores (enregistrements radiophoniques, bandes sonores d'enregistrements vidéo, etc...) rend indispensable le développement d'outils de repérage et de navigation dans ce type de données. L'indexation sonore a pour but de représenter de façon plus structurée le matériau audio afin d'en faciliter l'accès par le contenu ou selon des critères de similarité. Des travaux ont commencé sur ce thème au sein du projet SIGMA2 notamment sur la détection musique/parole et sur la classification d'échantillons sonores. Ces techniques reposent sur la classification statistique des composantes principales du spectre du signal. Le projet européen ESPRIT DIVAN, qui a débuté en Septembre 1997, va permettre d'intégrer les résultats de ces recherches au sein d'un prototype de système de gestion d'archives audio-visuelles. Ces travaux s'effectuent en collaboration avec le projet VISTA.

Vérification du locuteur



Participants : Frédéric Bimbot , Annie Morin


La vérification du locuteur peut être comprise comme un problème de détection. Il s'agit en effet de décider, à partir d'un échantillon sonore, si celui-ci a été prononcé ou non par un locuteur particulier. L'état-de-l'art dans le domaine repose sur l'utilisation de modèles de Markov cachés (HMM) associés à un test de rapport de vraisemblance. Néanmoins, la robustesse des HMM, des algorithmes d'apprentissage et des stratégies de décision est souvent imparfaite, compte tenu du faible volume de données d'entrainement en regard des nombreuses sources de variabilité (dépendance au texte prononcé, variations du canal de transmission, fluctuations de la voix au cours du temps, etc...). L'arrivée dans Sigma2 de Frédéric Bimbot, participant au projet européen Télématics CAVE (vérification du locuteur au téléphone), a permis de développer cette nouvelle thématique à l'Irisa. Le projet PICASSO, qui vise à étendre les résultats du projet CAVE, et dans lequel l'Irisa sera partie prenante, devrait débuter dans les premiers mois de 1998.

Analyse de données textuelles



Participant : Annie Morin


L'analyse de données textuelles que nous menons porte d'une part sur l'exploration de textes, d'autre part sur la comparaison de plusieurs textes.

L'exploration met en oeuvre des méthodes d'analyse de données pour faire apparaître des regroupements de textes ou de mots. Ces méthodes d'analyse des données ont été utilisées pour l'analyse d'un sous-vocabulaire provenant d'une encyclopédie de typographie.
La recherche sur la comparaison de plusieurs textes, menée en collaboration avec J. André et H. Richy du projet Imadoc, a porté sur l'utilisation d'algorithmes de comparaison de séquences, notamment l'algorithme de Smith et Waterman. Cet algorithme permet de comparer raisonnablement deux textes de quelques pages mais dépend de paramètres dont nous souhaitons étudier l'impact sur les résultats. Il devient inutilisable dans le cas de comparaion de deux ouvrages. Nous avons constaté qu'une première analyse des textes segmentés, par des méthodes d'analyse des données, permet de faire une classification de ces segments en classes, et d'étudier de façon plus approfondie ces classes, par exemple en utilisant des algorithmes de comparaison des différents segments d'une classe donnée. Le point critique reste le choix du segment. Pour l'instant, une phrase est égale à un segment. Malheureusement, les phrases peuvent être de longueurs très différentes, et celà nuit à la performance des résultats de classification. La recherche va donc porter sur la détermination de segments de textes.

Autres activités



Participants : Bernard Delyon , Sandra Dufour , Annie Morin


Des comparaisons entre une approche segmentale et une approche centiseconde, pour la reconnaissance de mots isolés en milieu bruité, ont été faites sur deux bases, l'une monolocuteur, l'autre multilocuteur, avec et sans débruitage. Un algorithme d'inférence automatique a été utilisé. L'application est la mise en oeuvre d'un répertoire vocal pour la numérotation main-libre en voiture.


L'étude sur la reconnaissance de phonèmes a été poursuivie, avec la construction de modèles hors contexte; l'inférence a été également utilisée. Des informations obtenues par la segmentation automatique de l'Irisa ont été introduites pour contraindre les modèles au moment de l'inférence (estimation du nombre d'états utiles), ce qui améliore les résultats, surtout en multilocuteur.


A Morin poursuit une coopération avec R. André-Obrecht de l'Irit à Toulouse, le projet actuel portant sur la comparaison des langues.



previous up next contents Précédent : Logiciels Remonter : Projet SIGMA2, Signaux, Modèles et Suivant : Actions industrielles