Précédent : Présentation générale et
objectifs Remonter : Projet SIGMA2, Signaux, Modèles et
Suivant : Grands domaines d'application
Résumé : Le projet s'intéresse aux techniques de modélisation, à partir de principes physiques, mais surtout à partir de données d'observation. Les problèmes centraux sont donc l'estimation et l'identification, mais aussi la validation de modèle, le test et le diagnostic, qui permettent de reconnaître et d'expliquer un désaccord entre modèle et mesures. Ces questions sont examinées sur différents types de modèles de systèmes dynamiques: linéaires, non-linéaires, et, plus récemment, hybrides. Nous avons choisi de détailler les deux points ci-après.
Mots-clés :
identification, systèmes adaptatifs, approximations
stochastiques, poursuite, paramétrique, non-paramétrique
Système adaptatif: Se dit d'un système capable de
réajuster son comportement en réaction à des modifications
graduelles de son environnement.
Paramétrique et non-paramétrique: On parle de
modélisation paramétrique lorsque le modèle est caractérisable
par un vecteur de dimension finie (et pas trop grande en
pratique), et de modélisation non-paramétrique lorsque cela n'est
pas le cas.
Résumé : On se donne une suite d'observations
de loi caractérisée par un paramètre inconnu
.Le problème de l'identification paramétrique consiste à retrouver le paramètre inconnu
à partir de la donnée d'une suite d'observations
gouvernée par ce paramètre.
L'identification peut être ``hors-ligne'', ou ``non récursive''. Dans ce cas, on se donne un échantillon
de longueur finie
, et on cherche à construire un estimateur
, c'est-à-dire une fonction de l'échantillon
à valeurs dans
. Les questions qui se posent sont alors: lorsque
tend vers l'infini, 1)
converge-t-il vers le vrai paramètre
, 2) si oui, à quelle vitesse? Existe-t-il une borne optimale pour cette vitesse, borne qui dépend du vrai paramètre
inconnu, et qui permet de parler de l'optimalité d'un estimateur? Sait-on construire des estimateurs optimaux?
L'identification peut être ``en-ligne'', ou ``récursive''. Dans ce cas, on lit à la volée l'échantillon
, et l'on construit récursivement une suite d'estimateurs
. Cette suite est en général calculée incrémentalement, ce qui signifie que
est calculé en fonction de
et des nouvelles données reçues. On parle alors souvent d'approximation stochastique, ou de système adaptatif. Outre les questions précédentes, on se pose alors le problème de la poursuite: supposons que le vrai paramètre
, au lieu d'être fixe, soit ``lentement'' variable, est-il possible que la suite d'estimateurs
poursuive les variations du vrai paramètre
? Nous avons au cours des dix dernières années, apporté diverses contributions sur l'ensemble de ces questions, et tout récemment sur le problème de la poursuite.
Parfois, le paramètre à estimer est un vecteur de grande dimension: dans ce cas, le point de vue précédent est inopérant et l'approche que nous avons considérée jusqu'à présent est plus spécifiquement celle de l'estimation non-paramétrique (ou estimation fonctionnelle); le nombre de paramètres à estimer étant infini, la classe de modèles envisageable est, d'un point de vue théorique, un espace de dimension infinie et des algorithmes différents doivent être mis en oeuvre, sur la base de considérations statistiques. Reliés à ce point de vue, on trouve également les réseaux de neurones et la logique floue. Nous avons, sur ces questions, apporté des contributions tant mathématiques que sous la forme de propositions d'algorithmes, en particulier dans le cas difficile où les observations sont elles-mêmes des vecteurs de grande dimension (on peut aller jusqu'à quelques milliers).
Le problème général de l'identification tel que nous l'approchons
est le suivant: décrire au mieux une relation entrées/sorties,
,à partir de l'observation d'une
séquence d'apprentissage
. La mesure de la qualité de la modélisation dépend de
l'usage qui en est fait ensuite (surveillance,
prédiction...).
Une phase de modélisation précède l'identification pour
restreindre l'espace de recherche à un espace de dimension finie.
Pour fixer les idées, partons du paradigme suivant: une classe de
modèles assez large de la forme
Une autre difficulté est la pauvre qualité de l'estimation lorsque le paramètre est de grande dimension, et les méthodes utilisées en non-paramétrique sont une source importante d'inspiration.
C'est la théorie de l'approximation stochastique, qui permet d'aborder de manière adéquate les problèmes de récursivité et d'adaptativité en identification dans un cadre statistique.
L'usage des algorithmes stochastiques est très répandu, et recouvre des domaines tels que la commande adaptative, les systèmes de transmission, le filtrage adaptatif, certains algorithmes d'apprentissage en reconnaissance des formes... De nombreux exemples se trouvent dans [Sar74,LS83,BMP90].
Le but de ces algorithmes est l'estimation récursive d'un
paramètre inconnu et invariant dans le temps (ou lentement
variable) traditionnellement noté . On suppose que
les observations
reçues à chaque instant sont reliées
au vrai paramètre
par une relation du type
Par exemple, si ,
et
,
est simplement la moyenne
arithmétique des
.Une situation plus compliquée est
celle des algorithmes de Robbins-Monro: on cherche à régler le
paramètre
(dosage de produits chimiques...) de sorte
que l'effet mesuré par
(chaleur produite...) soit à un niveau
moyen
, et la règle du jeu est que
est le
résultat d'une expérience faite avec
;dans
cette situation
. Dans l'exemple du
paragraphe précédent, on choisira typiquement d'estimer
avec
Si l'on s'intéresse aux gains en , il est acquis
[HH80,NK76,BMP90,KC78,Del96b] que sous certaines
hypothèses, peu restrictives mais pas toujours faciles à
vérifier,
converge presque sûrement vers
, et les variables
convergent en loi vers une variable normale de variance
satisfaisant une certaine équation de Lyapunov
[Del96a]. On
vérifie que
peut être améliorée par l'introduction d'une
matrice de gain
dans l'algorithme:
Les algorithmes à gain constant () sont
utilisés en revanche lorsque le vrai paramètre varie lentement
dans le temps (situation de poursuite). Les études se concentrent
dans ce cas sur une approche asymptotique où
et la
vitesse de variation de
sont petits. Un premier
aspect est la convergence dans la période transitoire
, période pendant laquelle
passe de
la valeur initiale
à un voisinage de
.Cette approche dite de l'équation différentielle
moyenne est étudiée à fond dans [BMP90] et conduit à la conclusion
suivante: si
varie régulièrement à vitesse
, le gain doit être choisi d'ordre
, mais si
suit une marche aléatoire, le gain doit être
proportionnel à l'amplitude moyenne de
.Un deuxième angle d'attaque correspond à l'étude
de la distribution limite de
lorsque
a une distribution donnée et
est fixé
[DJ95a], et conduit au même
type de conclusion.
Un problème ouvert est l'estimation directe d'un bon gain sans
connaissance a priori sur les variations de : la
véritable adaptativité. Ceci correspond à des études en cours
dans le projet. Elle a été déjà amorcée dans un cadre applicatif
pour un problème d'analyse d'images météorologiques; il s'est agi
d'utiliser une méthode statistique inspirée de la solution d'un
problème d'estimation non-paramétrique dans un cadre min-max
(voir le rapport du projet VISTA).
Un autre problème en cours de traitement est l'approximation
stochastique pour les paramètres de grande dimension. L'idée,
pour rendre le problème soluble, est de supposer que le vrai
paramètre appartient à la boule unité de
. Cette contrainte réduit considérablement le volume de
l'espace de recherche tout en restant réaliste pour les
applications. Un avantage supplémentaire est qu'on aboutira à des
estimées
parcimonieuses, au sens où la
majorité des coefficients seront quasi-nuls. Dans ces
circonstances, même en déterministe, les méthodes de gradient
sont totalement inefficaces (puisque le gradient appartient au
dual de l'espace d'origine, qui diffère maintenant de ce
dernier). Il faut alors utiliser la méthode des algorithmes
miroirs décrite dans [JN96].
Sous sa forme la plus traditionnelle, le problème de
l'estimation non-paramétrique se pose ainsi: on observe des
paires indépendantes où
Les problèmes qui nous intéressent sont liés à la situation où
l'on observe un système dynamique du type
Mots-clés : détection de panne, identification,
approche locale, diagnostic de panne, alarmes intelligentes
Approche locale: Technique statistique permettant de
comparer l'adéquation de deux modèles différents à un même
échantillon de données, lorsque la taille de l'échantillon tend
vers l'infini. Pour éviter alors des situations singulières, on
renormalise l'écart entre ces deux modèles en le rendant
proportionnel à où
est la longueur de
l'échantillon. On obtient ainsi des théorèmes du type
théorème-limite central pour la statistique permettant de décider
de la comparaison entre ces modèles, ce qui permet de calibrer de
manière fondée les divers seuils, en prenant en compte les
incertitudes sur le modèle et les mesures.
Alarmes intelligentes: Indicateurs de panne, porteurs
d'informations relatives au diagnostic, sous la forme des
composants le plus probablement responsables de la panne
détectée. Ces indicateurs réalisent automatiquement le compromis
entre l'amplitude des changements détectés et la précision de
l'identification du modèle de référence d'une part et, d'autre
part, le niveau de bruit présent sur les mesures. Ces indicateurs
sont peu coûteux, et peuvent donc être embarqués [GD91,BBGD93].
Résumé : Nous avons développé une méthode statistique de portée générale permettant de confronter un modèle à des données mesurées sur un procédé, et de détecter une éventuelle inadéquation entre modèle et mesures, même si celle-ci est imperceptible de prime abord. Décider de manière précise d'une telle inadéquation nécessite de comparer l'effet prédit dans le cas d'un changement du procédé avec les incertitudes que l'on a sur les mesures. L'approche dite ``asymptotique locale'' introduite dans les années
par Le Cam [Rou72,Cam86], et que nous avons étendue et adaptée [BMP90,BN93], permet de fonder une telle démarche [19].
On se donne une suite d'observations
de loi jointe
,où
dépend d'un
paramètre inconnu
.
Par ailleurs, on dispose d'une valeur nominale
pour le paramètre
.Cette valeur nominale
peut, par exemple, représenter un comportement
``type'' normalisé pour le système considéré. Elle peut également
avoir été obtenue par identification à l'aide de données de
référence, provenant, par exemple, de mesures prises sur le
système à surveiller en état nominal de fonctionnement.
Les questions que l'on se pose sont alors les suivantes:
Supposons que l'on sache trouver une fonction , dite fonction d'estimation, telle que
L'idée est la suivante: étant donné un échantillon de longueur
, on cherche à approcher la
loi de la statistique
Mais on peut tirer de () d'autres enseignements. Le vrai
paramètre
étant toujours inconnu, on souhaite
l'identifier en résolvant, avec
cette fois
comme inconnue, l'équation [MS88]
La valeur ainsi obtenue pour le paramètre sera
notée
pour indiquer qu'il s'agit d'un
estimateur du paramètre
. Reportant la contrainte
dans (
), il vient alors