Projet Miaou

previous up next contents
Précédent : Présentation générale et objectifs Remonter : Projet MIAOU, Mathématiques et Informatique Suivant : Grands domaines d'application



Fondements scientifiques

Identification et déconvolution

 Nous débuterons par quelques remarques générales. Abstraire, sous forme d'équations mathématiques, le comportement d'un phénomène que l'on veut étudier est l'étape dite de modélisation. La modélisation a typiquement deux objets : le premier est de décrire le phénomène dans sa complexité minimale compte tenu du but poursuivi, et le second est de se doter d'un outil pour en prédire les effets. Ceci est couramment pratiqué dans la plupart des sciences appliquées à des fins de conception, de contrôle ou de prédiction, quoique rarement perçu autrement que comme un problème d'optimisation subordonné à chaque cas particulier.

En règle générale, l'utilisateur impose à son modèle une forme paramétrée qui reflète tout à la fois ses habitudes de pensée, sa connaissance physique du phénomène, l'effort algorithmique qu'il est prêt à consentir, et le caractère utilisable du modèle in fine. La recherche de ce compromis amène usuellement à poser le problème d'approcher les observations faites par celles qu'on tirerait du modèle sous l'effet d'excitations censées représenter les causes du phénomène. La capacité à résoudre ce problème d'approximation, souvent non-trivial et parfois mal posé, conditionne pour une large part la pratique d'une méthode donnée.

C'est lorsqu'on veut évaluer la puissance prédictive d'un modèle que l'on est amené à postuler l'existence d'une vraie correspondance fonctionnelle entre les données et les observations, et que l'on entre dans le domaine de l'identification. La puissance prédictive du modèle peut s'y exprimer de diverses manières qui toutes, cependant, cherchent à mesurer la différence entre le << vrai >> modèle et les observations. La nécessité de prendre en compte les différences patentes entre le comportement observé et le comportement calculé induit alors naturellement la notion de bruit comme agent dégradant du processus d'identification. Ce bruit, qui s'incorpore au modèle, peut être traité sur un mode déterministe où la qualité d'un algorithme d'identification est son insensibilité à des petites erreurs. Cette notion est celle de problème bien posé en analyse numérique, ou de stabilité du mouvement en mécanique. Le bruit, cependant, est plus souvent considéré comme aléatoire, et l'on compte alors sur le moyennage pour estimer le << vrai >> modèle. Cette notion permet au premier chef de donner des descriptions approchées mais simples de systèmes complexes dont les causes sont mal connues mais plausiblement antagonistes. Notons, dans les deux cas, que des hypothèses sur le bruit sont nécessaires pour justifier l'approche adoptée (il doit être petit dans le cas déterministe et satisfaire des hypothèses d'indépendance ou d'ergodicité dans le cas stochastique). Ces hypothèses sont rarement validées autrement qu'à l'usage.

Avec le déplacement du problème depuis le compte-rendu d'une série d'expériences jusqu'à l'estimation d'un hypothétique modèle exact, la problématique de l'identification s'enrichit aussi de la possibilité de choisir les données de façon commode pour explorer la structure du phénomène. Ceci interagit souvent de manière complexe avec le caractère local du modèle par rapport aux données (par exemple, un modèle linéaire n'est souvent valable qu'au voisinage d'un point de fonctionnement).

Venons-en à l'activité en identification du projet proprement dit. Alors que le sujet est dominé depuis vingt ans, au plan académique, par le paradigme de la statistique paramétrique, c'est cependant dans une approche déterministe de l'identification des systèmes dynamiques linéaires (c'est-à-dire des processus de convolution), fondée sur l'approximation dans le domaine complexe, que le projet situe sa contribution la plus originale au domaine. Naturellement, les liens profonds que tisse le théorème spectral entre les représentations temporelles et fréquentielles induisent des parallèles bien connus entre la théorie des fonctions et celle des probabilités, et le travail de MIAOU connaît par ce biais quelques retombées dans la théorie stochastique classique.

On considèrera les données sans postuler un modèle exact mais en recherchant une approximation convenable dans le domaine de fonctionnement. Un exemple prototypique est l'identification harmonique, couramment rencontrée en ingénierie, où les données sont les réponses du système à des excitations périodiques dans sa bande passante de fréquences. On cherche un modèle linéaire et stable qui décrive correctement le fonctionnement dans cette bande passante, bien que ce modèle puisse être infidèle aux hautes fréquences, qu'on ne peut d'ailleurs guère mesurer. On souhaite aussi fréquemment que ce modèle soit rationnel et de degré convenable, soit parce que ce degré est déterminé par la signification physique des paramètres, soit parce qu'il doit rester raisonnablement faible afin de pouvoir utiliser efficacement le modèle pour le contrôle ou l'estimation. Notons qu'aucune statistique n'est disponible sur les erreurs, qui proviennent autant des défauts de mesure que du caractère erroné de l'hypothèse de linéarité. Les applications visées sont l'identification des systèmes résonnants, des structures flexibles, et de certains systèmes diffusifs (chaleur, électrostatique).

Nous distinguerons une étape d'identification [*] qui fournit un modèle de dimension infinie --numériquement de dimension grande-- et une étape d'approximation rationnelle destinée à réduire l'ordre. La première étape consiste, en termes mathématiques, à reconstruire une fonction analytique dans le demi-plan droit connaissant ses valeurs ponctuelles sur une portion de l'axe imaginaire, en d'autres termes à rendre effectif le principe du prolongement analytique sur le bord du domaine d'analyticité. C'est un problème classique et mal posé que nous plongeons dans une famille de problèmes extrémaux bien posés. La deuxième étape est une approximation rationnelle dans un espace de fonctions analytiques sur le demi-plan droit. Soit que l'on veuille tirer le meilleur parti de l'ordre maximal qu'on s'autorise, soit que l'on cherche à identifier des paramètres physiques du système considéré, il est généralement important lors de cette deuxième étape de calculer des approximants rationnels optimaux ou sous-optimaux en un certain sens. Mentionnons que l'approximation rationnelle dans le domaine complexe est un sujet classique et ardu. En relation avec l'automatique, deux éléments de difficulté supplémentaires s'y greffent, à savoir la nécessité de contrôler les pôles des approximants (qui reflètent la stabilité du système) et celle de traiter du cas matriciel (pour le cas fréquent où le système a plusieurs entrées et sorties).

L'approximation au sens $L^p$ de la fonction de transfert prend dans ce contexte une signification particulière pour $p=2$ et $p=\infty$.Si $p=2$, elle correspond à une identification paramétrique au minimum de variance lorsque l'entrée est un bruit blanc (dans le cas d'un bruit coloré il faut pondérer le critère par sa densité spectrale), ou encore à la minimisation de l'erreur en norme d'opérateur $L^2\to L^\infty$ dans le domaine temporel. Si $p=\infty$,cette approximation correspond à la minimisation de l'erreur au plan de la transmission d'énergie $L^2\to L^2$ (à la fois dans le domaine temporel et fréquentiel par le caractère isométrique de la transformée de Fourier). Nous détaillons plus précisément les deux étapes précédentes dans les sous-paragraphes qui suivent. Pour des raisons de commodité nous abordons souvent les questions précédentes non sur l'axe imaginaire mais, ce qui est équivalent, sur le cercle unité où elles correspondent à des considérations analogues pour les systèmes à temps discret.

Approximation méromorphe à partir de conditions au bord incomplètes

 

Participants : Laurent Baratchart , José Grimm , Juliette Leblond , Jonathan Partington (univ. Leeds, GB) , Fabien Seyfert


Mots-clés : approximation méromorphe, identification fréquentielle, problème extrémal


Ceci se rapporte à la première étape du processus d'identification évoqué ci-dessus, c'est-à-dire à l'élaboration d'un modèle de convolution stable et de dimension infinie à partir de données fréquentielles dans une bande passante $\Omega$ et d'un gabarit de référence à l'extérieur de $\Omega$. Par ailleurs, la classe des modèles peut être élargie à relativement peu de frais à des instabilités de dimension finie, c'est-à-dire à des opérateurs dont le noyau a pour transformée de Laplace une fonction de transfert méromorphe ayant dans le demi-plan droit un nombre fini de pôles. Ceci peut être intéressant notamment lors de problèmes de conception. On note $D$ le disque unité, $H^p$ l'espace de Hardy d'exposant $p$,$R_N$ l'ensemble des fonctions rationnelles possédant au plus de $N$pôles dans $D$, et $C(X)$ les fonctions continues sur $X$.On cherche une fonction de $H^p + R_N$, prenant sur un arc $K$ du cercle unité des valeurs proches des données expérimentales et satisfaisant sur $T\setminus K$ à des exigences de gabarit, de sorte que la question s'énonce comme une généralisation d'un problème de type Adamjan-Arov-Krein (AAK) :

(P)  Soient $p \geq 1$, $N \geq 0$, $K$ un arc du cercle unité $T$, $f \in L^p(K)$, $\psi \in L^p(T \setminus K)$ et $M \in C(T \setminus K)$ ; on cherche une fonction $g \in H^p + R_N$ telle que $\vert g - \psi\vert\leq M$ p.p. sur $T \setminus K$ et telle que $g - f$ soit de norme minimale $\beta_p$ dans $L^p(K)$.

Il s'agit là d'une extension au cas méromorphe et à celui d'une contrainte variable des problèmes extrémaux bornés relatifs à l'approximation analytique (i.e. le cas où $N=0$) étudiés ces dernières années dans le projet pour $p=\infty$ [3], puis pour $1\leq p<\infty$ où le cas $p=2$ présente un lien inattendu avec les formules de reconstruction de Carleman[BL98]. Très relié au problème (P), et significatif en particulier pour décider de la validité de l'approximation linéaire dans la bande passante considérée, est également le problème de complétion suivant :

(P')  Soient $p \geq 1$, $N \geq 0$, $K$ un arc du cercle unité $T$, $f \inL^p(K)$, $\psi \in L^p(T \setminus K)$ et $M \in C(T \setminus K)$ ; on cherche une fonction $h \in L^p(T\setminus K)$ telle que $\vert h - \psi\vert\leq M$ p.p. sur $T \setminus K$ et que la distance à $H^p + R_N$ de la fonction concaténée $f\vee h$soit minimale dans $L^p(T)$.

Mentionnons en bref (cf. [*]) que (P) se ramène implicitement à un problème extrémal sans contrainte ($K=T$), que l'on sait résoudre si $p=\infty$ (c'est la théorie AAK) ou si $p=2$ et $N=0$ (c'est trivialement une projection orthogonale). Si $p=2$ et $N\gt$,la question est équivalente à l'approximation rationnelle décrite en [*]. Dans les autres cas, il n'y a pas à ce jour de solution algorithmique mais l'émergence d'une théorie AAK dans le cas $L^p$ pour $2\leq p\leq\infty$, qui est actuellement développée dans le projet (notamment dans la thèse de F. Seyfert) et qui tisse un lien continu entre l'approximation rationnelle dans $H^2$ (cf. [*]) et l'approximation méromorphe en norme uniforme. Le problème (P') est, quant à lui, résolu si $p=\infty$ou si $p=2$ et $N=0$.Ces questions peuvent aussi être considérées dans un espace de Hardy-Sobolev, ce qui est utile lorsqu'on a affaire à des modèles qui ne sont pas strictement propres et que l'on souhaite contrôler les oscillations à l'infini (cf. [*]), ou lorsqu'un retard intervient que l'on peut alors estimer à partir de la qualité de l'approximation (la fonction de transfert du retard pur n'appartient pas à l'espace de Hardy-Sobolev et engendre une erreur élevée tant qu'on ne l'a pas compensé convenablement cf. [*]).

Approximation rationnelle scalaire

 

Participants : Laurent Baratchart , Juliette Leblond , Martine Olivi , Edward Saff (univ. Floride du Sud, Tampa, USA) , Herbert Stahl (TU Berlin, Al.) , Franck Wielonsky


Mots-clés : approximation rationnelle, point critique, polynôme orthogonal


L'approximation rationnelle est la deuxième des étapes mentionnées en [*], et nous l'abordons tout d'abord dans le cas scalaire c'est à dire pour des fonctions à valeurs complexes (par opposition à matricielles). Dans ce cas le problème s'énonce ainsi :

Soient $1\leq p\leq\infty$, $f\in H^p$ et $n$ un entier ; on cherche une fonction rationnelle sans pôles dans le disque unité et de degré au plus $n$ qui soit le plus proche possible de $f$ dans $H^p$.

Les valeurs les plus importantes de $p$ sont, comme nous l'avons indiqué en introduction, $p=2$ et $p=\infty$, mais il n'existe de toute façon pas d'algorithme démontrablement convergent pour une quelconque valeur de $p$,et le projet est concepteur d'un algorithme dans le cas $p=2$dont la convergence vers un minimum local est garantie et qui est le premier à jouir de cette propriété. Il s'agit en substance d'un algorithme de suivi de gradient, qui procède récursivement par rapport à l'ordre $n$ de l'approximant et utilise la géométrie particulière du problème pour se ramener à optimiser sur un domaine compact [2]. Cet algorithme permet en général d'engendrer plusieurs minima locaux lorsqu'il y en a, ce qui permet de faire des comparaisons. Il n'est pas démontré qu'on obtienne toujours le minimum absolu ce faisant, bien que nous ne connaissions pas non plus de contre-exemple. Afin de globaliser cette convergence, ce qui serait une avancée algorithmique majeure dans le domaine, nous étudions le nombre et la nature des points critiques en nous concentrant jusqu'ici sur des types particuliers se prêtant au calcul, et qui ont valeur d'exemples en vue de dégager des classes de propriétés générales. La classe des transferts dits de relaxation (en d'autres termes des fonctions de Markov), a notamment été élucidée (cf. [5] et section [*]), ainsi que le cas de $e^z$ (prototype de la fonction entière à coefficients de Taylor convexes) ou celui de fonctions méromorphes (à la Montessus de Ballore) [8]. Un principe général s'est ainsi dégagé qui relie la nature des points critiques en approximation rationnelle à la régularité de la décroissance des erreurs en interpolation. Une méthodologie pour analyser l'unicité en rapport avec les singularités de la fonction doit à présent en émerger.

L'introduction d'une pondération en fréquence constitue un autre développement intéressant, autant pour la nécessité qu'il y a de pondérer les données expérimentales (par la densité spectrale du bruit dans un contexte stochastique c'est-à-dire pour relativiser le comportement du modèle là où on a peu d'information) que pour les améliorations algorithmiques que l'on en espère. À ce sujet, il est intéressant de noter que la démarche la plus répandue pour l'identification fréquentielle dans la pratique de l'ingénieur consiste à poser une minimisation aux moindres carrés et à en pondérer les termes pour essayer d'obtenir un résultat convenable par des méthodes générales d'optimisation. On est ainsi conduit à minimiser un critère du type

 \begin{equation}\min \left\Vert f - \frac{p_m}{q_n} \right\Vert _{L^2(d \mu)} \, \end{equation}



où, par définition, on a posé

\begin{displaymath}\Vert g\Vert _{L^2(d \mu)}=\frac{1}{2\pi} \int_{-\pi}^{\pi}\vert g(e^{i\theta})\vert^2d\mu(\theta),\end{displaymath}

et où $\mu$ est une mesure positive finie sur $T$,$p_m$ est un polynôme de degré inférieur ou égal à $m$, $q_n$ un polynôme unitaire de degré inférieur ou égal à $n$.Un tel problème est en particulier bien posé lorsque $\mu$ est absolument continue par rapport à la mesure de Lebesgue et de dérivée inversible dans $L^{\infty}$. Lorsque $\mu$ est le carré du module d'une fonction analytique inversible, l'introduction de polynômes $\mu$-orthogonaux rend la situation assez similaire au cas non-pondéré, du moins si $m\geq n-1$.

Approximation rationnelle matricielle

 

Participants : Laurent Baratchart , Andrea Gombani (CNR Padoue, It.) , Martine Olivi , José Grimm


Mots-clés : approximation rationnelle, matrice intérieure, espace à noyau reproduisant, théorie de la réalisation


L'approximation matricielle est nécessaire pour traiter de systèmes à plusieurs entrées et sorties (bizarrement appelés multivariables) mais engendre des difficultés additionnelles substantielles au plan théorique et algorithmique. Le problème est un analogue du cas scalaire où le degré de McMillan (le degré d'une réalisation minimale en termes d'Automatique) généralise le degré :

Soient $1\leq p\leq\infty$, ${\cal F}\in (H^p)^{m\times l}$ et $n$ un entier ; on cherche une matrice rationnelle de taille $m\times l$ sans pôles dans le disque unité et de degré de McMillan au plus $n$ qui soit la plus proche possible de ${\cal F}$ dans $(H^p)^{m\times l}$.

Ici, la norme $L^p$ d'une matrice est la racine $p$-ième de la somme des puissances $p$-ièmes des normes de ses composantes.

Pour $p=2$, l'algorithme d'approximation scalaire mis au point dans le projet a été généralisé au cas matriciel. Le problème majeur réside dans la représentation des matrices de transfert de degré de McMillan donné $n$, et les matrices intérieures (c'est-à-dire les fonctions à valeurs matricielles qui sont analytiques dans le disque unité et unitaires sur le cercle) de degré $n$ interviennent ici de manière essentielle : elles jouent le rôle du dénominateur dans la représentation fractionnaire des matrices de transfert considérées. L'ensemble des matrices intérieures de degré donné possède une structure de variété qui autorise la mise en oeuvre des outils différentiels utilisés dans le cas scalaire. En pratique, il faut exhiber un atlas de cartes (paramétrages valables seulement dans un voisinage donné d'un point) satisfaisant et gérer les changements de cartes lors d'un algorithme de descente. L'algorithme de Schur tangentiel dans le cas matriciel [1] nous a fourni de tels paramétrages et permis l'implémentation d'un algorithme d'approximation rationnelle. Celui-ci est intégré au logiciel hyperion [*] qui a été testé sur des données matricielles $2\times 2$ provenant d'expérimentations faites au CNES, dans le cadre du contrat qui fait l'objet du paragraphe [*] et donne des résultats d'une grande qualité.

Identification paramétrique linéaire

 

Participants : Laurent Baratchart , Manfred Deistler (TU Wien, Au) , Martine Olivi


Mots-clés : approximation rationnelle, identification paramétrique, topologie des matrices rationnelles, étude des points critiques


L'étude asymptotique de certains estimateurs au maximum de vraisemblance est un corollaire naturel des recherches en approximation rationnelle menées dans le projet. Le contexte est ultra-classique : étant donné un processus discret $y(t)$ à valeurs dans ${\mathbf R}^p$,et un autre processus $u(t)$ à valeurs dans ${\mathbf R}^m$ que l'on tient pour la cause mesurable de $y(t)$, on cherche à décrire le phénomène par un modèle linéaire d'ordre fini :

\begin{displaymath}\hat{y}(t)=Hu(t)+ Le(t),\end{displaymath}


$e$ est un bruit blanc à $p$ composantes, décorrélé de $u$, censé représenter les aléas qui concourent à créer $y(t)$, et où la matrice de transfert $[L~H]$ reliant $(e~u)^t$ à $\hat{y}$ est rationnelle et stable de degré de Mc-Millan $n$, la matrice $L$ étant d'inverse stable également (parmi les bruits de même covariance et d'innovation donnée, on choisit celui dont le facteur spectral est de phase minimale). Le nombre $n$ est, par définition, l'ordre du modèle. Si l'on suppose seulement que $[H~L]$ appartient à l'espace de Hardy $H^2$ et que $L$ est extérieure (ce qui signifie presque inversible en un sens approprié), une telle représentation est en fait générale pour des processus stationnaires réguliers (c'est-à-dire purement non-déterministes en un certain sens). L'identification dans ce contexte apparaît donc comme une approximation rationnelle pour laquelle la théorie statistique classique dresse un compromis entre deux facteurs antagonistes : d'une part l'erreur de biais qui diminue quand $n$ augmente car la distance entre le << vrai >> système et la classe de modèles considérée s'amenuise, d'autre part l'erreur de variance qui augmente avec $n$parce que la dispersion de l'estimation s'amplifie avec le nombre de paramètres. Il s'agit là de la version stochastique du compromis complexité-précision omniprésent en modélisation.

Si on introduit à présent comme nouvelle variable la matrice rationnelle $T$ définie par

\begin{displaymath}T=\left(\begin{array}{cc}L & H \\ 0 & I_m\end{array} \right)^{-1}\end{displaymath}



et en normalisant la variance du bruit à l'identité pour simplifier, l'estimation au maximum de vraisemblance est asymptotiquement équivalente, lorsque le nombre d'échantillons croît, à la minimisation de

 \begin{equation}\Vert T\Vert _{\Lambda}^2={\bf Tr}\left\{\frac{1}{2\pi}\int_{0}^{2\pi}T(e^{i\theta})\,d\Lambda(\theta)\,T^*(e^{i\theta})\right\},\end{equation}



$\Lambda$ est la mesure spectrale du processus $(y~u)^t$ (positive à valeurs matricielles) et où ${\bf Tr}$ signifie la trace. Si l'on restreint davantage la classe de modèles en demandant que les aléas soient blancs, c'est à dire $L=I_m$, on obtient un problème d'approximation rationnelle pondéré correspondant à la minimisation de la variance de l'erreur de sortie. Si, en outre, $u$ est lui-même un bruit blanc la situation devient celle de [*].

La formulation ([*]) montre que l'identification stochastique vise à une double généralisation, à la fois rationnelle et matricielle, de la théorie des polynômes orthogonaux de Szegö sur le cercle, et ceci fonde son lien avec la théorie classique des fonctions.

Le problème de la consistance naît de ce que la mesure $\Lambda$ n'est pas accessible de sorte que l'on doit estimer ([*]) à l'aide de moyennes temporelles de l'échantillon observé en supposant les processus ergodiques. La question se pose alors de savoir si l'argument du minimum de la fonctionnelle estimée tend vers celui de ([*]) lorsque la longueur de l'échantillon augmente et à quelle vitesse. Le résultat le plus significatif ici est peut-être celui qui ne suppose pas la compacité de la classe de modèles[*], et qui affirme la consistance sous des hypothèses d'ergodicité faible et d'excitation persistante. Un analogue de la loi des grands nombres indique, dans ce contexte, que la convergence a lieu en $1/\sqrt{N}$$N$ est la longueur de l'échantillon.

Dans le résultat précédent, la consistance a lieu au sens de la convergence ponctuelle des estimés sur la variété des matrices de transfert de taille et d'ordre donnés. La première contribution du projet a été de montrer que cette convergence a lieu uniformément avec celle de toutes les dérivées sur tout compact de la variété des modèles, ce qui jette un pont entre le comportement algorithmique du problème d'approximation rationnelle (nombre et nature des points critiques, décroissance de l'erreur) et celui de la minimisation des moyennes empiriques. Mentionnons par exemple que l'unicité du point critique en approximation $H^2$lorsque la fonction à approximer est presque rationnelle de degré $n$ [BO96] entraîne l'unicité d'un minimiseur local pour l'erreur de sortie lorsque l'entrée est un bruit blanc, ceci presque sûrement asymptotiquement sur tout compact, lorsque la densité de $y$ par rapport à $u$ est presque rationnelle de degré $n$. De façon générale, on compte sur des progrès dans la typologie de l'approximation rationnelle pour évaluer le caractère algorithmiquement bien posé de l'identification au maximum de vraisemblance.

Structure et commande des systèmes dynamiques

 Pour commander un système, on s'appuie en général sur un modèle obtenu à partir de connaissances a priori comme les lois physiques ou à partir d'observations expérimentales. Dans beaucoup d'applications, on se contente d'une approximation linéaire autour d'un point de fonctionnement ou d'une trajectoire. C'est par exemple le cas lorsqu'on utilise la théorie linéaire de l'élasticité pour décrire les vibrations d'une membrane cf. [*]. Il est tout de même très important d'étudier les systèmes (ou les modèles) non-linéaires et leur commande pour les raisons suivantes. Tout d'abord, certains systèmes ont, autour de points de fonctionnement intéressants, une approximation linéaire qui n'est pas commandable de sorte que la linéarisation est inopérante même localement. En second lieu, et même si le linéarisé est commandable, on peut désirer élargir le domaine de fonctionnement au-delà du domaine de validité de l'approximation linéaire. Les travaux décrits au paragraphe [*] relèvent de cette problématique. Enfin certains problèmes de commande, comme la planification de trajectoire, ne sont pas de nature locale, et ne peuvent être traités à l'aide d'un modèle approché linéaire. L'étude structurelle décrite en [*] a pour objet de dégager des invariants qui peuvent être utilisés pour ramener l'étude à des systèmes plus simples ou pour servir de fondement à une théorie de l'identification non-linéaire qui fournirait des renseignements sur les classes de modèles à utiliser lorsque l'on ne dispose pas d'information fiable a priori et que l'identification linéaire << boîte noire >> n'est pas suffisante. Le succès du modèle linéaire, que ce soit en commande ou en identification, tient en grande partie à la compréhension très fine qu'on en a ; de façon analogue, une meilleure maîtrise des invariants des modèles non-linéaires pour certaines transformations semble être un préalable à une véritable théorie de l'identification et de la commande non-linéaire. Pour tout ce qui relève des sytèmes non-linéaires, on sous-entend toujours que la dimension de l'état est finie.

Stabilisation continue

 Mots-clés : commande, stabilisation de système non linéaire, automatique non linéaire, système mécanique non holonôme




Participants : Jean-Michel Coron (univ. Paris IX) , Ludovic Faubourg , Pascal Morin (California Inst. Tech. puis projet ICARE) , Jean-Baptiste Pomet , Claude Samson (Projet ICARE) ,


La stabilisation par retour continu d'état --ou de sortie (information partielle)-- consiste à concevoir une commande qui soit une fonction régulière (au moins continue) de l'état, et telle qu'un point de fonctionnement (ou une trajectoire) soit asymptotiquement stable pour le système bouclé. On peut voir cela comme une version affaiblie de la commande optimale : le calcul d'une commande qui optimise exactement un certain critère (par exemple rallier un point en temps minimal) conduit en général à une dépendance très irrégulière en l'état ; la stabilisation est un objectif qualitatif (rallier un point asymptotiquement), moins contraignant que la minimisation d'un critère, et qui laisse évidemment beaucoup plus de latitude et permet d'imposer par exemple beaucoup de régularité. Notons que les problèmes de stabilisation sont souvent résolus au moins au voisinage de points de fonctionnement, par des méthodes d'automatique linéaire, aujourd'hui bien maîtrisées ; les méthodes étudiées ici concernent le comportement au voisinage de points où les méthodes linéaires sont inefficaces (approximation linéaire non commandable) ou le comportement sur une région plus étendue de l'espace d'état. Une question très importante est la robustesse de cette stabilité, en effet les lois de commande dépendent énormément de la structure du modèle, et la conservation de la stabilité asymptotique pour des structures ou des valeurs des paramètres voisines n'est pas acquise. Nous mentionnons ci-après deux directions de recherche actives à ce jour dans le projet.

Stabilisation périodique de systèmes non-linéaires. Il est connu qu'un certain nombre de systèmes non-linéaires, bien que commandables, ne peuvent pas être stabilisés par une commande qui soit une fonction continue de l'état seulement[Bro83]. On peut bien sûr pour ces systèmes relâcher l'exigence de continuité en utilisant par exemple des retours d'état (très) discontinus issus de la commande en temps minimal, mais une idée récente consiste à rechercher tout de même des retours d'état continus, ou même lisses, en relâchant plutôt l'exigence de dépendance seulement par rapport à l'état et en permettant une dépendance par rapport au temps, par exemple périodique. Cette idée a d'abord été appliquée sur des petites classes de systèmes (dimension 1[SS80], systèmes mécaniques non-holonômes de petite dimension[SAA91]), puis il a été démontré [Cor95] que << pratiquement >> tout système commandable peut être stabilisé asymptotiquement par un retour d'état dépendant périodiquement du temps.

Les recherches de l'équipe, menées en collaboration avec le projet ICARE de l'Inria-Sophia, ont joué un rôle important dans l'obtention de ces résultats [6] et visent aujourd'hui à développer des méthodes effectives pour la synthèse de lois de commandes non-linéaires périodiques stabilisant des classes représentatives de systèmes mécaniques non-holonômes, ainsi qu'à étudier et à améliorer leur robustesse et le comportement des transitoires qu'elles induisent. Parmi les acquis récents, on peut citer l'obtention d'une loi de commande continue stabilisant l'attitude d'un satellite en mode dégradé (cf. §[*]).

Les applications concernent les systèmes mécaniques non-holonômes : la stabilisation de robots mobiles d'une part et celle d'un corps solide non complètement commandé en rotation autour de son centre de gravité d'autre part (un satellite artificiel par exemple).

Fonctions de Lyapunov contrôlées. Les fonctions de Lyapunov sont un outil bien connu pour l'étude de la stabilité des systèmes dynamiques non contrôlés. Pour un système contrôlé, on appelle Fonction de Lyapunov contrôlée une fonction qui est de Lyapunov pour le système bouclé par une certaine commande. Ceci se traduit par une inégalité différentielle que l'on appellera équation d'Artstein[Art83] et qui ressemble à l'équation d'Hamilton-Jacobi-Bellmann mais qui est bien sûr largement sous-déterminée. On peut déduire d'une fonction de Lyapunov contrôlée des retours d'état continus stabilisants de manière très commode[Son90].

On s'intéresse au sein du projet à l'obtention de fonctions de Lyapunov contrôlées, notamment pour étudier la robustesse de certaines lois de commandes stabilisantes obtenues par d'autres méthodes.

Transformations et équivalences des systèmes non-linéaires

 

Participants : Laurent Baratchart , Jean-Baptiste Pomet ,


Mots-clés : automatique non linéaire, feedback non linéaire


Une transformation par retour d'état statique d'un système dynamique contrôlé est un reparamétrage (non singulier) des commandes, dépendant de l'état. Une transformation par retour d'état dynamique d'un système dynamique contrôlé consiste à effectuer une extension dynamique (augmentation de l'état et attribution d'une dynamique aux nouveaux états) suivie d'une transformation par retour d'état statique sur le système augmenté. Du point de vue des problèmes de commande, l'intérêt de telles transformations, dans le cas où le système obtenu possède une structure plus exploitable que l'original, est qu'une commande permettant de satisfaire un certain objectif sur le système transformé peut être utilisée pour commander le système original en incluant l'extension dynamique dans le contrôleur.

Évidemment, un cas favorable est celui où le système transformé est linéaire. Le problème de la linéarisation dynamique est celui de trouver des conditions explicites sur un système pour qu'existe une transformation par retour d'état dynamique le rendant linéaire. Ce problème a été très étudié ces dix dernières années. Des travaux récents[FLMR95] ont montré qu'un feedback dynamique linéarisant existe si, et seulement si, il existe un certain nombre de fonctions de l'état et de dérivées de la commande qui ne sont liées par aucune équation différentielle, et qui « paramètrent toutes les trajectoires ». Cette propriété est appelée platitude différentielle, et les fonctions en question fonctions linéarisantes, ou sorties plates. Une manière de s'attaquer au problème de la linéarisation dynamique est alors de rechercher des fonctions linéarisantes ou des conditions qui assurent leur existence. Ces fonctions, lorsqu'elles existent, permettent de simplifier énormément certains problèmes pratiques comme la planification de trajectoires. La question, cependant, demeure ouverte de savoir comment décider de façon algorithmique si un système donné est linéarisable dynamiquement ou pas.

Ce problème est à la fois difficile et important pour l'automatique non-linéaire. La publication [14] esquisse une voie possible pour mettre en évidence des conditions géométriques caractérisant localement l'existence de ces sorties plates. En termes algébrico-différentiels, le module des différentielles d'un système commandable est libre et de dimension finie sur l'anneau des polynômes différentiels en $d/dt$ à coefficients dans l'espace des fonctions du système (la constructions d'une base est donnée par exemple dans un travail commun avec le Laboratoire d'Automatique de Nantes[ABMP95]). La question est de déterminer s'il admet une base de formes fermées, et donc localement exactes. Enoncé ainsi, il s'agit d'une extension au cas où les coefficients sont des opérateurs différentiels du classique théorème d'intégrabilité de Frobenius. En sus de la stabilité par différentiation extérieure qui régit le cas classique, d'autres conditions sont nécessaires ici pour assurer la finitude du degré des solutions.

Structure de l'espace des trajectoires

 

Participants : Jean-Baptiste Pomet , Andrey Sarychev (Université d'Aveiro, Portugal)


Etant donné un système dynamique commandé, une courbe dans l'espace d'état est une trajectoire si il existe un commande qui la produit. La planification de trajectoire consiste à trouver une trajectoire satisfaisant certaines conditions, par exemple joindre deux points donnés en restant dans une certaine zone. C'est une problématique omniprésente en robotique, par exemple. Il est naturel dans ce contexte de considérer aussi la planification approchée, qui consiste à trouver une courbe qui ne soit pas forcément une trajectoire mais qui puisse être approximée par des trajectoires. Cette démarche requiert, cependant, une caractérisation de cet ensemble de courbes. Il est également une autre motivation pour une telle étude : on peut associer à un système contrôlé, disons affine en les commandes, un processus de diffusion --en remplaçant grosso modo les commandes par des bruits blancs indépendants-- qui définit à chaque instant une mesure de probabilité sur l'espace des courbes paramétrées dans l'espace d'état, et il est connu[SV72] que le support de cette mesure est exactement l'ensemble des courbes qui peuvent être approchées au sens $C^0$ par des trajectoires du système controlé associé. La caractérisation de cet adhérence a donc des répercussion en analyse stochastique. Pourtant, il est étonnant que ce problème ait été peu étudié en dehors du cas où l'adhérence en question contient toutes les courbes. Les travaux menés dans le projet ont déjà donné lieu à des résultats importants [Pom97], et se poursuivent en collaboration avec l'université d'Aveiro (Portugal). On cherche à caractériser les courbes limites au voisinage de singularités qui semblent jouer un rôle très important. Une raison supplémentaire de s'intéresser à ce problème est qu'il met en jeu des techniques utilisées par ailleurs pour synthétiser des lois de commandes continues stabilisantes cf. [*].

Stabilisation de systèmes hybrides

 

Participants : Laurent Baratchart , Yuncheng Yu (univ. Floride du Sud, Tampa, USA)


Il s'agit d'un axe de recherche, relativement marginal dans le projet, qui est né d'une collaboration NSF-INRIA avec l'Institute for Constructive Mathematics de l'université de Floride-Sud, laquelle porte principalement sur l'approximation dans le domaine complexe. Les systèmes hybrides dont on se préoccupe ici sont des structures flexibles, poutres, plaques ou membranes, reliées à un corps rigide sur une portion de leur bord. L'étude de la stabilisation de tels systèmes a connu un essor particulier dans les années 80 à cause, principalement, des problèmes de déploiement d'antennes en ingénierie satellitaire[BT86]. Les modèles sont constitués d'équations aux dérivées partielles couplées avec des équations différentielles ordinaires par des conditions dynamiques aux bords, et la stabilisation exponentielle s'avère impossible [LM88]. Il existe deux types d'approche, une fondée sur le principe de Lasalle en dimension infinie et l'autre sur la théorie des semi-groupes. Cette dernière, qui est celle que nous considérons, n'est véritablement effective que pour des domaines de forme particulière dont les fonctions propres sont plus ou moins explicitement connues. Dans ce cas, toutefois, la théorie des fonctions est susceptible de fournir des outils efficaces pour analyser le spectre, et c'est par ce biais que le projet a pris contact avec le sujet.

Jeux dynamiques et commande robuste

  La théorie des jeux dynamiques est aujourd'hui un outil bien établi pour modéliser les processus de décision, et qui emprunte beaucoup à la commande optimale c'est-à-dire au calcul des variations moderne sous contrainte différentielle. Cependant, résoudre le problème en général reviendrait à établir une typologie des singularités qui semble d'ores et déjà hors de portée dans le cas statique, de sorte que l'examen d'exemples signifiants en petite dimension reste l'activité principale dans la théorie classique. L'activité du projet se concentre ici sur des méthodes de désingularisation de la fonction valeur susceptible de permettre l'approximation des solutions. Par ailleurs, la commande robuste $H^\infty$ se traduit dans le formalisme des jeux et fournit un cadre pour poser le problème dans un cadre plus général que celui des systèmes linéaires. Cet aspect est également analysé au sein du projet, lequel a joué un rôle de pionnier dans le domaine[BB95].



Notes:

...d'identification
elle pourrait être qualifiée de non-paramétrique dans certaine terminologie
...modèles
E. Hannan and M. Deistler. The Statistical Theory of Linear Systems, Wiley, 1988, Chap. 7, par. 4



previous up next contents Précédent : Présentation générale et objectifs Remonter : Projet MIAOU, Mathématiques et Informatique Suivant : Grands domaines d'application