Projet Omega

previous up next contents
Précédent : Grands domaines d'application Remonter : Projet OMEGA, Méthodes numériques probabilistes Suivant : Actions industrielles



Résultats nouveaux

Méthodes particulaires stochastiques



Participants : Mireille Bossy , Axel Grorud , Hervé Régnier , Denis Talay , Olivier Vaillant


Mots-clés : méthode particulaire stochastique, probabilités numériques


Nous poursuivons l'étude engagée sur ce sujet les années précédentes, aussi bien sur le plan de l'analyse théorique de la vitesse de convergence que sur le plan de l'implémentation numérique.

M. Bossy a obtenu un résultat partiel sur la vitesse de convergence lorsque le noyau d'interaction est une masse de Dirac régularisée pour les besoins de la simulation. Un tel noyau est très similaire au noyau de Biot et Savart régularisé qui apparaît dans la méthode de vortex aléatoire pour l'équation de Navier-Stokes incompressible 2D.

Dans la résolution numérique des EDP paraboliques, la valeur du coefficient de diffusion n'est pas une simple donnée du problème mais doit être traitée comme un paramètre contrôlant la précision de la méthode choisie. Les méthodes particulaires aléatoires n'échappent pas à cette règle. De plus, elles ont un comportement opposé aux méthodes déterministes classiques non particulaires, ce qui peut les rendre très concurrentielles dans les cas de faible viscosité (c'est-à-dire lorsque la constante $\sigma$ dans l'équation ([*]) est faible). Il est donc important de savoir estimer la dépendance en $\sigma$ de l'erreur d'approximation particulaire stochastique sur $U_t$ solution de ([*]). M. Bossy et Mohamed Saadbouh (stage de DEA de Mathématiques Appliquées, université de Provence) ont obtenu un résultat préliminaire dans cette direction, pour une équation unidimensionnelle avec un noyau d'interaction lipschitzien et borné et pour la vitesse de convergence de la fonction de répartition empirique.

Par ailleurs, M. Bossy et D. Talay travaillent sur l'interprétation probabiliste de l'équation de Burgers avec condition au bord de type Dirichlet. C'est une étape préliminaire à la construction et à la justification mathématique de l'algorithme particulaire. L'interprétation probabiliste est fondée sur un processus stochastique non linéaire réfléchi au bord du domaine. Les essais numériques menés par M. Bossy ont permis de valider numériquement l'approche probabiliste employée.

M. Bossy et D. Talay étudient également, en collaboration avec M. Picasso (École Polytechnique Fédérale de Lausanne), un modèle physique d'écoulement de polymères qui couple une EDP de type Navier-Stokes avec un système d'équations différentielles stochastiques non linéaire au sens de McKean et à coefficients singuliers. Ils ont analysé un algorithme dans un cas simplifié. Le cas non simplifié est en cours d'étude.

Pour certaines équations aux dérivées partielles non linéaires, ou pour rendre compte de certaines conditions aux bords (voir la section suivante), il est nécessaire de considérer des méthodes particulaires reposant sur la simulation de processus de branchement à valeurs mesures. Ainsi, Sherman et Peskin [SP86] ont introduit, sans la justifier mathématiquement, une méthode particulaire stochastique pour les équations du type  

\begin{equation}\left\{\begin{array}{ll}\displaystyle {\partial u\over\partia... ... u(t,x) + f(u(t,x)), \\ u(0,\cdot) = u_0(\cdot),\end{array}\right.\end{equation}




$\sigma$ est une fonction coercive et régulière, b est une fonction régulière, f est une fonction à valeurs réelles et $u_0 $ est la fonction de répartition d'une mesure de probabilité sur ${\mathrm{I\!R}}$.Cette méthode ne cherche pas à résoudre l'équation ([*]) directement mais l'équation au gradient qui lui est associée. On construit un processus de branchement avec interaction de type champ moyen (l'interaction dépend de l'état global du système) dont la loi limite, quand le nombre de particules à l'instant 0 tend vers l'infini, est reliée à l'équation ([*]). Les particules se déplacent de manière indépendante les unes des autres et ont pour loi celle d'une diffusion à coefficients bien choisis. Elles meurent en un temps aléatoire et donnent alors éventuellement naissance à deux particules. La condition de regénérescence fait intervenir l'état global du système. Un résultat de propagation du chaos dû à Chauvin-Olivarès-Rouault [COR94] montre que, quand le nombre de particules à l'instant 0 tend vers l'infini, chaque arbre (aléatoire) issu d'une particule présente en $t=0$ a tendance à se comporter comme une copie indépendante d'un arbre dont la loi est décrite à l'aide de l'équation limite :

\begin{displaymath}g _t=\mu _0*p_t +\int_0^t [f'(<\mu _s, Pi]-\infty;x[\gt)\mu _s ]*p_{t-s} ds ,\end{displaymath}



$g_t$ est la densité de $\mu _t$ par rapport à la mesure de Lebesgue et $p_t$ est le noyau de Green de l'opérateur

\begin{displaymath}\frac{1}{2} \sigma ^2(.)\frac{\partial ^2 }{\partial x ^2} +... ...gma (.)\sigma '(.) + b(.)\right] \frac{\partial }{\partial x}.\end{displaymath}



La mesure $\mu_t$ peut donc être approchée par la mesure empirique des particules vivantes à l'instant t. A. Grorud, H. Régnier et D. Talay ont montré que la vitesse de convergence estimée en norme $L^{1,\phi}({\mathrm{I\!R}}\times\Omega)$ est en $O(\sqrt{\Delta t}+\frac{1}{\sqrt{N}})$, où N est le nombre de particules initial, $\Delta t$ le pas de discrétisation en temps et $\phi$ une fonction poids. L'algorithme ainsi que son résultat de vitesse de convergence ont été étendus pour des conditions initiales non monotones.

Par ailleurs, H. Régnier étend le travail précédent à la méthode particulaire introduite elle aussi par Sherman et Peskin [SP88] pour la résolution numérique des équations d'Hodgkin-Huxley [HH52].

Un champ d'activité nouveau pour le projet porte sur certaines équations aux dérivées partielles à conditions initiales aléatoires. En effet, l'imprécision des mesures ou la complexité d'un phénomène physique incitent à représenter les quantités observées par des variables aléatoires. C'est le cas de la décomposition de Reynolds pour la vitesse $u$ d'un fluide dans un écoulement turbulent :

\begin{displaymath}u=U+u^*\end{displaymath}


où U est une vitesse moyenne et $u^*$ une vitesse d'agitation considérée comme aléatoire. La dynamique de la vitesse $u$ d'un fluide incompressible est régie par les équations de Navier-Stokes ($\Omega ={{\mathrm{I\!R}}}^2$ ou ${{\mathrm{I\!R}}}^3$) :  

\begin{equation}\left\{\begin{array}{lll}\displaystyle{\frac{\partial u}{\pa... ...es\Omega,\\ u(0,x)=u_0(x)&~\mbox{dans}~&\Omega .\end{array}\right.\end{equation}




Ces équations étant déterministes, un moyen de justifier l'hypothèse de Reynolds est de supposer que la condition initiale $u_0$ est aléatoire. Un problème classique en Mécanique des Fluides consiste alors à estimer $Eu$ et $E(u \otimes u)$.Dans une première approche, O. Vaillant et D. Talay supposent que la condition initiale est de la forme $u_0 = U_0 + \varepsilon u^*_0$ , $\varepsilon $étant un << petit >> paramètre positif. En s'appuyant sur un résultat dû à J-Y. Chemin [Che92] portant sur l'existence et l'unicité d'une solution régulière de ([*]), on a montré que $Eu$ et $E(u \otimes u)$ admettent des développements asymptotiques en puissances de $\varepsilon $. De plus, l'erreur commise en tronquant ces développements est contrôlée par les moments successifs de $u_0$.Cependant les résultats obtenus ne se prêtent pas à une simulation numérique simple. Il vaut donc mieux s'intéresser à l'équation satisfaite par le rotationnel de la vitesse $u$, noté $\omega$, qui satisfait l'équation suivante pour un écoulement plan :  

\begin{equation}\left\{\begin{array}{lll}\displaystyle{\frac{\partial \omega... ...(u_0(\cdot))&~\mbox{dans}~& {{\mathrm{I\!R}}}^2.\end{array}\right.\end{equation}





Si $\omega _0$ est une mesure de probabilité, la solution mesure de ([*]) est reliée à la loi d'un processus de diffusion non linéaire au sens de McKean. Grâce à cette propriété, O. Vaillant a montré un résultat de propagation du chaos pour un système de particules en interactions qui permet une simulation simple et peu coûteuse de $E\omega $ et $Eu$. Des essais numériques sont en cours pour tester les performances de l'algorithme.

Interprétation probabiliste d'équations aux dérivées partielles

 

Participants : Madalina Deaconu , Jean-Sébastien Giet , Bernard Roynette , Pierre Vallois


Mots-clés : analyse stochastique, processus stochastique


En collaboration avec Saïd Benachour (université Henri Poincaré), B. Roynette et P. Vallois travaillent à établir une interprétation probabiliste pour l'équation de Navier-Stockes dans un ouvert borné $\Omega$ de ${\mathrm{I\!R}}^2$ avec condition de vitesse nulle au bord. Au tourbillon $\omega$ est associé un processus de branchement non linéaire $(X_t,t\geq0)$ qui a la particularité de créer ou de détruire de la masse au bord de $\Omega$. Le bord apparaît donc comme l'endroit où les tourbillons se créent ou se détruisent. Plus précisement, pour l'équation 2-D le lien entre $\omega$ et X est le suivant :

\begin{displaymath}E_{\omega_0}\Big(\int_\Omega h (x) d X_t\Big) =~ <\omega (t,\cdot),h\gt,\end{displaymath}



pour toute fonction $h$ régulière. Des formules analogues (mais avec création et dissipation de masse à l'intérieur de $\Omega$ également) sont obtenues formellement pour l'équation en dimension 3. Quelques difficultés techniques restent à surmonter pour démontrer l'existence du processus $(X_t)$. Il faudra ensuite, à partir de la construction de ce processus, développer un algorithme particulaire stochastique de résolution de Navier-Stockes avec condition au bord.

La démarche qui vient d'être décrite peut être adaptée à des situations autres que l'équation de Navier-Stokes. En collaboration avec M. Gradinaru (université Henri Poincaré) et Marc Yor (université Paris 6), B. Roynette et P. Vallois considèrent l'équation aux dérivées partielles sur ${\mathrm{I\!R}}^2_+$avec condition au bord suivante :

\begin{displaymath}\frac{\partial \omega}{\partial t}=L\omega,~\omega(0,x)=\omega_0(x),~\omega(t,0)=f(t),\end{displaymath}




$\omega_0$ et f sont deux fonctions données, L est le générateur du processus de Bessel d'indice n avec $-1<n<0$. On peut calculer explicitement la solution à l'aide de $\omega_0$ et f. En utilisant la méthode développée pour l'équation de Navier-Stockes, on calcule la loi d'intégrales du type $\int_0^1 \varphi (s) d L_s$, pour une large classe de fonctions $\varphi$, $L_s$ désignant le temps local en 0 du processus de Bessel. De plus, des théorèmes limites sont établis pour certaines intégrales du type précédent. Une étude du cas discret est commencée par J-S. Giet.

La représentation probabiliste d'équations aux dérivées partielles a été complétée cette année par le travail de B. Roynette et P. Vallois en collaboration avec Saïd Benachour (université Henri Poincaré) sur l'équation

\begin{displaymath}\frac{\partial u}{\partial t}(t,x)=-\frac{1}{8}\frac{\partial^4 u}{\partial x^4}(t,x). \end{displaymath}




Ils ont établi que la solution peut être représentée à l'aide d'espérances de fonctionnelles du mouvement brownien itéré. D'autre part, S. Maire et D. Talay considèrent des questions relatives à la représentation probabiliste de la valeur propre principale d'un opérateur de transport neutronique.

Le comportement en temps long de systèmes de particules peut fournir des représentations probabilistes d'EDP non linéaires stationnaires, ainsi que des algorithmes probabilistes de résolution numérique. Dans cette direction, M. Deaconu a montré la convergence en loi vers sa mesure stationnaire quand t tend vers l'infini, d'un processus stochastique non linéaire au sens de McKean et réfléchi dans l'intervalle $[-1,1]$. La mesure stationnaire est calculée explicitement et des approximations numériques (obtenues par simulation de systèmes de particules) pour deux cas particuliers ont été étudiées.

Évaluation et calcul de prix d'options



Participants : Claude Martini , Patrick Seumen Tonou , Denis Talay


Mots-clés : mathématiques financières


Avellaneda et Lyons, dans un modèle de type Black-Scholes avec une volatilité inconnue à valeurs dans un intervalle, obtiennent le prix minimal d'une option européenne comme solution d'une EDP de type Hamilton-Jacobi-Bellman sous la condition que le payoff à l'échéance de l'option soit une fonction suffisamment régulière du prix du sous-jacent. L'extension aux payoffs réels tels que les CallSpreads, les PutSpreads, les options digitales, etc. n'a rien d'évident. C. Martini a obtenu un tel résultat pour les payoffs continus. Il a aussi caractérisé l'image des prix d'une option quand l'intervalle de volatilité varie. Le cas des payoffs discontinus (option digitale) est plus compliqué. Une question ouverte est la suivante : le prix d'une option de payoff égal à l'indicatrice d'un point est-il nul ? C. Martini a montré qu'une réponse affirmative est équivalente à l'existence d'une densité pour le noyau de transition d'une diffusion inhomogène à coefficient de diffusion mesurable à valeurs dans $\left\{ \underline{\sigma },\overline{\sigma }\,\right\} $$\underline{\sigma }$ et $\overline{\sigma }$ sont les extrémités de l'intervalle de volatilité. L'existence d'une telle densité est à l'étude actuellement.

Le projet étudie également activement les problèmes numériques issus des modèles financiers.

Ainsi, P. Seumen Tonou et D. Talay ont travaillé sur l'approximation de la loi jointe d'un processus de diffusion et de son supremum courant. Cette question provient très naturellement du calcul par méthode de Monte-Carlo des options européennes de type << look back >>. P. Seumen Tonou et D. Talay ont résolu une question de vitesse de convergence et de développement de l'erreur de discrétisation en temps qui était restée en suspens à la fin de la thèse de P. Seumen Tonou.

Afin de rendre les méthodes numériques populaires parmi les praticiens actuels ou futurs, en collaboration avec B. Lapeyre (École des Ponts et Chaussées), A. Sulem (Inria-Rocquencourt, projet Meta-2) et A. Zanette (université de Trieste, invité au CERMICS), C. Martini développe un package SciLab à vocation didactique sur le thème du pricing et de la couverture d'options. La population visée est celle des étudiants de 3ème cycle de finance ou de mathématiques financières, ainsi que les market-makers débutants et désireux de comprendre le modèle qu'ils utilisent. C. Martini a effectué une mission de trois mois à la fin de l'année au Cermics pour travailler sur ce projet avec A. Zanette.

Enfin, en collaboration avec Bernard Lapeyre et Agnès Sulem, D. Talay a écrit un livre qui sera publié en 1998 par Cambridge University Press : << Understanding Numerical Analysis for Financial Models >>.

Modèles financiers avec asymétrie d'information



Participant : Axel Grorud


Mots-clés : mathématiques financières


A. Grorud continue l'étude des marchés financiers avec asymétrie d'information, c'est-à-dire un modèle mathématique d'évolution d'actifs boursiers dans lequel on suppose la présence d'un investisseur initié [23,32].

En collaboration avec Monique Pontier (université d'Orléans) et Laurent Denis (université du Mans), il avait auparavant considéré le modèle des prix dirigés par une mesure de Poisson [29]. Ce modèle financier est incomplet au sens où il peut exister plusieurs probabilités neutres au risque. À présent les mêmes auteurs considèrent un modèle de marché sur un espace de probabilité filtré $(\Omega, ({\cal F}_t, t\in[0,T]),P)$ dont la dynamique est régie par un mouvement brownien W de dimension m et un processus de Poisson marqué N, indépendant de W, de dimension n et d'intensité $\lambda$. On note $M_t=N_t-\int_0^t \lambda_s ds$ la martingale associée :  

\begin{eqnarray}dS^0_t&=&S^0_tr_tdt,~S_0^0=1,\\ dS^i_t&=&S^i_t\left[b^i_tdt +\s... ...i_tdW_t + \rho^i_t dM_t\right],~S^i_0=x^i, i=1,\cdots,d.\nonumber\end{eqnarray}




Le fait d'introduire un processus de Poisson multivarié permet de rendre le marché financier complet et viable, il n'y a donc qu'une probabilité neutre au risque et on peut caractériser les stratégies optimales de l'agent. L'investisseur initié connait des informations sur le futur modélisées par une variable aléatoire $L\in L^1(\Omega, {\cal F}_T)$ (par exemple, il sait que des échanges auront lieu et à quelle date). On note ${\cal Y}$ la filtration << naturelle >> de l'initié : ${\cal Y}_t ={\cal F}_t\vee\sigma(L), t\in [0,T]$. Les processus W et N ne sont plus nécessairement des semi-martingales pour la nouvelle filtration $({\cal Y}_t)$.Sous l'hypothèse importante d'absolue continuité (ou d'équivalence) de la loi conditionnelle de L sachant ${\cal F}_t$ par rapport à la loi de L, la méthode de grossissement initial d'une filtration permet de trouver les conditions sur L pour que $W_t=B_t+A_t$, où B est un ${\cal Y}-$Brownien et $A$ un ${\cal Y}-$processus croissant, et pour que N admette un compensateur ${\cal Y}$-prévisible. On utilise ensuite le calcul explicite du portefeuille optimal pour obtenir l'expression, dans un cadre d'initiation, des stratégies optimales. Les auteurs ont aussi construit divers exemples pour lesquels la loi conditionnelle de L sachant ${\cal F}_t$ peut être explicitée : L de loi Gaussienne, ou $L=\phi (N_T)$, ou encore $L=\phi (N_T,W_T)$, $\phi$ étant une fonction réelle << simple >>.

Analyse stochastique des algorithmes



Participants : Philippe Chassaing , Jean-François Marckert


Mots-clés : probabilités numériques


L'approche par martingales ou par l'équation de Bellman, typique du contrôle stochastique, semble nouvelle en analyse d'algorithmes. P. Chassaing a obtenu l'algorithme optimal pour le problème de la majorité dans le cas biaisé [21]. Un prolongement de ce résultat est le design d'algorithmes compétitifs pour la recherche d'un composant (chip) défectueux, travail en commun avec L. Alonso, E. Reingold et R. Schott.

Par ailleurs, P. Chassaing a obtenu l'algorithme optimal pour la recherche du maximum d'une marche aléatoire simple asymétrique et a précisé les résultats d'Odlyzko concernant le cas symétrique. De même, J-F. Marckert a montré que pour obtenir tous les zéros de la marche aléatoire simple symétrique, il fallait la sonder en au moins

\begin{displaymath}\sqrt{n}\log(n) \frac{1}{\sqrt{2\pi}}(1+o(1))\end{displaymath}



points en moyenne et il a fourni un algorithme atteignant cette borne inférieure.

Dans un travail commun M. Yor, P. Chassaing et J-F. Marckert identifient la loi limite du coût de l'algorithme d'Odlyzko (liée à des fonctionnelles du méandre brownien). En conséquence, cet algorithme s'avère être asymptotiquement optimal non seulement en moyenne, mais aussi pour l'ordre stochastique. Un résultat analogue semble être vrai pour l'algorithme de Marckert pour la recherche des zéros.

En collaboration avec F. Charpillet (Inria Nancy, projet Syco) P. Chassaing et J-F. Marckert travaillent actuellement sur un problème d'intelligence artificielle : les algorithmes anytime, c'est-à-dire des algorithmes qui doivent fournir une réponse même s'ils sont interrompus avant la fin de leur exécution normale. Il s'agit de les agencer de sorte que la qualité de la réponse souffre le moins possible de cette interruption prématurée. Le temps disponible pour leur exécution est inconnu à l'avance. Un problème très simple d'ordonnancement apparaît : supposons qu'au temps 0 une tâche doive être effectuée en un laps de temps aléatoire X dont la fonction de répartition $F(x):=P(X<x)$est connue. Supposons aussi qu'on puisse choisir un algorithme $A_t$ qui remplisse cette tâche dans une famille d'algorithmes $(A_t)_{t\gt}$. L'exécution d'un tel algorithme $A_t$ nécessite t unités de temps, et le résultat de l'algorithme est une valeur notée $U(t)$. On suppose que U est continue croissante, et que $U(0)=0$.Si l'algorithme $A_t$ est terminé après X, son résultat n'est d'aucune utilité. Sinon, une fois l'algorithme $A_t$ exécuté, on peut démarrer un nouvel algorithme $A_y$ et, si $A_y$ est terminé avant la date X, on garde le meilleur des deux résultats $U(t)$ et $U(y)$, et ainsi de suite. Le problème est de déterminer une suite d'algorithmes (ou de durées d'algorithmes) qui optimise la valeur moyenne du résultat obtenu au temps X. La performance d'une suite $s:=(s_n)_{n\gt 1}$ de durées d'algorithmes est donnée par  

\begin{equation}v(s)=\sum_{n\geq 1} U(\max\{s_1,s_2,s_3, \cdots, s_n\})P(w_n\leq X<w_{n+1}),\end{equation}




avec $w_n:=s_1+s_2+s_3+\ldots+ s_n$.Dans le cas très particulier d'une variable aléatoire X exponentielle avec espérance 1 et de la fonction $U(t):= t$, le problème revient à optimiser

\begin{displaymath}v(x)=x_1e^{-w_1}+x_2e^{-w_2}+\ldots+x_ke^{-w_k}+\ldots, \end{displaymath}


$x =(x_i)$ est la suite des incréments (positifs) associés à la suite $s_n:=x_1+x_2+x_3+\ldots+x_n$.Le problème semble délicat même dans ce cas très particulier. Divers résultats ont été obtenus, notamment le fait que la suite optimale vérifie la relation

\begin{displaymath}s^{*}_{n+2}=-\log(2+(s^*_n-s^*_{n-1}-1)e^{s^{*}_{n+1}}), \end{displaymath}


en utilisant une équation de Bellman :

\begin{displaymath}\Psi(a)=e^{-a}\max\big\{(x+\Psi(a+x))e^{-x}\vert x\gt\big\},~a\geq 0, \end{displaymath}



$\Psi(0)$ est la performance optimale. Cependant, ces résultats sont conditionnés à l'existence d'une solution $z$ de l'équation

\begin{displaymath}z'(a)=1+z'(z(a))e^{-z\circ z(a)}z'(a)+e^{-z\circ z(a)}z'(a), \end{displaymath}



ayant de bonnes propriétés sur $]0,+\infty[$. Actuellement, nous ne pouvons en démontrer l'existence que sur un intervalle $[A,+\infty[$ avec $A\gt$.

Théorie des processus stochastiques



Participants : Madalina Deaconu , Hélène Ganidis , Bernard Roynette , Pierre Vallois , Agnès Volpi


Mots-clés : processus stochastique, analyse stochastique


En collaboration avec Yves Siebenaler (stagiaire du centre universitaire du Luxembourg), P. Vallois s'est intéressé à la loi du premier instant $\theta(a)$ où l'amplitude d'une marche au plus proche voisin atteint le niveau a, la marche étant de paramètres $p,q,r,p+q+r=1$, où $p$ (respectivement $q$) est la probabilité de monter (respectivement descendre) d'une unité, et $r$ est la probabilité de rester au même niveau. Ce travail généralise un précédent résultat de P. Vallois pour $r=0$.L'espérance et la variance de $\theta(a)$ ont été calculées explicitement, et des théorèmes limites lorsque a tend vers l'infini ont été établis. L'amplitude mesurant les fluctuations des trajectoires, cette notion pourrait être intéressante pour certaines applications en finance, en assurance ou en mécanique aléatoire par exemple.

Pour de telles applications, il est intéressant d'obtenir une solution approchée de la probabilité de ruine ou d'absence de ruine (ou, plus généralement, de franchissement d'un seuil donné). Ainsi, pour modéliser le niveau d'eau d'un barrage ou les actifs d'une société d'assurance, on peut choisir un processus stochastique X et s'intéresser au premier instant $T_x(X)$ où X atteint un niveau donné $x\gt$. Dans le cas du barrage, les sauts de X sont négatifs et on a montré que, pour une large classe de processus, la loi de $T_x(X)$ s'exprime à l'aide de la famille de lois $\{P(X_t\in\cdot);~t\gt\}$ (relation dite de Zolotarev). En revanche dans le cas de l'assurance, les sauts peuvent être positifs, et on a montré que la fonction de répartition de $T_x(X)$ considérée comme fonction de deux variables vérifie une équation intégrale. Ce sujet constitue le début de la thèse d'A. Volpi sous la direction de P. Vallois.

Les systèmes dynamiques aléatoires en temps long interviennent pour modéliser des comportements asymptotiques de modèles physiques ou représenter des EDP stationnaires (cf. supra). En collaboration avec François Simonot (ESSTIN), H. Ganidis et B. Roynette considèrent le problème de stabilité en temps grand suivant : soit $(X_t)$ solution de

\begin{displaymath}X_t=x+B_t- \frac{1}{2}\int_0^t b(X_s) ds. \end{displaymath}




On note $\mu$ sa probabilité invariante et $P_t$ le semigroupe associé à $(X_t)$. La vitesse de convergence d'une méthode numérique probabiliste de calcul de $\mu$ dépend de la la vitesse de convergence de $P_t$ vers $\mu$. Si $b(x)\simeq_{x\rightarrow\infty} sgn(x)\vert x\vert^\alpha$ avec $\alpha\geq 1$, on a établi :

\begin{displaymath}\Vert P_tf-\mu(f)\Vert _\infty \leq Ce ^{- \lambda t} \Vert f\Vert _1 \end{displaymath}




pour une certaine constante $\lambda$ strictement positive. Par ailleurs, pour $-1<\alpha<1$, le résultat devient :


\begin{displaymath}\sup_{x \in K} \vert P_t f(x) - \mu (f) \vert \leq Ce ^{- \lambda t^\gamma} \Vert f\Vert _2, \end{displaymath}




$\gamma$ est une constante qui dépend de $\alpha$ et K un compact. De plus, ces estimations semblent logarithmiquement les meilleures.

Enfin, le projet a continué à explorer des questions difficiles de calcul stochastique. Dans une série de travaux précédents, P. Vallois et Francesco Russo (université Paris-Nord) avaient défini la notion d'intégrale stochastique et de crochet généralisés. De nouveaux résultats ont été obtenus, relatifs à des processus gaussiens et aux équations différentielles stochastiques généralisées du type

\begin{displaymath}dX_t= b(X_t) dt + \sigma(X_t)d\xi _t, \end{displaymath}



$\xi$ est un processus possédant un crochet généralisé. Ces équations pourraient ouvrir le champ à de nouvelles applications : il serait possible de remplacer le mouvement brownien directeur usuel par un processus gaussien.

Par ailleurs, M. Deaconu a décrit le comportement des temps d'atteinte pour une diffusion réelle fortement rentrante. Elle a aussi donné une formule explicite pour l'espérance du temps de séjour dans le disque unité de certains mouvements browniens réfléchis. Des résultats numériques illustrent les résultats. Enfin, M. Deaconu a considéré des applications des espaces de Besov aux processus stochastiques : appartenance du mouvement brownien itéré aux espaces de Besov et aux espaces de Besov-Orlicz, régularité dans ces espaces d'un processus à deux indices solution de l'équation de Walsh. La dernière application concerne l'approximation d'une fonction sur le cube $d$-dimensionnel par le produit tensoriel de réseaux de neurones.



previous up next contents Précédent : Grands domaines d'application Remonter : Projet OMEGA, Méthodes numériques probabilistes Suivant : Actions industrielles