Projet Model

previous up next contents
Précédent : Présentation générale et objectifs Remonter : Rapport activite 1997 Suivant : Grands domaines d'application



Fondements scientifiques

  Comme dit précédemment, les activités du projet se situent dans deux domaines complémentaires. Nous travaillons, d'une part sur l'évaluation de mesures de sûreté de fonctionnement, et d'autre part, dans le cadre des études de performances, et plus généralement, de qualité de service.

D'une manière transversale à ces deux domaines de recherche, nous nous intéressons à des sujets trouvant leur place à la fois dans les problèmes liés à l'évaluation des performances et à l'évaluation de la sûreté de fonctionnement. Il s'agit des processus de Markov d'une part, et des techniques d'évaluation de type Monte Carlo d'autre part.

Évaluation de la sûreté de fonctionnement

 Mots-clés : disponibilité, fiabilité, performabilité, réseau de communication, régime d'équilibre, réseaux maillés, régime transitoire, sûreté de fonctionnement, système à événements discrets, tolérance aux fautes, vulnérabilité


Sûreté de fonctionnement: propriété qui permet aux utilisateurs d'un système de placer une confiance justifiée dans le service qu'il leur délivre[Lap95].

Tolérance aux fautes: méthodes et techniques destinées à fournir un service à même de remplir la, ou les fonctions du système en dépit des fautes[Lap95].

Fiabilité: probabilité de bon fonctionnement pendant une durée déterminée (mesure de la continuité d'un service).

Disponibilité (ponctuelle): probabilité de bon fonctionnement à un instant donné.

Disponibilité sur un intervalle: fraction de l'intervalle de temps pendant lequel le système est opérationnel.

Performabilité: concept englobant à la fois les notions de sûreté de fonctionnement et de performance.

Réseau maillé: réseau de communication à topologie irrégulière; c'est typiquement le cas des WAN (réseaux à large étendue, dits aussi <<réseaux publics>>).

Résumé : Dans le domaine de la sûreté de fonctionnement, nos travaux concernent l'analyse prévisionnelle de différentes mesures qui visent à quantifier le comportement des systèmes vis-à-vis des défaillances et des éventuelles réparations, par l'utilisation de modèles de ces systèmes. Dans cette section nous décrivons brièvement ces mesures dans une perspective plutôt historique, et nous situons nos travaux de recherche.

 

D'une manière succincte, les principales innovations du projet se caractérisent d'une part par le développement de nouveaux algorithmes dédiés à l'évaluation de différentes mesures et, d'autre part, par l'étude et la résolution de modèles intervenant dans des systèmes particuliers. Les difficultés majeures dans le domaine se situent essentiellement au niveau de l'explosion combinatoire des espaces d'états.


Théorie classique de la fiabilité

  Soit $T$ la durée de vie d'un équipement, représentée dans les modèles comme une variable aléatoire finie. La théorie classique de la fiabilité se focalise sur l'étude de cette variable aléatoire[Ger89] pour laquelle la mesure fondamentale est la fiabilité à l'instant $t$, définie comme la probabilité $R(t)$ que le système soit opérationnel jusqu'à l'instant $t$ sachant qu'il l'est à l'instant 0. L'espérance de $T$ est le temps moyen de fonctionnement noté $\mathrm{MTTF}$ (de l'anglais mean time to failure), qui s'exprime en fonction de la fiabilité par

\begin{displaymath}\mathrm{MTTF}= \mbox{E}(T) = \int_{0}^{\infty} R(t) dt.\end{displaymath}


La théorie classique de la fiabilité concentre l'essentiel de ses efforts dans l'étude de ces quantités, ceci étant dû au fait qu'à l'origine il était approprié d'appeler <<système>> une entité sans capacité à se réparer (i.e., le réparateur n'en faisait pas partie). Avec l'augmentation en complexité de la technologie, il est devenu nécessaire d'évaluer des systèmes incluant les moyens de réparation, ce qui conduit à la théorie moderne, où l'on parle de sûreté de fonctionnement. Ce dernier concept englobe, parmi beaucoup d'autres, celui de fiabilité.

Théorie moderne de la sûreté de fonctionnement

  Nous considérons ici des systèmes capables de retourner à un état opérationnel (éventuellement dans un mode dégradé) après avoir subi une défaillance[Ger89],[Lap95]. Si le système est toujours réparé après une défaillance (ou si, pour les besoins de l'étude, il est utile de le considérer ainsi), il est préférable de parler d'une durée de vie infinie et de voir l'évolution du système comme une suite alternée de périodes opérationnelles (le système fonctionne) et de périodes non opérationnelles (le système est en réparation). Il est fréquent de supposer que la réparation remet le système à neuf, et que les durées successives des périodes de bon fonctionnement, ainsi que les durées successives des réparations, sont des variables aléatoires indépendantes et de même loi. On utilise dans ce contexte la variable aléatoire $D$ = durée de réparation et on définit la maintenabilité à l'instant $t$ comme la probabilité $M(t)$ que le système soit réparé avant l'instant $t$,sachant que la réparation a commencé à l'instant 0. On considère également la moyenne de ce temps, notée $\mathrm{MTTR}$ (de l'anglais mean time to repair), donnée par

\begin{displaymath}\mathrm{MTTR}= \mbox{E}(D) = \int_{0}^{\infty} [1 - M(t)] dt.\end{displaymath}


On peut aussi définir le temps moyen inter-défaillances, que l'on note $\mathrm{MTBF}$ (de l'anglais mean time between failures), par $\mathrm{MTBF}= \mathrm{MTTR}+ \mathrm{MTTF}$. Parfois on note $\mathrm{MTBF}$ ce que nous notons ici $MTTF$. On peut observer que dans certaines applications on a $\mathrm{MTTR}\approx 0$ ce qui donne $\mathrm{MTBF}\approx \mathrm{MTTF}$.Le fait de supposer que le système est toujours réparé et que la réparation est une remise à neuf, conduit à un modèle qui évolue sans arrêt au cours du temps, avec une durée de vie infinie. Dans ce contexte, on utilise souvent comme mesure de qualité la disponibilité asymptotique, qui est la probabilité, pour le modèle supposé en équilibre, de le trouver dans un état opérationnel. Le modèle usuel est celui d'un processus de renouvellement alterné. Moyennant des conditions techniques appropriées, la disponibilité asymptotique est égale à $\mathrm{MTTF}/\mathrm{MTBF}$.

 

Considérons maintenant une situation générale où le système est représenté par un processus stochastique $X$ évoluant en temps continu. On se donne une partition de l'espace d'états de $X$ en deux sous-ensembles, celui des états dits opérationnels, noté $\cal U$, représentant le système en état de bon fonctionnement (éventuellement dégradé par rapport à son état initial), et les états non opérationnels, dont l'ensemble est noté $\cal D$,dans lesquels il n'est pas possible de rendre un service conforme aux spécifications. Dans ce dernier cas, le système peut être en réparation, par exemple en essayant de retrouver un état opérationnel après une défaillance à l'aide d'une procédure prévue de reconfiguration, ou encore se trouver dans un état irréparable qu'il ne quittera plus. On définit le processus indicateur des états opérationnels par

\begin{displaymath}O_t = 1_{\{\mbox{\footnotesize syst\`eme op\'erationnel \`a l'instant $t$}\}} = 1_{\{X_t \in {\cal U}\}}.\end{displaymath}


La disponibilité instantanée à l'instant $t$, notée $\mathit{PAV}(t)$ (de l'anglais point availability), est alors la probabilité que le système soit opérationnel à cet instant. C'est-à-dire, $\mathit{PAV}(t) = \Pr(O_t = 1)$.La disponibilité asymptotique est la limite $\mathit{PAV}(\infty)$ et l'on a $\mathit{PAV}(\infty) = \mathrm{MTTF}/\mathrm{MTBF}$.Enfin, une mesure plus riche du comportement du système est la disponibilité sur l'intervalle $[0,t]$, définie comme la variable aléatoire

\begin{displaymath}A_t = \frac{1}{t} \int_0^t O_s ds.\end{displaymath}



Par exemple, dans le cas d'un processus de renouvellement alterné, on a (presque sûrement et sous certains conditions techniques) $A_{\infty} =\mathit{PAV}(\infty)$.

 

Les aspects performance et sûreté de fonctionnement se retrouvent bien entendu simultanément dans le comportement des systèmes. Dans certains cas, leur étude séparée est trop limitative, et il est souhaitable de pouvoir les considérer en même temps pour résoudre plus efficacement des problèmes d'analyse. Ceci est le but du concept de performabilité[Mey80]. L'exemple de base est le suivant. Considérons toujours que le système est représenté par un processus stochastique $X$, et que nous avons associé à chaque état $i$ un réel $r_i$, appelé la récompense de l'état $i$. Par exemple, s'il s'agit d'un modèle de système multi-composants, on peut associer à l'état $i$ le nombre de composants opérationnels lorsque le modèle est dans l'état $i$. Prenons un tri-processeur tolérant les fautes et considérons qu'il est opérationnel s'il y a au moins un processeur opérationnel. Associons à l'état $i$ du modèle le nombre de processeurs opérationnels dans cet état. La mesure $\mbox{E}(A_t)$ précédemment discutée donne la fraction moyenne de l'intervalle $[0,t]$ pendant laquelle le système est en opération. Mais pour l'utilisateur il y a une grande différence entre un système opérationnel avec un seul processeur actif et le système avec ses trois processeurs en état de marche. La mesure

\begin{displaymath}\mbox{E}(\frac{1}{t} \int_{0}^t r_{X_s} ds)\end{displaymath}



donne un meilleur indicateur du comportement du système jusqu'à l'instant $t$. Une mesure de performabilité est donc une mesure tenant compte non seulement du fait que le système soit opérationnel, mais aussi des performances. Bien entendu, un objet tel que la distribution de la variable aléatoire $(1/t) \int_0^t r_{X_s}ds$ est aussi un exemple, plus sophistiqué, de mesure de performabilité.

Modèles statiques

  Bien souvent, les analystes se contentent de représenter les systèmes par des modèles statiques, i.e. des modèles dans lesquels le temps ne joue pas de rôle explicite. Il s'agit presque toujours de modèles de systèmes multi-composants à états binaires. Les relations entre l'état des $n$ composants et celui du système sont données sous la forme d'une fonction de structure $\Phi$, de $n$ variables binaires $x_1,\ldots, x_n$. La variable $x_i$ représente l'état du $i$ème composant, avec la convention 1 = composant opérationnel, 0 = composant défaillant. La fonction de structure définit un critère de bon comportement au niveau du système global ($\Phi(x_1,\ldots,x_n) = 1$ signifie que le système global est opérationnel lorsque les composants respectifs se trouvent dans les états $x_1$, ..., $x_n$). Des formalismes de description qui rentrent dans ce cadre sont les diagrammes de fiabilité et les arbres de défaillance. On se donne alors les fiabilités élémentaires du système, c'est-à-dire, les nombres $\Pr(X_i = 1)$ si $X_i$ est la variable aléatoire binaire <<état du composant $i$>>, et on mesure la sûreté de fonctionnement du système par le nombre $R = \Pr(\Phi(X) = 1)$, où $X$ est le vecteur aléatoire $(X_1,\ldots, X_n)$. Le calcul de $R$ est général un problème NP-difficile[Col87]. La combinatoire impliquée est telle que seuls les modèles ayant quelques dizaines d'éléments peuvent être analysés de façon exacte. Les techniques de type Monte Carlo (voir [*]) permettent d'évaluer des modèles de taille importante, le prix à payer étant la nature du résultat (une réponse probabiliste - une estimation - au lieu de la valeur numériquement exacte).

Nos activités de recherche

  Nous nous intéressons aux techniques d'évaluation des différentes mesures de sûreté de fonctionnement. L'une des sources majeures de problèmes d'analyse est la taille souvent importante de l'espace d'états du modèle utilisé, conséquence de la nécessité de tenir compte de la complexité des systèmes étudiés. Une partie de notre effort de recherche dans le domaine a pour objectif le développement de techniques de résolution efficaces pour ce type de modèle. Efficacité signifie essentiellement des techniques moins gourmandes en ressources informatiques ou ayant un meilleur comportement vis-à-vis de problèmes de nature numérique (par exemple, la raideur des équations associées). Parfois, il faut chercher à mettre en évidence des nouvelles propriétés des objets utilisés dans ces études. En d'autres termes, l'état des connaissances dont nous disposons sur certains types de modèles suggère, dans certains cas, la réalisation d'études de nature plus théorique. Enfin, il arrive que les développements mathématiques réalisés dans les cadres précédemment décrits, conduisent à proposer des nouvelles mesures pour l'analyse de certaines classes de systèmes.

 

Dans le premier volet de nos activités de recherche dans le domaine, c'est-à-dire, au niveau de la méthodologie d'évaluation des modèles, nous trouvons des travaux tels que [1], ou [6]. Dans l'étude des propriétés des objets considérés, des exemples sont [4] ou [5]. Des travaux tels que [12] ou [13] illustrent le développement de nouvelles mesures ainsi que les moyens pour les évaluer.

Évaluation de performances

 Mots-clés : charge, débit, modèle fluide, qualité de service, réseau de communication, système à événements discrets, taux d'utilisation, temps de réponse


Temps de réponse: délai séparant la sollicitation d'une ressource et la fin de la délivrance du service demandé.

Taux d'utilisation: fraction d'un intervalle de temps (éventuellement infini) pendant lequel une ressource est utilisée.

Charge: nombre moyen de sollicitations d'une ressource par unité de temps, divisé par la durée moyenne du service.

Qualité de service: concept englobant les mesures de performance classiques et des mesures plus récentes proposées dans le monde des réseaux de communication.

Résumé : Au niveau de l'évaluation des performances, le projet s'intéresse essentiellement aux réseaux de communication. Dans ce contexte, la situation est un peu différente de celle rencontrée dans les études de sûreté de fonctionnement. L'évolution technologique et l'importance croissante des systèmes de communication entraînent des difficultés de nature nouvelle. Il ne s'agit pas seulement d'améliorer les outils d'évaluation existants pour faire face, par exemple, aux problèmes posés par la taille des modèles, mais aussi de trouver des outils d'analyse plus puissants.

 

En prenant comme référence le cadre des réseaux ATM, nous travaillons essentiellement à deux niveaux d'échelles de temps. À l'échelle de la cellule, qui est l'unité d'information de ce type de support de transmission, des problèmes génériques sont l'évaluation des probabilités de perte dans un commutateur ou l'analyse de différentes politiques d'admission. À un niveau plus élevé, on considère que les entités circulant sont des groupes de cellules appelés rafales. Ceci conduit souvent l'analyste à traiter des modèles à états continus. Nous menons des recherches ayant pour objectif l'étude de ce type de modèles.


L'évaluation des performances des réseaux haut débit [RMV95] donne lieu à de nombreux problèmes nouveaux concernant des processus stochastiques en régime stationnaire et en régime transitoire. Les premières difficultés liées à ces problèmes d'évaluation concernent la modélisation du trafic et du processus des arrivées aux différents noeuds d'un réseau de communication. On distingue généralement trois échelles de temps différentes pour la modélisation du trafic, qui sont l'échelle des cellules (nous empruntons la terminologie à celle de la technologie ATM), l'échelle des rafales et l'échelle des appels.

Les échelles de trafic auxquelles nous nous intéressons plus particulièrement, pour le moment, sont l'échelle des cellules et l'échelle des rafales.

L'échelle des cellules

  À cette échelle, le trafic consiste en des entités discrètes, les cellules, produites par chaque source. Les processus d'arrivée généralement utilisés dans ce contexte pour modéliser le trafic sont des processus d'arrivée par groupes markoviens, aussi notés BMAP (Batch Markovian Arrival Process).

 

Un BMAP est un processus de Markov bidimensionnel $\{A(t),J(t)\}$ où la variable $A(t)$ compte le nombre d'arrivées sur l'intervalle $(0,t)$ et où la variable $J(t)$ représente la phase du processus. Le nombre de phases du processus est en général fini. Le générateur infinitésimal du processus est donné par la matrice

\begin{displaymath}\left[ \begin{array}{ccccccc} D_0 & D_1 & D_2 & D_3 & . & ... ... & & D_0 & . & . & . \\ & & & & . & . & . \end{array} \right]\end{displaymath}




où les $D_k$, $k \geq 0$, sont des matrices carrées de dimension égale au nombre de phases du processus. Pour $k \geq 1$, les matrices $D_k$ contiennent les taux de transition concernant les arrivées de taille $k$, avec le changement de phase approprié. La matrice $D_0$contient, en dehors de sa diagonale, les taux de transition correspondant à un changement de phase sans arrivée de cellules. La matrice $D =\sum_{k=0}^{\infty} D_k$ est le générateur infinitésimal du processus de Markov $\{J(t)\}$. Le taux moyen d'arrivée en équilibre $\lambda$ du processus $\{A(t),J(t)\}$ est

\begin{displaymath}\lambda = \pi \sum_{k=1}^{\infty} k D_k {\mathchoice {\rm 1\... ...{\rm 1\mskip-4mu l}{\rm 1\mskip-4.5mu l} {\rm 1\mskip-5mu l}},\end{displaymath}



$\pi$ est le vecteur ligne des probabilités stationnaires du processus $\{J(t)\}$ et ${\mathchoice {\rm 1\mskip-4mu l} {\rm 1\mskip-4mu l}{\rm 1\mskip-4.5mu l} {\rm 1\mskip-5mu l}}$ est le vecteur colonne dont toutes les composantes valent $1$.

 

Les BMAP forment une classe très large. De nombreux processus d'arrivée familiers peuvent être vus comme des BMAP particuliers. Notamment, en prenant $D_0 = -\lambda$, $D_1 = \lambda$ et $D_k = 0$pour $k \geq 2$, on obtient un processus de Poisson de taux $\lambda$.Un processus de renouvellement de type phase, de représentation $(\alpha,T)$ est un BMAP avec $D_0 = T$, $D_1 = -T {\mathchoice {\rm 1\mskip-4mu l} {\rm 1\mskip-4mu l}{\rm 1\mskip-4.5mu l} {\rm 1\mskip-5mu l}}\alpha$ et $D_k = 0$ pour $k \geq 2$. Si $D_1$ est diagonale, et $D_k = 0$ pour $k\geq 2$, on obtient un processus de Poisson dont le taux est modulé par un processus de Markov de générateur infinitésimal $D = D_0 +D_1$. Ce dernier cas particulier de BMAP est aussi appelé un MMPP (Markov Modulated Poisson Process). De plus, tout processus ponctuel peut être approché par un BMAP. Enfin, il est à noter que la superposition de $n$ processus BMAP indépendants est encore un processus BMAP. Cette propriété est particulièrement intéressante pour la modélisation du multiplexage statistique de sources dans les réseaux haut débit.

 

À l'aide de ces processus BMAP, on peut par exemple modéliser le comportement d'un noeud d'un réseau de communication par une file d'attente BMAP/G/1 à capacité finie ou infinie dans le but d'évaluer des mesures de qualité de service comme la loi du nombre de clients en attente, la loi du temps d'attente ou la probabilité de perte de cellules dans le cas d'une capacité finie. Un tutoriel portant sur l'étude de cette file d'attente se trouve dans [Luc93]. Dans le cas d'une modélisation avec une échelle de temps discrète, on obtient de manière similaire au cas du temps continu, des processus d'arrivée, notés D-BMAP qui conduisent à l'étude de files d'attente discrètes du type D-BMAP/D/1. La fine granularité de l'échelle de temps des cellules pose le problème du grand nombre de paramètres à évaluer pour définir le processus des arrivées, et l'une des principales difficultés rencontrée lors de l'étude des files d'attente associées concernent le temps de calcul des mesures recherchées. En effet, les processus BMAP ou D-BMAP sont définis par un certain nombre de matrices dont la taille pose bien évidemment les problèmes classiques au niveau de la complexité des calculs.

L'échelle des rafales

  A l'échelle de temps des rafales, le trafic est considéré comme continu, c'est pourquoi on parle de modèles fluides, et ce trafic est en général caractérisé par son taux instantané. Les plus connus de ces modèles sont les processus dits on/off et leurs superpositions. On dit que le trafic provenant d'une source est on/off s'il alterne entre des périodes d'activité (les périodes on) et des périodes de silence (les périodes off). Les taux de transmission sont supposés constants durant chaque période on. L'hypothèse de base est que ces processus sont des processus de renouvellements alternés. L'état de la source est alors décrit par un processus semi-markovien. Lorsque ces périodes suivent des lois de type phase, le processus devient markovien et le taux d'entrée devient modulé par un processus de Markov. Les deux grandes classes de modèles que l'on différencie sont les modèles avec buffer où l'information peut être momentanément stockée pour être émise lorsque le canal sera libre, et les modèles sans buffer où l'information arrivant est perdue si le canal est occupé.

Modèles avec buffer.

On considère dans la première classe de modèles un buffer de taille finie ou infinie dont les taux d'entrée et de sortie sont fonctions de l'état d'un processus de Markov $\{ X_{s}, s \geq 0 \}$sur un espace d'état $S$, avec générateur infinitésimal $A$. Si $Q_t$ désigne la quantité de fluide dans le buffer à l'instant $t$ et si $\varrho_i$ (resp. $c_i$) désigne le taux d'entrée (resp. de sortie) dans le (resp. du) buffer lorsque le processus $\{X_s\}$ est dans l'état $i$, alors le couple $(X_t,Q_t)$ forme un processus de Markov sur l'espace $\ensuremath{\mathrm{I\!N}}\times \ensuremath{\mathrm{I\!R}}$. La loi du couple $(X_t,Q_t)$est donnée par l'équation aux dérivées partielles  

\begin{equation} \frac{\partial F_i(t,x)}{\partial t} = - \eta_i \frac{\partial F_i(t,x)}{\partial x} + \sum_{r \in S} F_r(t,x) A(r,i), \end{equation}



$\eta_i = \varrho_i - c_i$ et où l'on a posé $F_i(t,x) =\Pr\{X_t = i, Q_t \leq x\}$. La mesure qui nous intéresse dans ce contexte est la loi du processus d'occupation $Q_t$ du buffer. Une forme intéressante de la solution de cette équation dans le cas d'un buffer de taille infinie est donnée dans [32].

 

De nombreux travaux dans la littérature ont porté sur l'étude du régime stationnaire. Si $X$ représente l'état stationnaire du processus $\{X_s\}$ et si $Q$ représente la quantité de fluide dans le buffer en régime stationnaire, alors sous les hypothèses classiques de stabilité, on a l'équation différentielle suivante:

\begin{displaymath}\eta_j \frac{d F_j(x)}{dx} = \sum_{i \in S} F_i(x) A(i,j),\end{displaymath}



$F_j(x) = \Pr\{X = j, Q \leq x\}$.Ces travaux concernent non seulement le calcul de la loi de $Q$[AMS82], mais aussi l'obtention de bornes [LNT97] de cette loi ou d'équivalents de la queue de sa distribution dans le but de contrôler l'admission de nouvelles sources par le respect de critères de qualité de service [EM93].

Modèles sans buffer.

Pour la deuxième classe de modèles, où l'information arrivant est perdue si le canal de transmission est occupé, on s'intéresse à des mesures de la qualité de service basées sur la congestion du système. Dans [19], on analyse l'évolution du processus $\{\Lambda_t\}$ décrivant le débit sur un lien de transmission ATM supportant des rafales de données dans un schéma de multiplexage statistique en boucle ouverte. Ce processus est modélisé par l'intermédiaire d'une file M/M/$\infty$ dans [19] et d'une file M/PH/$\infty$ dans [11]. Ces files permettent d'analyser la superposition d'un grand nombre de connexions de données sur un lien ATM. Dans ces modèles, l'information est transmise en rafales de données arrivant au lien comme un processus de Poisson et les durées des rafales sont distribuées selon une loi exponentielle de moyenne $1$ ou plus généralement selon une loi PH de moyenne $1$. Les performances de ce multiplexage statistique sont caractérisées par des mesures de qualité de service transitoires en relation avec les excursions du processus d'occupation $\{\Lambda_t\}$ de la file considérée au-dessus de la capacité $C$ du lien de transmission. Étant donné qu'une telle excursion représente une période de congestion pour le système, les caractéristiques transitoires considérées sont la durée $\theta$ d'une période de congestion, l'aire $V$ balayée par le processus $\{\Lambda_t\}$ au-dessus de $C$ durant une période de congestion ($V$ représente le volume d'information perdue durant une période de congestion) et le nombre $N$ de rafales arrivant pendant une période de congestion.

Techniques de Monte Carlo

 Mots-clés : explosion combinatoire, méthode de Monte Carlo, méthode de quasi-Monte Carlo, réduction de la variance


Méthode de Monte Carlo: famille de techniques destinées à résoudre des problèmes déterministes (typiquement le calcul d'une somme ou la recherche d'optimum) en utilisant le hasard (voir [Fis96]).

Méthode de quasi-Monte Carlo: famille de techniques de nature déterministe mais se présentant formellement d'une manière similaire aux techniques de Monte Carlo. La différence principale avec ces dernières est que le rôle des séquences de nombres aléatoires (ou plutôt pseudo-aléatoires) est joué par des séquences à discrépance faible (voir [Nie92]).

Discrépance: mesure de la <<bonne répartition>> d'une suite de vecteurs dans un domaine.

Suite à discrépance faible: suite dont la discrépance des $N$ premiers termes tend vers 0 en $O(N^{-1}(\log(N))^s)$, $s$ étant est la dimension de l'espace.

Résumé : La simulation de type Monte Carlo est l'une des techniques principales d'évaluation de modèles. Elle est de loin la méthode la plus flexible et celle qui a le spectre d'application le plus large. En contrepartie, elle fournit des estimations des mesures d'intérêt. Elle est incontournable dans le cas de grands espaces d'états ou dans le cas de modèles très complexes. Il s'agit d'une approche gourmande en ressources de calcul, ce qui ouvre le champ à des nombreux problèmes de recherche.

 

Notre groupe développe des méthodes de type Monte Carlo dans divers contextes. Il s'agit essentiellement de trouver des algorithmes plus efficaces, qui permettent d'analyser des modèles de plus en plus riches. Nous nous intéressons également à l'approche dite de quasi-Monte Carlo, formellement similaire mais de nature déterministe, très populaire en physique et dont l'objectif est le même que dans le cas de Monte Carlo. Cette approche bien que déjà assez ancienne, se trouve dans un état de développement beaucoup moins avancé que la première, donnant lieu à des nombreux problèmes de recherche.


Un modèle markovien à grand espace d'états (voire avec un espace d'états infini) peut conduire à l'emploi de techniques de type Monte Carlo pour son évaluation. Dans ce cas, une source importante de problèmes est la <<rareté>> des phénomènes que l'on souhaite étudier, comme par exemple, les défaillances d'un système critique et ses conséquences. Ceci peut conduire à travailler avec des techniques de type Monte Carlo plus sophistiquées que la méthode de base, par exemple, des techniques dites <<de réduction de la variance>>. Il s'agit de proposer des estimateurs des mesures d'intérêt possédant une variance inférieure à celle de l'estimateur standard, de manière à obtenir une meilleure précision. Signalons que ces approches sont également valables dans le cas de modèles statiques (voir [*]); elles sont aujourd'hui les seules capables d'évaluer les topologies de réseaux maillés dépassant, disons, la centaine de composants. À ce sujet, nous attirons l'attention sur le point suivant. Considérons l'estimateur de Monte Carlo standard pour la fiabilité $R$ d'un système multi-composants:

\begin{displaymath}\widehat{R} = \frac{1}{N} \sum_{n=1}^N \Phi(X^{(n)}),\end{displaymath}



$X^{(1)}, \ldots, X^{(N)}$ sont $N$ copies indépendantes de $X$.Il est bien connu que cet estimateur est mauvais dans le cas d'un système hautement fiable (la défaillance est rare, i.e., $R$ est très proche de 1). Dans [EKR96] nous avons montré que ceci est inexact. Ce n'est pas l'estimateur standard qui est inefficace, c'est sa mise en oeuvre <<naïve>>. Dans le travail cité, nous donnons une mise en oeuvre très efficace de cet estimateur.

 

Il existe d'autre part une technique originale qui se rapproche formellement de celle de Monte Carlo, appelée <<méthode de quasi-Monte Carlo>>. Cette approche est complètement déterministe et repose sur le concept de suite à discrépance faible. Pour l'illustrer, supposons qu'on veuille calculer
 

\begin{equation} I = \int_{[0,1]^s} f(x)dx, \end{equation}




lorsque la dimension $s$ est de l'ordre de quelques dizaines, de telle sorte que Monte Carlo se comporte beaucoup mieux que les techniques d'analyse numérique standard. Monte Carlo consiste à approcher $I$ par  
\begin{equation} \widehat{I} = \frac{1}{N} \sum_{n=1}^N f(X^{(n)}) \end{equation}



$(X^{(n)})_{n \geq 1}$ est une suite de variables (pseudo-)aléatoires indépendantes et de même loi uniforme sur $[0,1]^s$. L'approximation est de nature statistique, et l'erreur est proportionnelle à l'écart-type de la variable aléatoire $\widehat{I}$ qui est en $O(N^{-1/2})$. Comme on l'a dit plus haut, l'une des idées possibles pour améliorer cette situation est de trouver d'autres estimateurs ayant une variance plus faible. Dans l'approche de type quasi-Monte Carlo, on remplace la suite i.i.d. par une suite $(\xi^{(n)})_{n \geq 1}$ à discrépance faible (ce qui signifie que la suite est <<bien distribuée>>, dans un certain sens, sur l'intervalle $[0,1]^s$). Ceci donne l'approchant  

\begin{equation} I_N = \frac{1}{N} \sum_{n=1}^N f(\xi^{(n)}). \end{equation}



Le contexte étant maintenant déterministe, on n'a plus d'approximation statistique. L'intérêt est que les bornes connues de l'erreur sont en $O(N^{-1}(\log N)^{s})$. Elles s'écrivent sous la forme

\begin{displaymath}\left\vert \frac{1}{N} \sum_{n=1}^N f(\xi^{(n)}) - \int_{[0,1]^s} f(x)dx \right\vert \leq V(f)D(\xi)\end{displaymath}



$V(f)$ est la variation de $f$ sur $[0,1]^s$ au sens de Hardy et Krause, et $D(\xi)$ est la discrépance de la suite $\xi = (\xi^{(n)})_{0 \leq n\leq N}$. L'inconvénient majeur est que ces bornes sont complètement inapplicables dans la pratique, le calcul des deux composants étant plus coûteux, en général, que celui de l'intégrale elle-même. Ceci rend difficile l'utilisation pratique de cette approche et, en même temps, pose des problèmes de recherche très intéressants.



previous up next contents Précédent : Présentation générale et objectifs Remonter : Rapport activite 1997 Suivant : Grands domaines d'application