Projet Model

previous up next contents
Précédent : Logiciels Remonter : Rapport activite 1997 Suivant : Actions industrielles



Résultats nouveaux

  Les résultats obtenus cette année sont classés en trois groupes. D'abord, nous présentons des travaux réalisés sur les aspects sûreté de fonctionnement de systèmes. Ensuite, nous exposons des résultats sur l'analyse de modèles markoviens. Enfin, nous donnons des résultats centrés autour de la notion de qualité de service, dans le cadre des réseaux haut débit.

Sûreté de fonctionnement

 

Participants : Atika Bousseta , Stéphane Bulteau , Mohamed El Khadiri , Raymond Marie , Miklós Molnár , Gerardo Rubino


Résumé : Nos résultats concernent deux domaines. D'une part, il s'agit de techniques d'évaluation quantitative de la topologie des connexions reliant les différents noeuds d'un réseau de communication maillé. Cette évaluation se fait sous divers angles et dans des contextes déterministes ou probabilistes. D'autre part, nous travaillons sur une notion élargie de la sûreté de fonctionnement, le soutien intégré.


Architecture de réseaux maillés

  Un réseau de communication peut être vu comme un système multi-composants fait de <<lignes>> et de <<noeuds>>. Du point de vue de la sûreté de fonctionnement, on peut représenter un tel système par une fonction de structure $\Phi$ (voir [*]). Concernant la topologie de l'architecture d'un réseau maillé, c'est-à-dire, d'un réseau à grande étendue, il est usuel de représenter le système par un graphe dont les éléments sont pondérés par des probabilités (un graphe stochastique). Le critère global de bon fonctionnement (la définition de $\Phi$) est en général basé sur des propriétés de connexion dans le réseau: par exemple, il faut que deux noeuds particuliers puissent communiquer, ou que tous les noeuds puissent le faire entre eux, etc. Il s'agit alors de quantifier le comportement du réseau vis-à-vis de ce critère global de bon fonctionnement. Nous avons travaillé dans ce contexte, dans trois directions différentes: fiabilité, performabilité, vulnérabilité [7].

Fiabilité.

L'une des idées de base dans la simulation de type Monte Carlo est que dans le cas d'événements rares, la simulation standard n'est d'aucune utilité. Ceci est une conséquence immédiate de propriétés probabilistes élémentaires. Nous avons montré dans [EKR96] que ceci n'est pas exact et que l'on peut utiliser l'estimateur Monte Carlo standard dans le cas d'événements de probabilité très faible, de façon très efficace. Tout réside dans la mise en oeuvre des algorithmes et non pas dans les estimateurs eux-mêmes. Il s'agit de trouver un moyen efficace d'obtenir un échantillon de l'estimateur standard avec un coût beaucoup plus faible que dans la mise en oeuvre <<naïve>>, ce qui est possible en utilisant, bien entendu, des propriétés spécifiques des systèmes étudiés. Nous avons réalisé ceci pour les modèles statiques de réseaux représentés par des graphes stochastiques. Dans [21], nous avons étendu ces idées au calcul des sensibilités des mesures de fiabilité, par rapport aux fiabilités des composants. En effet, l'ensemble des sensibilités est une mesure beaucoup plus robuste que la fiabilité elle-même [24] et il est important de pouvoir calculer ce vecteur d'une manière efficace.

Performabilité.

Considérons maintenant un réseau de transport. En plus de la topologie, nous tenons compte aussi de la capacité des liens et de la quantité du flux qui est envoyé. Ce type de modèle est pertinent en particulier dans le contexte des réseaux de communication (où le flux transporté est l'information). Dans ce contexte, les mesures classiques de fiabilité sont trop pauvres, car elles ne tiennent pas compte des capacités des lignes ni de la quantité de flux qu'il faut transporter. Des mesures de type performabilité (voir [*]) sont, bien sûr, capables de cerner l'ensemble des aspects du problème. Encore faut-il être capable de les évaluer, sachant que l'on est dans un cadre plus général que celui considéré dans le module précédent (en effet, le problème du calcul de la fiabilité est un cas particulier de celui-ci).

Nous nous sommes intéressés aux techniques de Monte Carlo, et nous avons pu développer deux nouveaux plans d'échantillonnage, préférentiel et stratifié, basés sur une méthode de décomposition de l'espace d'états du modèle [16]. Ces techniques sont du type <<réduction de la variance>>. Nous obtenons des gains très importants, en particulier dans le cas de réseaux hautement fiables, ou bien dans le cas où la demande est proche du flot maximal qui peut transiter dans le réseau. Dans ce cadre, on peut aisément obtenir un rapport de variance supérieur à 100. Il faut cependant signaler que le gain en variance se fait au détriment du temps. Toutefois, le bilan est positif et nous avons de meilleurs résultats que ceux obtenus avec les estimateurs précédemment proposés.

Vulnérabilité.

Comme mentionné ci-dessus, l'évaluation de la topologie d'un réseau de communication vis-à-vis des défaillances de ses éléments ou d'agressions extérieures peut se faire naturellement dans un cadre probabiliste. Cependant, bien souvent les analystes ne disposent pas de données suffisantes (ou suffisamment fiables) pour utiliser ces modèles probabilistes. Une approche déterministe qui vise à quantifier des qualités au départ purement topologiques du réseau peut alors être suivie. On parle, dans ce cas, de vulnérabilité. Ce sujet avait été traité de façon essentiellement empirique jusqu'à présent. Nous avons réussi à le formaliser, en obtenant un indice qui vérifie un ensemble cohérent de propriétés, en particulier avec des conséquences importantes pour l'efficacité des méthodes de calcul associées. Les résultats principaux de ce travail sont publiés dans [17]; voir aussi [28] pour plus de détails et des résultats complémentaires. Au niveau des techniques de calcul elles-mêmes, nous avons obtenu un algorithme de type <<factorisation>> qui, pour le calcul de l'indice, est capable de compter le nombre de coupes minimales d'un graphe. Cet algorithme est, dans certains cas, plusieurs dizaines de fois plus rapide que le meilleur algorithme connu [29]. Enfin, signalons que, outre le fait de s'appuyer seulement sur des données topologiques, notre approche a l'avantage de pouvoir intégrer facilement d'autres données telles le coût des lignes ou des mesures de trafic. En fait, nous avons obtenu un développement semblable à celui de la performabilité, dans un contexte déterministe.

Soutien intégré

  La mise en place d'infrastructures de soutien intégré pour des systèmes complexes (eg, un système de contrôle aérien au niveau d'un pays) conduit à déterminer la valeur d'un grand nombre de variables. Il faut définir différents sites de maintenance et différents niveaux de compétence; les sites de niveau le plus faible sont les plus proches des bases d'exploitation: ce sont les feuilles de l'arbre de maintenance (en général unique). Plus on se rapproche de la racine et plus la compétence du site est élevée. En général, cette structure de maintenance existe au moins partiellement avant la mise en place d'un nouveau système. On peut aussi concevoir la structure de ce nouveau système à soutenir comme un arbre dont la racine est le système complet. Cet arbre n'est pas donné a priori, il fait partie de l'ensemble des variables de décision. Les feuilles correspondent à des articles (des sous-ensembles) mis au rebut alors que les noeuds intermédiaires correspondent à des articles qui seront réparés par échange d'un sous-ensemble correspondant à un noeud fils. À chaque article associé à un noeud intermédiaire, correspond un site d'échange et un site de réparation (qui peut être le même). Ces choix font aussi partie de la politique de maintenance. Pour mettre en oeuvre une politique, il faut associer les ressources en hommes, en équipements, etc. Toutes ces ressources ont un côut qu'il faut intégrer dans le côut global de possession du système. Notre but final est de déterminer la politique qui minimise le côut global de possession sous une contrainte de disponibilité du système. Vu la complexité du sujet, cela passe par la réalisation d'un modèle de coût global de possession et de son logiciel associé [15]. Un autre résultat partiel de ce projet consiste à élaborer des modèles de stocks en univers incertain où, les lois des variables aléatoires étant inconnues a priori, on a recours à des techniques de gradient stochastique pour déterminer la valeurs des variables de décision conduisant à une minimisation du côut de stockage [20].

Analyse de modèles markoviens



Participants : Haïscam Abdallah , Louis-Marie Le Ny , Stéphanie Mahévas , Gerardo Rubino , Bruno Tuffin


Résumé : Dans ce cadre, nous nous sommes concentrés sur les problèmes posés par les espaces d'états de grande taille (voire de taille infinie). En effet, nous pensons que ceci constitue l'un des goulots d'étranglement dans la technologie d'évaluation quantitative de systèmes.


Évaluation de mesures de sûreté de fonctionnement

Nous avons travaillé dans le cadre de l'évaluation de mesures de sûreté de fonctionnement de systèmes multi-composants réparables [9]. En considérant le cas des mesures stationnaires ou encore de la MTTF (voir [*]), et pour les modèles markoviens, nous avons étudié les méthodes de Monte Carlo existantes, appartenant toutes au cadre de l'échantillonnage préférentiel. Nous avons proposé des améliorations de certaines de ces méthodes, et nous avons comparé les performances obtenues. Enfin, signalons que dans [9] on introduit un nouveau concept dit d'approximation normale bornée, qui valide l'utilisation, parfois abusive, de la loi normale pour la construction des intervalles de confiance dans le cas des systèmes hautement fiables. On y donne aussi une condition nécessaire et suffisante pour obtenir cette propriété. Il s'agit d'étudier le comportement des estimateurs lorsque le système est paramètré par un réel $\varepsilon$ tel que, lorsque $\varepsilon \longrightarrow 0$, les composants (et donc, le système tout entier) deviennent de plus en plus fiables. L'approximation normale bornée exprime le fait qu'une certaine fonction de l'estimateur reste bornée lorsque $\varepsilon\longrightarrow 0$. Dans [9] on montre que ceci est nécessaire pour obtenir une bonne approximation via le Théorème de la Limite Centrale. En ce qui concerne l'évaluation numérique de mesures de sûreté de fonctionnement, nous avons développé une méthode basée sur la technique d'uniformisation, pour calculer la sensibilité des mesures vis-à-vis des données de type taux de défaillance ou de réparation au niveau des composants [10].

Quasi-Monte Carlo

Nous avons réalisé un certain nombre de travaux dans le cadre des techniques dites de «quasi-Monte Carlo» (voir [*]), que l'on peut trouver dans [9]. Dans quasi-Monte Carlo, l'erreur commise lorsqu'on approche ([*]) par ([*]) est bornée par des quantités dépendant de la discrépance de la suite, et de la variation, en un certain sens, de la fonction qu'on veut sommer. Nous avons travaillé d'abord sur ces deux concepts. Nous avons réalisé une comparaison de diverses notions de variation utilisables et, de façon analogue à la situation dans le cadre de Monte Carlo, nous avons proposé des algorithmes de réduction de la variation, donc, de la borne de l'erreur. Au niveau de la discrépance, nous avons trouvé des améliorations de l'une des familles de suites les plus couramment employées, celles de Halton, en proposant un nouveau choix des permutations associées. Ce nouveau choix améliore la répartition des points dans l'intervalle d'intégration [26],[34].

Une autre façon d'appliquer les suites à discrépance faible au calcul de sommes est de les utiliser comme techniques de réduction de la variance dans le cadre de Monte Carlo. L'idée est d'approcher ([*]) par

\begin{displaymath}\widetilde{I} = \frac{1}{MN} \sum_{m=1}^M \sum_{n=1}^N f(\{X^{(m)} + \xi^{(n)}\})\end{displaymath}



$(X^{(n)})_{n \geq 1}$ est à nouveau une suite de variables (pseudo-)aléatoires i.i.d. uniformes sur $[0,1]^s$ et $(\xi^{(n)})_{n\geq 1}$ est une suite à discrépance faible. Nous avons montré [9] que, moyennant des conditions techniques appropriées, la vitesse globale de convergence est en $O(M^{-1/2}N^{-1}(\log N)^s)$. Nous avons aussi étudié le comportement de diverses suites à discrépance faible pour cette utilisation. Les plus adéquates semblent être les suites de Sobol. Enfin, nous avons travaillé sur les problèmes posés par la parallélisation des algorithmes de génération de ces suites [33], avec application à l'analyse des réseaux <<à forme produit>> (voir sous-section suivante).

Modèles <<à forme produit>>

Considérons l'évaluation de mesures de performance calculées à partir de la distribution stationnaire d'un processus stochastique dit à forme produit. Rappelons que les réseaux de files d'attente à forme produit (i.e., dont la mesure invariante du processus associé s'écrit comme produit de facteurs essentiellement dépendant de chaque station du réseau) jouent un rôle central dans l'ensemble des réseaux de files d'attente. Malgré la forme connue de la distribution stationnaire, la taille des modèles implique que bien souvent le traitement analytique est trop coûteux, voire impossible. Dans [14] nous présentons, d'abord, une nouvelle technique de type Monte Carlo avec réduction de la variance, applicable à une certaine sous-classe de modèles et basée sur le concept de variables antithétiques. Ensuite, nous montrons que l'approche décrite dans le paragraphe précédent accélère des méthodes de Monte Carlo existantes. De ces travaux résultent deux nouveaux procédés de calcul plus efficaces que ceux disponibles dans la littérature. Enfin, dans [33], le problème de la parallélisation des algorithmes de génération de suites à discrépance faible est étudié, avec application au contexte des réseaux de files d'attente à forme produit.

Calcul de bornes de la performabilité asymptotique

  Cet axe de recherche concerne l'un des goulots d'étranglement de la modélisation quantitative, celui de l'explosion combinatoire des espaces d'états des modèles markoviens. Une approche développée récemment pour palier en même temps le problème de l'explosion combinatoire et celui de la raideur des modèles (et qui, en fait, exploite à son profit cette raideur) consiste à calculer des bornes des mesures d'intérêt. L'idée sous-jacente est que, même si l'espace d'états est grand, la valeur de la mesure que nous considérons dépend «essentiellement» de ce qui se passe sur un petit nombre d'états. Tout le problème est d'être capable de borner l'erreur introduite lorsqu'on réalise des calculs avec une information partielle, ainsi que, bien entendu, de concevoir ces procédures de calcul. Un problème supplémentaire est celui de l'identification efficace du sous-espace utile pour l'obtention de bonnes bornes sur les mesures d'intérêt. Des travaux récents ont permis d'obtenir des bornes de qualité pour des mesures asymptotiques, dans le cas de la sûreté de fonctionnement. Ces travaux exigent que les modèles vérifient certaines hypothèses qui sont parfois assez restrictives. Par ailleurs, le phénomène de raideur associé en général avec les modèles construits dans le but de travailler avec des mesures de sûreté de fonctionnement, a son analogue dans le monde de l'évaluation de performances, dans le cas des systèmes faiblement chargés. Malheureusement, les conditions d'applicabilité des techniques existantes sont rarement satisfaites dans ce contexte. Notre effort s'est concentré dans cette direction et nous avons développé une nouvelle approche ayant moins de restrictions dans son applicabilité [MR96]. Par exemple, nous avons obtenu des bornes fines de mesures asymptotiques calculées à partir de réseaux de files d'attente ouverts (i.e., des modèles avec une infinité d'états), pour lesquels il n'y a pas de solution analytique connue. Nous avons poursuivi cet effort pour fondamentalement élargir encore le champ d'application de notre méthode. Dans la mesure où elle dépend encore de la résolution de systèmes linéaires qui peuvent toujours être de grande taille, nous avons développé un raffinement permettant, dans certains cas, de traiter aussi de tels cas [31]. Voir aussi [8] pour plus de détails.

Analyse <<en ligne>> de systèmes réparables

  Une autre direction de recherche que nous avons initiée récemment est la suivante. Considérons un système réparti devant respecter des contraintes de qualité de service au niveau de la sûreté de fonctionnement. Lors de sa conception, on utilise un modèle $\cal M$pour ajuster l'architecture et valider que, par exemple, la disponibilité à l'instant $T$ ait une valeur suffisamment proche de 1. Une fois mis en opération (à l'instant 0), le modèle $\cal M$ n'est plus utilisé (ses prédictions sur le futur ont déjà été faites), ou alors, il est employé pour étudier des variantes du système, ou éventuellement pour comprendre certains phénomènes observés. Supposons maintenant qu'à l'instant $t < T$ on s'interroge sur les propriétés sélectionnées de sûreté de fonctionnement concernant un instant futur, comme la disponibilité à $T$. On peut bien entendu utiliser les prédictions faites avant l'instant 0 à l'aide de $\cal M$.Or, d'une manière générale, il est toujours possible de réaliser des observations sur le système en opération pendant l'intervalle $[0,t]$,de nature très variée, parfois riches, parfois très limitées. Nous proposons d'utiliser ces observations sur l'histoire observée jusqu'à $t$ dans le même modèle $\cal M$ utilisé pendant la phase de conception, pour améliorer les prédictions sur le futur. Sous certaines hypothèses, des informations même macroscopiques peuvent être intégrées dans le modèle initial et changer la valeur des mesures concernant le futur du système. Nous étudions différentes classes d'observations pouvant être intégrées efficacement à $\cal M$ pour un re-calcul des évaluations prévisionnelles. Du point de vue algorithmique, il s'agit de techniques basées sur des méthodes utilisées dans la reconnaissance de la parole. Un premier résultat de ces travaux est [23].

Réseaux haut débit et qualité de service

 

Participants : Philippe Cadro , Raymond Marie , Miklós Molnár , Nathalie Omnès , David Ros , Bruno Sericola


Résumé : D'une part, nous développons des méthodes d'analyse de modèles généraux, indépendants d'une technologie particulière, bien que concernant les systèmes de communication haut débit. D'autre part, nous menons des études d'architectures spécifiques comme ATM. Dans le premier volet, nous nous intéressons essentiellement à l'étude de files d'attente fluides. Dans le second, nous travaillons sur divers aspects des réseaux ATM (routage, algorithmes de diffusion, aspects temps réel), ainsi que sur des problèmes d'évaluation d'architectures <<tout optique>>.


Étude analytique de modèles fluides

En ce qui concerne les modèles fluides avec buffer, nous avons obtenu une expression de la distribution transitoire de la quantité d'information en attente de traitement dans le buffer. Cette expression est simple et particulièrement intéressante d'un point de vue algorithmique. L'étude des modèles fluides sans buffer a abouti à des résultats asymptotiques d'insensibilité à la distribution de la durée des rafales.

Modèles avec buffer.

Dans le cadre des travaux menés sur les modèles fluides en régime transitoire avec buffer de taille infinie, nous avons obtenu la distribution de la quantité d'information en attente de traitement lorsque le taux d'entrée dans le buffer est modulé par un processus à espace d'état fini. Le calcul de cette distribution s'est fait à partir de l'équation ([*]). Le résultat obtenu dans [32] est l'expression de la solution sous la forme d'une série dont le terme général se calcule par des récurrences ne faisant intervenir que des additions et multiplications de nombre compris entre et $1$. Cette propriété permet notamment de déterminer à l'avance le nombre de termes de la série à calculer pour que l'erreur commise soit inférieure à un seuil fixé. Ces propriétés permettent entre autres d'éviter les problèmes numériques généralement liés à la résolution de ce type d'équation.

Modèles sans buffer.

Les travaux menés sur les modèles fluides sans buffer nous ont conduit à analyser l'évolution du processus $\{\Lambda_t\}$décrivant le débit sur un lien de transmission ATM supportant des rafales de données dans un schéma de multiplexage statistique en boucle ouverte. Ce processus a été modélisé dans [19] par une file M/M/$\infty$ et des algorithmes de calcul des distributions des variables aléatoires $\theta$, $V$ et $N$décrites dans [*] ont été développés.

Les résultats obtenus dans [19] sont généralisés dans [11] où l'on considère que l'information est transmise en rafales de données arrivant au lien comme un processus de Poisson de taux $\lambda$ et que les durées des rafales sont distribuées selon une loi $PH$ de moyenne $1$. On montre alors que, comme conjecturé dans de précédentes études, les variables aléatoires $C\theta$, $CV$ et $N$ convergent en distribution, quand la capacité $C$ du lien de transmission tend vers l'infini et que le facteur d'utilisation du lien défini par $\gamma = \lambda/C$ est fixé, vers la durée $\Theta$ de la période d'occupation d'une file $M/M/1$ avec taux d'arrivée $\gamma$ et taux de service $1$, l'aire ${\cal V}$ balayée par le processus d'occupation de cette file $M/M/1$durant une période d'occupation et le nombre ${\cal N}$ de clients arrivant durant une période d'occupation respectivement.

Évaluation d'architectures spécifiques

  Dans les réseaux ATM, le dimensionnement se fait en deux temps: le dimensionnement physique des liens est suivi par l'établissement d'un système de VP (Virtual Path, chemin virtuel). Ce dernier influence beaucoup le routage des communications, ainsi que leurs coûts. L'établissement d'un routage optimale au niveau des VP est un problème NP-difficile. Les propositions utilisées à l'heure actuelle basent leurs calculs sur les capacités demandées par les différentes communications. Nous pensons que plusieurs propriétés des chemins peuvent être utilisées pour améliorer la qualité de ces solutions. L'une des approches que nous suivons traite la recherche d'un système de routage pour les VP comme un problème d'optimisation multicritère. Dans le même esprit, nous avons utilisé une approche multicritère pour résoudre un problème de choix des routages pour la diffusion à un groupe (multicast) sur un réseau ATM [30]. Dans le cadre du contrôle de congestion des réseaux ATM, plusieurs algorithmes ont été proposés dans la littérature pour calculer explicitement le taux de transmission du trafic ABR mais à l'heure actuelle aucun ne donne entière satisfaction. Nous travaillons sur un algorithme de contrôle de taux explicite pour ce type de trafic. Il doit être capable de satisfaire des contraintes telles que l'équité entre connexions ou l'interaction entre les différentes classes de service (ABR, VBR, etc.). Dans ce contexte, nous cherchons à élaborer un algorithme qui avantage les usagers qui donnent une valeur strictement positive à leur paramètre MCR (sur cette base, on peut envisager une politique de tarification plus favorable au gestionnaire du réseau).

 

Au niveau du trafic CBR temps réel, une étude visant à dimensionner un tampon espaceur et retardateur situé en sortie de réseau est en phase finale. Elle permet (sous des hypothèses d'indépendance des retards rencontrés lors de la traversée du réseau par les cellules) de borner la probabilité qu'une cellule arrive après sa date au plus tard.

 

Une autre étude menée en collaboration avec une équipe du CNET concerne l'évaluation des performances d'un commutateur de paquets optiques utilisant le multiplexage en longueurs d'onde et un nombre limité de lignes à retard pour résoudre les conflits entre paquets. Les modèles markoviens élaborés montrent que l'architecture proposée permet d'obtenir des performances comparables à celles offertes par des files FIFO tout en réduisant de façon significative le nombre de lignes à retard [18].



previous up next contents Précédent : Logiciels Remonter : Rapport activite 1997 Suivant : Actions industrielles