Team Rap

Members
Overall Objectives
Scientific Foundations
Application Domains
Software
New Results
Contracts and Grants with Industry
Other Grants and Activities
Dissemination
Bibliography
Inria / Raweb 2003
Team: Rap

Team : rap

Section: Scientific Foundations


Keywords : Allocation de bande passante , Algorithmes MaxMin , Équité .

Contrôle d'admission

Le cadre de cette étude est celle d'un routeur à l'entrée du réseau où l'opérateur doit décider de l'acceptation ou non de demandes de connexions caractérisées, éventuellement, par des paramètres de trafic. Ce cadre générique est valable aussi bien dans les architectures Intserv, MPLS ou même DiffServ si une déclaration explicite est effectuée d'une manière ou d'une autre. Il s'agit d'accepter suffisamment de connexions pour maximiser l'utilisation des infrastructures et en même temps contrôler la charge du réseau de telle sorte que les différents niveaux de garantie de service demandés soient satisfaits. À chaque requête, il s'agit de décider si l'occupation du réseau permet d'accepter le niveau de qualité de service demandé par la requête : bande passante, taux de perte, etc... (On se place bien sûr dans le cadre où les mécanismes de réservation de bande passante sont utilisés). L'algorithme d'acceptation au niveau du routeur doit être simple, ce qui se traduit dans ce cas par un minimum de calcul : typiquement une addition et une comparaison avec une valeur critique.

Ce domaine est important pour la gestion d'un réseau, il fait actuellement l'objet de nombreuses investigations. Dans cette perspective, la notion de gestionnaire de bande passante, Bandwidth Broker(L'appellation Bandwidth Broker est aussi quelquefois utilisée dans le cadre très différent de la négociation de bande passante au sens financier du terme (options,...).)'' (BB) a été récemment introduite par Jacobson. Il s'agit, au niveau du domaine d'un ISP dans un contexte Diffserv, d'implanter un agent capable de :

Le contrôle d'admission est bien entendu l'élément crucial de ce type d'agent.

Contrôle d'admission du trafic élastique

Le cadre est celui d'un lien entre un réseau d'accès (type ADSL par exemple) et Internet. Sur ce lien, plusieurs flots avec des caractéristiques variables sont multiplexés. On s'intéresse aux flots du trafic élastique (le trafic best effort actuel). Ces flots coexistent (via TCP) en étant contraints par la capacité réduite du lien d'accès. Certains flots sont longs (comme les transferts ``peer to peer''), ce sont les éléphants, le mécanisme de contrôle de la congestion de TCP fait qu'ils adaptent leur débit de transmission à l'état du lien. Cette adaptation revient, en première approximation, à un partage égalitaire de la bande passante disponible. Les autres flots sont courts, moins de vingt paquets, ce sont les souris qui, au niveau TCP, ne dépassent pas l'étape de ``slow start''. Ces flots ne s'adaptent pas à l'état du réseau en raison du petit nombre de paquets transmis. Globalement, le trafic peut être décrit de la façon suivante : les souris dévorent une partie de la bande passante, la partie résiduelle est partagée équitablement entre les éléphants. Cette description macroscopique de l'état d'un lien est celle proposée initialement par l'équipe de J. Roberts [16]. Elle nous semble particulièrement adaptée pour ce type d'étude.

Les mesures menées sur le réseau montrent que la statistique de la taille des transferts des éléphants ont une queue de distribution lourde, i.e. la probabilité que la quantité transférée dépasse la valeur x ne décroît pas exponentiellement mais plutôt de façon polynomiale. Cette caractéristique est très importante, en effet si N éléphants occupent le lien, chacun d'eux reçoit un débit proportionnel à 1 / N . Si la quantité N est assez grande, cela implique que le temps de transfert devient de plus en plus long. Les mécanismes de contrôle de TCP déclenchent un arrêt de la connexion lorsque ce temps excède un certain seuil. Ce phénomène peut se représenter par le fait que chacune des connexions a un temps d'impatience au-delà duquel elle s'interrompt Dans ce contexte, l'idée de base, voir aussi Roberts et al. [13], est de limiter au maximum le nombre de connexions interrompues de la sorte par le biais d'un contrôle d'admission. Il s'agit de rejeter les connexions à l'entrée du réseau de façon à réduire au maximum l'utilisation de la bande passante par des connexions qui vont finalement être arrêtées.

Pour que des algorithmes simples et efficaces puissent être conçus dans ce domaine, il est crucial, dans un premier temps, d'étudier l'interaction entre le partage égalitaire et les phénomènes d'impatience. Actuellement, en dehors des simulations, les travaux sont très rares dans ce domaine. Dans une deuxième étape, il convient d'intégrer le trafic des souris qui introduit la variabilité de la capacité de la bande passante offerte aux éléphants.

Contrôle d'admission du trafic prioritaire

Ces questions ont déjà été étudiées en détail dans les réseaux ATM pour le trafic VBR. Le cadre habituel est celui d'un nœud où arrive une superposition de plusieurs types de trafic (définis chacun par leur débit crête et la taille des rafales). Il s'agit de tester si l'acceptation d'un nouveau flot maintient la probabilité de perte d'un paquet en-dessous d'une valeur critique. En théorie, il est possible de calculer dans cette configuration la probabilité que des paquets soient perdus en résolvant une équation de point fixe qui n'est pas triviale. Cette solution n'est pas acceptable car elle ne permet pas de traiter en temps réel les multiples sorties et arrivées au nœud, il faudrait dans ce cas recalculer le point fixe à chaque fois.

Les travaux de Guérin et Elwalid ont permis de dégager une solution acceptable algorithmiquement. À chaque type de flot est associé un nombre, appelé bande passante effective, calculé une fois pour toutes et le nœud maintient un nombre W représentant son occupation. Quand une connexion s'achève, la bande effective correspondante est retranchée de W . À l'inverse, pour une demande de connexion d'une requête dont la bande effective vaut α , on accepte celle-ci, si la quantité W + α est plus petite que la bande passante du nœud, sinon elle est rejetée.

Quand les trafics se distinguent par des niveaux de priorité (comme dans l'architecture de type Diffserv), les travaux sur le contrôle d'admission se ramènent essentiellement à supposer que la classe la plus prioritaire capte une portion fixe de la bande passante et à étudier ensuite le contrôle d'admission des autres trafics sur un nœud où la bande passante est réduite. Les travaux de Berger et Whitt illustrent ce type d'approche appelée habituellement reduced service rate approximation (RSR). Cette technique est connue pour être pertinente pour certaines disciplines de service comme WFQ weighted fair queueing. Dans le contexte envisagé ici, plusieurs études ont toutefois montré que ce type d'approximation pouvait conduire à sous-estimer la charge réelle du nœud et donc accepter trop de connexions qui n'auraient plus le niveau de qualité de service requis. Il est important de comprendre comment les niveaux de qualités de service peuvent être assurés et quand la propriété RSR est valide, ce qui conduit à une séparation virtuelle entre les différents trafics. À l'inverse, quand cette propriété n'est plus vérifiée, il s'agit de déterminer si le contrôle d'admission peut toujours s'effectuer de façon simple. Un travail préliminaire récent a montré que l'approximation RSR n'est pas valable sous certaines hypothèses de trafic et de priorité. Les travaux qui sont menés concernent à la fois les implications algorithmiques de ce type de résultat et l'étude des phénomènes responsables de l'échec de la RSR.


previous
next