Projet Mistral

previous up next contents
Précédent : Fondements scientifiques Remonter : Projet MISTRAL, Modélisation en Informatique Suivant : Logiciels



Grands domaines d'application

Contrôle dans les réseaux de télécommunications



Participants : Omar Ait-Hellal , Eitan Altman , François Baccelli


Mots-clés : TCP/IP, Internet, ABR, ATM


Protocoles TCP/IP

E. Altman et ses co-auteurs ont étudié et analysé des protocoles existants de contrôle de flux et de congestion dans les réseaux de télécommunications, et proposé de nouveaux protocoles en utilisant la théorie du contrôle optimal, la théorie de jeux et des outils de stabilité stochastique. Nous nous sommes intéressés à deux types d'architecture : l'Internet, et les réseaux ATM. Plusieurs variantes de protocoles TCP/IP de contrôle de flux et de congestion existent sur l'Internet : Tahoe, Reno et Vegas. Nous avons analysé ces trois protocoles dans [28,29]. Dans [27] nous avons étudié deux protocoles existants pour le contrôle de flux de la classe de trafic ABR (Available Bit Rate) dans l'ATM. Nous avons étudié des phénomènes de congestion, et comparé les performances de systèmes de plusieurs commutateurs ATM en série et celles de modèles simplifiés ayant un seul goulot d'étranglement. Dans [10,30,31] nous utilisons la théorie du contrôle optimal et la théorie des jeux pour concevoir de nouveaux contrôleurs de flux décentralisés. Nous montrons dans [9] qu'on peut obtenir une utilisation de 100% du débit disponible au moyen de mécanismes de contrôle de flux qui utilisent des informations sur les tailles des files d'attentes dans les réseaux. Nos partenaires dans cette étude sont le CNET Sophia Antipolis. Sur la partie de conception de nouveaux protocoles, nous avons une collaboration avec le professeur T. Basar de l'université de l'Illinois à Urbana-Champaign.

Réseaux à intégration de services

Dans [33] nous avons étudié l'intégration de services à bande passante garantie avec ceux de type << best effort >> (où le débit de transmission est contrôlé en fonction de l'état de congestion du réseau). Nous avons découvert des comportements de bi-stabilité, où deux équilibres stables et un équilibre instable coexistent. Nous avons proposé et analysé un contrôleur d'admission pour éviter les mauvais points d'équilibre.

Réseaux ATM

Notons enfin un impact des travaux du projet dans le domaine de la normalisation des réseaux ATM. Se basant sur l'article de E. Altman, F. Baccelli et J. Bolot, (Discrete-time analysis of adaptive rate control mechanisms, 5th International Conference on High Speed Networks, Raleigh, 1993), qui établissait le caractère instable des politiques ABR du type << pure rate matching >>, et qui montrait comment stabiliser cet algorithme au moyen d'un estimateur de la charge, B. Lyles a obtenu l'adjonction d'un deuxième champ (permettant de prendre en compte la charge) dans la recommandation de l'ITU-T concernant le format de la cellule RM en ABR (recommandation I 371).

Modélisation spatiale et architecture de réseaux



Participants : François Baccelli , Konstantin Tchoumatchenko , Sergueï Zuyev


Mots-clés : modélisation spatiale, géométrie aléatoire, analyse économique des réseaux


Dans le cadre de la convention CTI 1B 104 avec le CNET, nous avons développé une nouvelle approche de modélisation spatiale de réseaux de télécommunications fondée sur une représentation de l'ensemble des objets structuraux (abonnés, commutateurs, liens, mobiles), comme des réalisations de processus aléatoires dans le plan (cf. [17]). L'analyse des propriétés de ces processus fait appel à la géométrie aléatoire et à la théorie des processus ponctuels. Les résultats obtenus dans ce cadre ont été utilisés cette année dans les travaux d'évaluation du coût du service universel soumis par France Télécom à l'Autorité de Régulation des Télécommunications, notamment en ce qui concerne l'évaluation du coût de la boucle locale. Plus généralement, l'utilisation des modèles technico-économiques issus de la géométrie aléatoire commence à être mise en oeuvre à France Telecom pour les différentes parties du réseau : accès filaire et radio, infrastructures de fibres optiques, systèmes de transmission, commutation locale et longue distance, réseaux de données.

Optimisation des caches de serveurs Web



Participants : Zhen Liu , Philippe Nain , Nicolas Niclausse


Mots-clés : performances du Web, politique de gestion de caches, trafic Web


La croissance exponentielle du nombre de serveurs Web et du trafic HTTP pose des problèmes de saturation des liens de communication, ainsi que des serveurs Web. La nature distribuée du Web, où de nombreux clients se situant dans le même réseau local (ou national) accèdent fréquemment aux mêmes serveurs distants, implique qu'un cache commun à ces clients peut diminuer dans une large mesure le trafic sur le réseau (et notamment sur les liens transatlantiques, les plus saturés), ainsi que le temps de latence perçu par le client. Dans le cadre de la thèse de N. Niclausse, nous nous sommes intéressés à la politique de gestion du cache, à savoir quels sont les documents à garder en priorité dans le cache. La politique utilisée par la plupart des caches est LRU (Least Recently Used), qui consiste à garder les documents les plus récemment consultés, sans tenir compte, par exemple, du temps mis pour les récupérer. Nous avons étudié une politique prenant en compte un certain nombre de paramètres (durée des connexions, taille des documents, fréquence d'accès et date de dernier accès) et comparé ses performances à celles des différentes politiques déjà étudiées dans la littérature. Nos simulations sur plusieurs jeux de données montrent, dans la plupart des cas, un gain de performances plus ou moins important sur toutes ces politiques pour tous les critères envisagés (latence perçue par les utilisateurs, bande passante utilisée, et nombre de requêtes dans le cache). Une étude [38] est également effectuée sur l'utilisation de cache en mémoire vive (beaucoup plus rapide qu'un disque) pour les serveurs Web, où l'on observe, notamment sur les statistiques d'accès de serveur du WWW Consortium, qu'un cache même de faible taille peut être très efficace. Nous avons proposé une politique statique, qui consiste à mettre à jour périodiquement le cache avec les documents les plus consultés durant l'intervalle de temps précédent. Une preuve de l'optimalité de cette politique (en terme du nombre de documents ou octets transmis à partir du cache) est donnée dans le cas où les documents sont de taille identique. Des simulations basées sur des traces de serveurs montrent également que cette politique, en plus d'être moins coûteuse pour le serveur en CPU, donne de meilleures performances que les autres politiques couramment étudiées.



previous up next contents Précédent : Fondements scientifiques Remonter : Projet MISTRAL, Modélisation en Informatique Suivant : Logiciels