Projet Algo

previous up next contents
Précédent : Composition de l'équipe Remonter : Projet ALGO, Algorithmes Suivant : Fondements scientifiques



Présentation générale et objectifs

L'objectif global du projet ALGO est l'analyse et l'optimisation fines de systèmes complexes discrets présentant une forte composante aléatoire. De nombreux problèmes de grande taille rentrent dans ce cadre tels l'étude quantitative d'Algorithmes probabilistes sur des structures discrètes, ou l'optimisation de l'allocation de ressources dans les réseaux de communication. La réalisation de cet objectif passe par la compréhension en profondeur de l'aléa discret et des problèmes de nature mathématique que pose sa quantification. Cela suppose de dégager des méthodes générales pour obtenir des résultats présentés de manière exacte ou asymptotique. Ces résultats fournissent alors des informations très précises sur le comportement qualitatif ou quantitatif des systèmes étudiés.

Étant donné le caractère très systématique de l'approche poursuivie, on vise aussi parallèlement des méthodes de décision réalisables en calcul formel. Cette approche est un moteur puissant de renouvellement qui conduit à la révision d'approches classiques dans le domaine des fonctions spéciales et des développements en séries. L'objectif est de disposer d'une Algorithmique fiable et complète pour de grandes classes de problèmes précisément caractérisés ; voir déjà les bibliothèques Gfun et MGFUN assez largement utilisées dans la communauté combinatoire et présentes dans la prochaine version de Maple. Les résultats sont susceptibles de nombreuses applications bien au delà du domaine de la modélisation combinatoire: par exemple, ce qui est visé est une bien meilleure intégration des fonctions spéciales au calcul formel, ce qui s'applique à de larges classes de problèmes dans les sciences de l'ingénieur.

Thématique de recherche

Le projet ALGO se donne comme objectif l'analyse en profondeur de l'aléa combinatoire et la recherche de ses lois générales. Ce thème est voisin par ses objectifs, mais dual par ses méthodes, de la modélisation des systèmes informatiques, laquelle repose de manière prédominante sur des mathématiques a priori continues. Ici, nous sommes dans le domaine des mathématiques discrètes. La combinatoire étant par définition l'étude des objets finis discrets, nous visons à développer une approche globale que l'on pourrait qualifier de ``combinatoire statistique'' par analogie avec la physique statistique. Le but est de décrire le comportement macroscopique visible de l'objet étudié, comme par exemple, le temps d'exécution sur un grand ``ensemble'' d'un certain Algorithme, ou encore l'évolution d'un grand réseau vers ses régimes fondamentaux.

Il s'agit de caractériser les propriétés attendues (en moyenne, en probabilité, en distribution) d'objets obéissant à des règles de combinaison finies, mais constituant de très grands ensembles. Ces situations se rencontrent sans cesse en informatique, un tri de seulement 100 éléments met en jeu 10 158configurations, qui obéissent, avec une écrasante probabilité, à des règles fort précises. Les problèmes d'aléa combinatoire interviennent de manière essentielle en Algorithmique. La conception de la plupart des Algorithmes efficaces se fonde naturellement sur les cas attendus, en moyenne ou en probabilité, plutôt que sur une analyse pessimiste qui doit être réservée à des contraintes de type ``temps réel''.

Le rôle de l'analyse de l'aléa combinatoire est renforcé par l'importance croissante des Algorithmes dits ``randomisés'' (bien formalisés par Karp et Rabin depuis une vingtaine d'années) où il s'avère payant d'introduire volontairement le hasard dans le calcul. Ainsi, les tables de hachage constituent une alternative souvent très efficace aux arbres de recherche, les signatures accélèrent considérablement la recherche textuelle, les ``skip lists'' remplacent graduellement les arbres équilibrés dans de nombreuses applications. Parmi d'autres applications célèbres de cette ``aléatoirisation'', on peut citer la construction de cryptosystèmes à clefs publiques qui utilise de manière très sûre des tests probabilistes (F. Morain) ; ou encore la conception de protocoles de communication, faisant suite à Ethernet, mais avec une utilisation mieux contrôlée de l'aléa qui permettent de stabiliser et d'acheminer des trafics plus importants dans les réseaux. La problématique d'Algorithmique randomisée est poursuivie par exemple avec succès par le projet PRISME de Sophia-Antipolis dans le domaine de l'Algorithmique géométrique.

Le développement récent du calcul formel a éclairé tout l'intérêt de cette approche généraliste. Il est apparu, en effet, vers le tournant des années 1990 qu'il était possible de décider mathématiquement de nombreuses propriétés de l'aléa combinatoire, ce par un calcul de nature essentiellement formelle. Au sein du projet, cela a donné lieu aux thèses de B. Salvy et P. Zimmermann (en 1991). Le programme de recherche correspondant à ces aspects est loin d'être achevé. De nombreux problèmes de portée générale en calcul formel ont été mis en évidence. Citons principalement ici, comme directions nouvelles, l'asymptotique automatique (B. Salvy), les méthodes mixtes symboliques numériques (X. Gourdon, B. Salvy), et la preuve automatique d'identités combinatoires (F. Chyzak, B. Salvy).

C'est dans ce contexte qu'ont pu être résolues au fil des ans diverses conjectures correspondant à des analyses précises d'Algorithmes tels que le dimensionnement en hachage dynamique (M. Régnier, Ph. Flajolet), la performance des arbres quadrants pour la recherche multidimensionnelle (Ph. Flajolet, B. Salvy), ou le comportement probabiliste des meilleures méthodes de recherche de motifs (M. Régnier). D'autres applications typiques sont constituées par les Algorithmes d'estimation probabiliste en bases de données, l'allocation mémoire partagée (Ph. Flajolet et Ph. Jacquet), les protocoles en arbre (Ph. Flajolet), et le comportement probabiliste de grands réseaux (Ph. Robert).

Les travaux du groupe sont assez largement repris dans la littérature scientifique spécialisée (livres ou articles). Plusieurs de ces recherches ont été menées en collaboration avec les projets VERSO (bases de données et séquences génomiques), REFLECS (protocoles et contraintes temps réel), MEVAL (modélisation) et Action AGCT (génomique). L'année 1997 voit le lancement de l'avant-projet HIPERCOM (Ph. Jacquet, P. Mühlethaler) dédié aux réseaux sans fils et aux réseaux sur câble. Les activités liées directement à ces applications sont désormais reprises par HIPERCOM tandis qu'une collaboration se poursuit sur l'Algorithmique des protocoles et les méthodes d'évaluation quantitative.

Elles nous valent de nombreuses coopérations internationales avec des universités comme celles de Barcelone, Newcastle, Princeton, Purdue, Stanford, Vienne, Washington, Waterloo, etc.



previous up next contents Précédent : Composition de l'équipe Remonter : Projet ALGO, Algorithmes Suivant : Fondements scientifiques