Projet Fractales

previous up next contents
Précédent : Fondements scientifiques Remonter : Rapport activite 1997 Suivant : Logiciels



Grands domaines d'application

Trafic LAN



Participants : Jacques Lévy Véhel , Rolf Riedi


Mots-clés : analyse multifractale, mouvement Brownien fractionnaire, trafic de données


Résumé : Les trafics sur les réseaux d'ordinateurs présentent des spécificités dont l'étude nécessite de nouveaux outils; en particulier, leur forte sporadicité, qui ressemble à celle de processus tel le mBf, a des conséquences importantes par exemple sur les temps de transfert.


Les modèles conventionnels de trafic supposent généralement que les processus d'arrivée (caractérisés par le nombre d'octets échangés) sont, soit sans mémoire, soit à mémoire ``courte''. Ces hypothèses se sont révélées inadéquates pour décrire la structure des trafics observés sur des réseaux de type LAN. En particulier, elles ne permettent pas de rendre compte de la forte sporadicité observée sur plusieurs échelles de temps, qui semble être principalement liée au fait que les processus d'arrivée sont à mémoire longue. Des modèles récents prennent en compte cette caractéristique en considérant le processus à mémoire longue le plus simple, le mouvement Brownien fractionnaire.

Le succès du mBf comme modèle du trafic repose sur le fait que le degré de dépendance à long terme est contrôlé par un seul paramètre, H. La dépendance à long terme étant grossièrement une qualité statistique de l'ordre 2, il est naturel de se demander si le mBf est aussi un bon modèle pour les statistiques d'ordre supérieur des trafics réels.

L'analyse multifractale permet d'apporter des réponses via le spectre multifractal qui caractérise les irrégularités locales du processus. Pour un mBf, ce spectre est trivial: la régularité locale est partout la même (égale à H). Dans ce sens, le mBf est un processus monofractal. Des études numériques intensives ont montré que les trafics LAN enregistrés à Berkeley et au CNET exhibent au contraire un comportement multifractal sur 3 à 4 ordres de grandeur.

Les spectres observés mettent aussi en évidence les différences entre les trafics sortant et entrant, dans toutes les traces analysées. D'autre part, la forme particulière du spectre du trafic sortant à Berkeley fournit des informations sur la stationnarité du processus, une question importante en pratique. Plus généralement, l'intérêt de ce type d'étude est que les propriétés fractales et multifractales du trafic, comme la mémoire longue et l'irrégularité ponctuelle, ont des répercussions par exemple sur le comportement des files d'attente ou sur les temps de transfert des données.

Synthèse de la parole



Participants : Khalid Daoudi , Jacques Lévy Véhel


Mots-clés : exposant de Hölder, synthèse de la parole


Résumé : Les sons non voisés d'un signal de parole sont extrêmement irréguliers, et cette irrégularité contient des informations pertinentes, en particulier pour la synthèse. Nous proposons des modèles qui permettent d'utiliser ces informations en contrôlant la régularité Höldérienne.


La plupart des approches pour la modélisation des signaux de parole utilisent des représentations sinusoïdales pour les parties voisées du signal, et elles considèrent les parties non voisées comme du bruit blanc filtré par la transmission du conduit vocal. Il est connu que les parties non voisées résultent d'un écoulement turbulent de l'air dans une constriction du conduit vocal, et que de tels écoulements présentent généralement des caractéristiques fractales. Nous proposons une approche qui consiste à donner une représentation fonctionnelle fractale de ces parties du signal, fondée sur l'analyse des régularités locales de la forme d'onde. Cette approche est d'autre part motivée par le fait que les singularités locales, mesurées en termes d'exposants de Hölder, contiennent des informations importantes sur le signal de parole. Notre point de départ est que la plus grande partie de l'information pertinente peut être obtenue à partir d'un ``petit'' sous-ensemble des échantillons dans la représentation temporelle (points d'interpolation), et d'une approximation grossière de la régularité locale en chaque point d'échantillonnage.
Les résultats expérimentaux montrent que l'analyse des singularités locales permet de décrire certaines caractéristiques du locuteur, de construire un modèle parcimonieux du signal de parole, et de le synthétiser avec une bonne qualité.

Problèmes inverses

 

Participants : Evelyne Lutton , Benoît Leblanc , Frédéric Raynal


Mots-clés : algorithme génétique, optimisation stochastique, problèmes inverses, programmation génétique


Résumé : Certains problèmes inverses liés à l'analyse fractale de signaux peuvent être traités avec succès à l'aide d'algorithmes génétiques: problème inverse pour les IFS, applications à la modélisation de signaux de parole, problème inverse pour les automates finis. Il importe cependant de bien exploiter les potentialités des AG pour obtenir des algorithmes efficaces: l'expérience prouve qu'un paramétrage soigneux et un codage des solutions ingénieux peuvent faire une différence énorme sur l'efficacité et les performances des algorithmes.


Un problème inverse standard peut se formuler de la façon suivante: à partir d'un certain jeu de données, on sait calculer la sortie d'un système, mais, ayant une sortie donnée (la ``cible''), on ne sait pas remonter au jeu de données d'entrée du système.

La stratégie classique, de type ``boîte noire'', consiste à transformer le problème inverse en un problème d'optimisation: optimiser le jeu de données d'entrée de façon à ce que la sortie du système ressemble à la cible. En règle générale, les AE sont assez bien adaptés à la résolution de problèmes inverses difficiles pour lesquels on a peu d'information a priori (on ne connaît pas en général explicitement la fonction à optimiser, et encore moins ses dérivées locales par exemple). Dans le domaine de l'analyse fractale de données, un certain nombre de problèmes inverses difficiles ont été traités avec succès, par exemple:

L'établissement de méthodes de résolution de ces problèmes inverses ``académiques'' a tout naturellement conduit a des applications des AG:

La difficulté de telles applications réside essentiellement dans le fait de trouver un codage du problème adéquat d'une part (il faut exploiter efficacement un certain nombre de connaissances a priori que l'on a sur le système), et d'autre part de traiter de façon convenable les contraintes (qui peuvent permettre de faire des ``économies'' importantes de calcul, comme nous l'avons montré dans le cas du problème inverse pour les IFS [10,16]).

Traitement d'images



Participants : Christophe Canus , Bertrand Guiheneuf , Jacques Lévy Véhel


Mots-clés : analyse multifractale, débruitage, détection de changements, segmentation


Résumé : L'analyse multifractale des images consiste à définir des mesures à partir des niveaux de gris, à en calculer les spectres, et à traiter les points sur la base des informations à la fois locales et globales qui en résultent. Contrairement à d'autres approches, aucun filtrage n'est effectué.


L'analyse d'image est une composante fondamentale dans la résolution des problèmes de vision par ordinateur, qui ont de nombreuses applications en robotique, imagerie médicale, imagerie satellitaire, etc $\ldots$Une étape importante est la segmentation, qui consiste à obtenir une description de l'image en termes de contours et de régions.

Les approches classiques dans ce domaine supposent généralement qu'une image est la trace discrète d'un processus sous-jacent $C^1$ par morceaux. En effectuant un filtrage, on peut alors par exemple extraire le gradient du signal, dont les extrema de la norme correspondent à peu près aux contours. On peut raffiner les résultats en appliquant des méthodes multirésolutions, fondées en particulier sur une transformée en ondelettes.

Les inconvénients d'une telle conception sont que le lissage préalable entraîne une perte en localisation, et que l'hypothèse d'un processus $C^1$ par morceaux sous-jacent n'est pas toujours réaliste : en présence de textures, par exemple, ces détecteurs échouent. En particulier, dans l'application aux images radar qui nous intéresse en premier lieu, il faut pouvoir prendre en considération un fort bruit corrélé et la présence de texures jouant un rôle important.

Une alternative est de considérer que l'image induit une mesure connue jusqu'à une résolution fixée et aussi irrégulière que l'on veut, et de quantifier alors ses singularités. L'approche multifractale s'inscrit dans ce cadre. Le principe général est le suivant : à partir des niveaux de gris de l'image, on définit diverses mesures et capacités. On peut alors effectuer une analyse multifractale de ces capacités, et en déduire des informations sur la structure de l'image. Une spécificité de cette approche est qu'elle tient compte à la fois des comportements locaux (via $\alpha$) et globaux (via $f(\alpha)$). D'autre part, aucune hypothèse n'est faite quant à la régularité du signal étudié.

Cette modélisation induit la procédure intuitive de segmentation suivante:

On peut effectuer de même, sur la base des informations fournies par le spectre multifractal, des débruitages et de la détection de changement dans des séquences.

Compression d'images



Participants : Guillaume Cretin , Jacques Lévy Véhel , Evelyne Lutton


Mots-clés : compression, IFS


Résumé : La compression fractale d'images considère le signal comme l'attracteur d'un système de fonctions itérées à déterminer. Cette méthode fournit de bons taux de compression et une vitesse de décompression élevée. Les temps de compression sont sensiblement plus longs.


La méthode de compression fractale des images fondée sur les IFS et développée par M. Barnsley au sein de la société Iterated Systems a connu un certain succès industriel: les images fixes de l'encyclopédie Encarta, de Microsoft, sont par exemple comprimées avec cette technique. D'un point de vue mathématique, son intérêt est qu'elle envisage le problème d'un point de vue nouveau: contrairement aux autres méthodes (JPEG, ondelettes), elle ne cherche pas à compacter l'information en passant dans un espace de représentation plus adapté, mais elle considère le signal comme le point fixe attractif d'une fonction contractante, qui constituera le code de l'image à stocker. Nous avons travaillé à l'amélioration de certains aspects de cette technique, comme la possibilité d'un découpage ``intelligent'' de l'image, ou le choix de fonctions non linéaires pour la définition de l'opérateur contractant. Récemment, plusieurs auteurs ont fait le lien entre la compression fractale et les ondelettes, ce qui pourrait ouvrir de nouvelles perspectives dans ce domaine.

Cours financiers



Participants : Lotfi Belkacem , Jacques Lévy Véhel , en collaboration avec Christian Walter (Crédit Lyonnais)


Mots-clés : analyse financière, gestion de portefeuilles, mBf, processus $\alpha$-stables


Résumé : L'analyse de cours financiers révèle que ceux-ci présentent des caractéristiques fractales comme la mémoire longue ou la variance infinie. Nous en étudions les conséquences par exemple sur la gestion de portefeuilles.


Les buts que se fixe notre étude sont les suivants :

1.
Modéliser et prévoir les cours d'actifs financiers.
2.
Modéliser les cours d'options.
3.
Effectuer la gestion de portefeuilles.

La théorie financière classique s'appuie sur un cadre statistique bien défini, dans lequel trois hypothèses sont faites sur les variations successives des prix des actifs :

H1- Stationnarité des accroissements du processus aléatoire régissant l'évolution temporelle des rendements.

H2- Indépendance des accroissements du processus considéré.

H3- Existence du moment d'ordre 2 des lois marginales du processus.

Le modèle induit par ces hypothèses est celui du mouvement Brownien.
Ce qui motive l'introduction d'une approche fractale est que l'observation de la réalité des marchés financiers montre que les hypothèses H2 et H3 ne sont pas vérifiées en général, ce qui conduit naturellement à utiliser des généralisations du mouvement Brownien. On peut envisager deux extensions dans le cadre fractal :

En particulier, la plupart des tests d'ajustement à la loi normale que nous avons effectués avec le Crédit Lyonnais sont rejetés, principalement à cause du phénomène de leptokurticité, qui se traduit par l'existence de grandes variations des rentabilités.

Au contraire, les tests d'adéquation à des lois $\alpha$-stables semblent indiquer que ces dernières fournissent dans certains cas une modélisation acceptable.

Ceci a des conséquences importantes en pratique: en particulier, si la variance est infinie, la notion de risque, utilisée par exemple en gestion de portefeuilles, doit être redéfinie [22].


previous up next contents Précédent : Fondements scientifiques Remonter : Rapport activite 1997 Suivant : Logiciels