Précédent : Fondements
scientifiques Remonter : Rapport activite 1997 Suivant :
Logiciels
Participants : Jacques Lévy Véhel , Rolf Riedi
Mots-clés : analyse multifractale, mouvement Brownien
fractionnaire, trafic de données
Résumé : Les trafics sur les réseaux d'ordinateurs présentent des spécificités dont l'étude nécessite de nouveaux outils; en particulier, leur forte sporadicité, qui ressemble à celle de processus tel le mBf, a des conséquences importantes par exemple sur les temps de transfert.
Les modèles conventionnels de trafic supposent généralement que
les processus d'arrivée (caractérisés par le nombre d'octets
échangés) sont, soit sans mémoire, soit à mémoire ``courte''. Ces
hypothèses se sont révélées inadéquates pour décrire la structure
des trafics observés sur des réseaux de type LAN. En particulier,
elles ne permettent pas de rendre compte de la forte sporadicité
observée sur plusieurs échelles de temps, qui semble être
principalement liée au fait que les processus d'arrivée sont à
mémoire longue. Des modèles récents prennent en compte cette
caractéristique en considérant le processus à mémoire longue le
plus simple, le mouvement Brownien fractionnaire.
Le succès du mBf comme modèle du trafic repose sur le fait que le degré de dépendance à long terme est contrôlé par un seul paramètre, H. La dépendance à long terme étant grossièrement une qualité statistique de l'ordre 2, il est naturel de se demander si le mBf est aussi un bon modèle pour les statistiques d'ordre supérieur des trafics réels.
L'analyse multifractale permet d'apporter des réponses via le spectre multifractal qui caractérise les irrégularités locales du processus. Pour un mBf, ce spectre est trivial: la régularité locale est partout la même (égale à H). Dans ce sens, le mBf est un processus monofractal. Des études numériques intensives ont montré que les trafics LAN enregistrés à Berkeley et au CNET exhibent au contraire un comportement multifractal sur 3 à 4 ordres de grandeur.
Les spectres observés mettent aussi en évidence les différences entre les trafics sortant et entrant, dans toutes les traces analysées. D'autre part, la forme particulière du spectre du trafic sortant à Berkeley fournit des informations sur la stationnarité du processus, une question importante en pratique. Plus généralement, l'intérêt de ce type d'étude est que les propriétés fractales et multifractales du trafic, comme la mémoire longue et l'irrégularité ponctuelle, ont des répercussions par exemple sur le comportement des files d'attente ou sur les temps de transfert des données.
Participants : Khalid Daoudi , Jacques Lévy Véhel
Mots-clés : exposant de Hölder, synthèse de la
parole
Résumé : Les sons non voisés d'un signal de parole sont extrêmement irréguliers, et cette irrégularité contient des informations pertinentes, en particulier pour la synthèse. Nous proposons des modèles qui permettent d'utiliser ces informations en contrôlant la régularité Höldérienne.
La plupart des approches pour la modélisation des signaux de
parole utilisent des représentations sinusoïdales pour les
parties voisées du signal, et elles considèrent les parties non
voisées comme du bruit blanc filtré par la transmission du
conduit vocal. Il est connu que les parties non voisées résultent
d'un écoulement turbulent de l'air dans une constriction
du conduit vocal, et que de tels écoulements présentent
généralement des caractéristiques fractales. Nous proposons une
approche qui consiste à donner une représentation fonctionnelle
fractale de ces parties du signal, fondée sur l'analyse des
régularités locales de la forme d'onde. Cette approche est
d'autre part motivée par le fait que les singularités locales,
mesurées en termes d'exposants de Hölder, contiennent des
informations importantes sur le signal de parole. Notre point de
départ est que la plus grande partie de l'information pertinente
peut être obtenue à partir d'un ``petit'' sous-ensemble des
échantillons dans la représentation temporelle (points
d'interpolation), et d'une approximation grossière de la
régularité locale en chaque point d'échantillonnage.
Les résultats expérimentaux montrent que l'analyse des
singularités locales permet de décrire certaines caractéristiques
du locuteur, de construire un modèle parcimonieux du signal de
parole, et de le synthétiser avec une bonne qualité.
Participants : Evelyne Lutton , Benoît Leblanc , Frédéric
Raynal
Mots-clés : algorithme génétique, optimisation
stochastique, problèmes inverses, programmation génétique
Résumé : Certains problèmes inverses liés à l'analyse fractale de signaux peuvent être traités avec succès à l'aide d'algorithmes génétiques: problème inverse pour les IFS, applications à la modélisation de signaux de parole, problème inverse pour les automates finis. Il importe cependant de bien exploiter les potentialités des AG pour obtenir des algorithmes efficaces: l'expérience prouve qu'un paramétrage soigneux et un codage des solutions ingénieux peuvent faire une différence énorme sur l'efficacité et les performances des algorithmes.
Un problème inverse standard peut se formuler de la façon
suivante: à partir d'un certain jeu de données, on sait calculer
la sortie d'un système, mais, ayant une sortie donnée (la
``cible''), on ne sait pas remonter au jeu de données d'entrée du
système.
La stratégie classique, de type ``boîte noire'', consiste à transformer le problème inverse en un problème d'optimisation: optimiser le jeu de données d'entrée de façon à ce que la sortie du système ressemble à la cible. En règle générale, les AE sont assez bien adaptés à la résolution de problèmes inverses difficiles pour lesquels on a peu d'information a priori (on ne connaît pas en général explicitement la fonction à optimiser, et encore moins ses dérivées locales par exemple). Dans le domaine de l'analyse fractale de données, un certain nombre de problèmes inverses difficiles ont été traités avec succès, par exemple:
L'établissement de méthodes de résolution de ces problèmes inverses ``académiques'' a tout naturellement conduit a des applications des AG:
La difficulté de telles applications réside essentiellement dans le fait de trouver un codage du problème adéquat d'une part (il faut exploiter efficacement un certain nombre de connaissances a priori que l'on a sur le système), et d'autre part de traiter de façon convenable les contraintes (qui peuvent permettre de faire des ``économies'' importantes de calcul, comme nous l'avons montré dans le cas du problème inverse pour les IFS [10,16]).
Participants : Christophe Canus , Bertrand Guiheneuf ,
Jacques Lévy Véhel
Mots-clés : analyse multifractale, débruitage,
détection de changements, segmentation
Résumé : L'analyse multifractale des images consiste à définir des mesures à partir des niveaux de gris, à en calculer les spectres, et à traiter les points sur la base des informations à la fois locales et globales qui en résultent. Contrairement à d'autres approches, aucun filtrage n'est effectué.
L'analyse d'image est une composante fondamentale dans la
résolution des problèmes de vision par ordinateur, qui ont de
nombreuses applications en robotique, imagerie médicale, imagerie
satellitaire, etc Une étape importante est la
segmentation, qui consiste à obtenir une description de l'image
en termes de contours et de régions.
Les approches classiques dans ce domaine supposent
généralement qu'une image est la trace discrète d'un processus
sous-jacent par morceaux. En effectuant un filtrage, on
peut alors par exemple extraire le gradient du signal, dont les
extrema de la norme correspondent à peu près aux contours. On
peut raffiner les résultats en appliquant des méthodes
multirésolutions, fondées en particulier sur une transformée en
ondelettes.
Les inconvénients d'une telle conception sont que le lissage
préalable entraîne une perte en localisation, et que l'hypothèse
d'un processus par morceaux sous-jacent n'est pas
toujours réaliste : en présence de textures, par exemple,
ces détecteurs échouent. En particulier, dans l'application aux
images radar qui nous intéresse en premier lieu, il faut pouvoir
prendre en considération un fort bruit corrélé et la présence de
texures jouant un rôle important.
Une alternative est de considérer que l'image induit une
mesure connue jusqu'à une résolution fixée et aussi irrégulière
que l'on veut, et de quantifier alors ses singularités.
L'approche multifractale s'inscrit dans ce cadre. Le principe
général est le suivant : à partir des niveaux de gris de
l'image, on définit diverses mesures et capacités. On peut alors
effectuer une analyse multifractale de ces capacités, et en
déduire des informations sur la structure de l'image. Une
spécificité de cette approche est qu'elle tient compte à la fois
des comportements locaux (via ) et globaux (via
). D'autre part, aucune hypothèse n'est faite quant à la
régularité du signal étudié.
Cette modélisation induit la procédure intuitive de segmentation suivante:
On peut effectuer de même, sur la base des informations fournies par le spectre multifractal, des débruitages et de la détection de changement dans des séquences.
Participants : Guillaume Cretin , Jacques Lévy Véhel ,
Evelyne Lutton
Mots-clés : compression, IFS
Résumé : La compression fractale d'images considère le signal comme l'attracteur d'un système de fonctions itérées à déterminer. Cette méthode fournit de bons taux de compression et une vitesse de décompression élevée. Les temps de compression sont sensiblement plus longs.
La méthode de compression fractale des images fondée sur les IFS
et développée par M. Barnsley au sein de la société Iterated
Systems a connu un certain succès industriel: les images fixes de
l'encyclopédie Encarta, de Microsoft, sont par exemple comprimées
avec cette technique. D'un point de vue mathématique, son intérêt
est qu'elle envisage le problème d'un point de vue nouveau:
contrairement aux autres méthodes (JPEG, ondelettes), elle ne
cherche pas à compacter l'information en passant dans un espace
de représentation plus adapté, mais elle considère le signal
comme le point fixe attractif d'une fonction contractante, qui
constituera le code de l'image à stocker. Nous avons travaillé à
l'amélioration de certains aspects de cette technique, comme la
possibilité d'un découpage ``intelligent'' de l'image, ou le
choix de fonctions non linéaires pour la définition de
l'opérateur contractant. Récemment, plusieurs auteurs ont fait le
lien entre la compression fractale et les ondelettes, ce qui
pourrait ouvrir de nouvelles perspectives dans ce domaine.
Participants : Lotfi Belkacem , Jacques Lévy Véhel , en
collaboration avec Christian Walter (Crédit Lyonnais)
Mots-clés : analyse financière, gestion de
portefeuilles, mBf, processus -stables
Résumé : L'analyse de cours financiers révèle que ceux-ci présentent des caractéristiques fractales comme la mémoire longue ou la variance infinie. Nous en étudions les conséquences par exemple sur la gestion de portefeuilles.
Les buts que se fixe notre étude sont les suivants :
La théorie financière classique s'appuie sur un cadre statistique bien défini, dans lequel trois hypothèses sont faites sur les variations successives des prix des actifs :
H1- Stationnarité des accroissements du processus aléatoire régissant l'évolution temporelle des rendements.
H2- Indépendance des accroissements du processus considéré.
H3- Existence du moment d'ordre 2 des lois marginales
du processus.
Le modèle induit par ces hypothèses est celui du mouvement
Brownien.
Ce qui motive l'introduction d'une approche fractale est que
l'observation de la réalité des marchés financiers montre que les
hypothèses H2 et H3 ne sont pas vérifiées en général, ce qui
conduit naturellement à utiliser des généralisations du mouvement
Brownien. On peut envisager deux extensions dans le cadre
fractal :
En particulier, la plupart des tests d'ajustement à la loi normale que nous avons effectués avec le Crédit Lyonnais sont rejetés, principalement à cause du phénomène de leptokurticité, qui se traduit par l'existence de grandes variations des rentabilités.
Au contraire, les tests d'adéquation à des lois -stables semblent indiquer que ces dernières fournissent
dans certains cas une modélisation acceptable.
Ceci a des conséquences importantes en pratique: en
particulier, si la variance est infinie, la notion de risque,
utilisée par exemple en gestion de portefeuilles, doit être
redéfinie [22].