Projet Fractales

previous up next contents
Précédent : Logiciels Remonter : Rapport activite 1997 Suivant : Actions industrielles



Résultats nouveaux

Analyse de déceptivité d'un algorithme génétique à l'aide de coefficients de régularité



Participants : Evelyne Lutton , Benoît Leblanc


Mots-clés : algorithme génétique, analyse de déceptivité, exposant de Hölder


Résumé : L'analyse présentée ici fait suite à une analyse de déceptivité sur des fonctions Höldériennes menée précédemment, et qui avait permis de donner un modèle simplifié du comportement de certains des paramètres de l'AG simple, dit ``canonique'' (sélection proportionnelle, croisement à un point et mutation). Nous dérivons ici une mesure de la régularité qui se révèle plus adaptée aux structures manipulées par un AG (des chaînes binaires de taille fixe), les coefficients de régularité bit à bit, qui peuvent de la même façon que les exposants de Hölder être reliés à la déceptivité. Nous présentons ensuite le même type d'analyse sur un AG avec croisement uniforme. Ces analyses nous permettent finalement de proposer une méthode d'évaluation de la qualité d'un codage pour un AG.


Cette analyse permet de relier une mesure d'irrégularité d'une fonction de fitness à une notion de difficulté (ou déceptivité) pour les AG. Dans des travaux antérieurs, nous avions développé une analyse de la déceptivité des fonctions Höldériennes, qui ont permis de donner un modèle du comportement de certain des paramètres de l'AG. Ces travaux étaient fondés sur l'hypothèse que la fonction manipulée par l'algorithme génétique pouvait être considérée comme l'échantillonnage d'une fonction Höldérienne, ce qui permet donc de caractériser l'irrégularité de la fonction selon la distance Euclidienne sur $[0,1]$. Cette hypothèse est bien sûr toujours valide, et est bien adaptée à des fonctions de fitness qui sont monodimensionnelles. Il est moins évident cependant que dans le cas de fonctions ``multidimensionnelles'' l'exposant de Hölder de la fonction monodimensionnelle sous-jacente (et dépendant du mode d'échantillonnage adopté) reflète d'une façon simple le comportement de la fonction de fitness.

La présente analyse en est une généralisation selon deux voies:

Cette approche nous a permis enfin de proposer l'emploi des coefficients de régularité bit à bit comme outil d'évaluation de l'influence du codage des chromosomes sur l'efficacité de l'AG. Des expérimentations sur les permutations de bits et le codage de Gray ont été menées [31].

Analyse 2-microlocale



Participants : Bertrand Guiheneuf , Jacques Lévy Véhel , en collaboration avec Stéphane Jaffard (Université Paris XII-Val de Marne)


Mots-clés : exposant de Hölder, singularités oscillantes, transformée en ondelettes


Résumé : La régularité 2-microlocale étend la notion de régularité Hölderienne et est beaucoup plus robuste vis à vis de nombreuses opérations mathématiques ``standards''. Une étude systématique de la caractérisation des exposants 2-microlocaux au travers de conditions de décroissance sur la transformation en ondelettes continue du signal a été effectuée, aboutissant à des résultats de prescription et d'estimation en un point.


La définition de l'exposant de Hölder (voir section [*]), facile à appréhender, reproduit de façon assez fidèle la notion intuitive de régularité ponctuelle. Toutefois, trop attaché aux valeurs ponctuelles de la fonction, l'exposant de Hölder ne se comporte pas correctement sous l'action des opérateurs (pseudo-)différentiels. En particulier, le numéricien comme le traiteur de signaux aimeraient disposer de relations du type

\begin{eqnarray}f \in C^{\alpha}_{x_0} & \stackrel{?}{\Longrightarrow} & f' \in... ...{x_0} & \stackrel{?}{\Longrightarrow} & H(f) \in C^{\alpha}_{x_0},\end{eqnarray}



$H()$ désigne la transformation de Hilbert. La caractérisation de la régularité par la seule donnée des exposants Hölderiens dévoile alors ses limites car les relations précédentes ne sont pas vérifiées. On introduit alors les espaces 2-microlocaux $C^{s,s'}_{x_0}$ qui, par l'adjonction d'un deuxième indice permettent de prendre en compte un comportement au voisinage du point. Bénéficiant d'une caractérisation simple au travers de conditions de décroissance portant sur des décompositions de type Littlewood-Paley (Fourier) ou ondelettes (temps-échelle), les espaces 2-microlocaux, définis par J.-M. Bony, jouissent des propriétés suivantes:

\begin{eqnarray}f \in C^{s,s'}_{x_0} & \Longrightarrow & f' \in C^{s-1,s'}_{x_0... ...ongrightarrow & f \in C^{s}_{x_0},\forall \left( s+s' \right)\gt.\end{eqnarray}




Une étude extensive des conditions 2-microlocales exprimées dans le plan temp-échelle a été réalisée, aboutissant à un résultat de prescription de régularité 2-microlocale arbitraire en un point. Les travaux en cours visent à établir des conditions d'admissibilité permettant de généraliser le résultat précédent à des domaines d'interieur non vide de la droite réelle. Des méthodes d'estimation de ces nouveaux indices sont parallèlement en cours d'élaboration.

Spectres de grandes déviations



Participants : Christophe Canus , Jacques Lévy Véhel , Claude Tricot


Mots-clés : analyse multifractale, exposant de Hölder de grain, spectre de grandes déviations


Résumé : Le spectre de grandes déviations $f_g$ d'une mesure à support réel compact se calcule à partir d'un réseau d'intervalles disjoints et de même longueur sur lesquels est calculé un exposant de Hölder de grain. Le spectre $f_g(\alpha)$ mesure la vitesse de décroissance du nombre d'intervalles ayant un exposant de Hölder de grain proche de $\alpha$ lorsque la résolution tend vers l'infini. Il existe des limitations dues aux difficultés algorithmiques d'estimation de ce spectre. Une manière élégante de contourner ces difficultés consiste à calculer le spectre de Legendre, qui est la transformée de Legendre d'une certaine quantité $\tau$. Le formalisme multifractal en particulier cherche des conditions sous lesquelles cette approche est valide: elles correspondent à des hypothèses de régularité très restrictives. Nous introduisons ici une nouvelle définition de spectre multifractal proche de $f_g$ et dont les qualités simplifient l'estimation: elle utilise toutes les valeurs possibles de la mesure sans référence à un réseau particulier d'intervalles.


Afin de caractériser l'irrégularité d'une mesure $\mu$, on définit l'exposant de Hölder de grain $\alpha_n^k:=-\log \mu(I_n^k)/n\log 2$$\{{I}^k_n\}_{0\leq k \leq2^n-1}$ sont les dyadiques de $[0,1]$ et le spectre de grandes déviations:
 \begin{equation}f_g(\alpha):=\lim_{\epsilon\rightarrow 0}\limsup_{n\rightarrow\infty}\frac{1}{n}\log_2 N_n^\epsilon(\alpha),\end{equation}



$N_n^{\epsilon}(\alpha):=\char93 \{I_n^k\subset[0,1):\vert\alpha_n^k-\alpha\vert\leq\epsilon\}$. ([*]) reflète la décroissance du nombre $N_n^{\epsilon}(\alpha)$ d'intervalles dyadiques $I_n^k$ ayant un exposant de Hölder de grain $\alpha_n^k$proche de l'exposant de Hölder $\alpha$ à la ``précision'' $\epsilon$ lorsque la ``résolution'' $n\rightarrow\infty$. Malheureusement, cette définition ne peut être directement transposée en algorithme d'estimation. Afin de pallier cette limitation et pour pouvoir analyser pleinement la complexité de signaux réels, il semble indispensable de conserver l'approche ``grandes déviations'' en facilitant son estimation. Nous introduisons ici le spectre de grandes déviations continu:  \begin{equation}f_g^c(\alpha):=\lim_{\epsilon\rightarrow0}\limsup_{\eta\rightarrow0}(1-\frac{\log(p_\eta^\epsilon(\alpha))}{\log\eta}),\end{equation}



$p_\eta^\epsilon(\alpha):=\left\vert\bigcup\{I_\eta(x)\,:\vert I_\eta(x)\vert=\... ...0,1-\eta)\,\mbox{et}\,\vert\alpha_\eta(x)-\alpha\vert\leq\epsilon\}\right\vert$.([*]) est bien sûr proche de ([*]). $\alpha_\eta(x)$ est une fonction continue log-linéaire par morceaux, calculée à partir d'une fonction $F_\eta(x)$ obtenue en tout point de l'intervalle $[0,1)$ en intégrant la densité de la mesure pré-multifractale correspondant à la résolution du $n$-échantillon sur l'intervalle $I_\eta(x)$. $p_\eta^\epsilon(\alpha)$ étant difficile à estimer, nous l'avons remplacé dans ([*]) par $p_\eta^{K,\epsilon}(\alpha):=\int_{\mbox{supp$\mu$}}g_\eta^{K,\epsilon}(x,\alpha)dx$,où:

\begin{equation}\left\{\begin{array}{ll}g_\eta^{K,\epsilon}(x,\alpha):=\left... ...alpha_\eta(I)\,:x\in I,\,\vert I\vert=\eta\}\\ \end{array},\right.\end{equation}




$p\gt 1$, la fonction $K$ est un noyau symétrique par rapport à , à support compact et dont l'intégrale sur ce support est finie. Les résultats d'estimation obtenus sur la mesure binomiale ou sur des signaux réels montrent une faible dépendance vis à vis de la précison et de la forme du noyau. Nous avons étendu les résultats trouvés aux spectres de fonction. Les travaux en cours visent à mettre en place une méthode de détermination de la gamme de résolution sur laquelle le spectre peut être estimé.

Spectres de dimension



Participants : Christophe Canus , Jacques Lévy Véhel , Claude Tricot , en collaboration avec Serguei Zuyev (projet MISTRAL)


Mots-clés : analyse multifractale, exposant de Hölder ponctuel, spectre de Hausdorff


Résumé : Le spectre de Hausdorff $f_{\cal H}$ mesure la raréfaction des ensembles de points ayant même exposant de Hölder ponctuel. Il est fondé sur la dimension de Hausdorff $\dim_{\cal H}$ dont l'estimation se révèle extrêmement délicate. Nous proposons ici deux méthodes d'estimation. Une démarche alternative consiste à généraliser ce spectre à toute dimension $d$ respectant certaines hypothèses et de définir un spectre de dimension $f_d$. Une étape supplémentaire consiste à évaluer la vitesse avec laquelle les exposants de grain convergent vers les exposants ponctuels par le biais d'un nouveau spectre, le spectre $f_d^{\limsup}$.


Une autre caractérisation de l'irrégularité d'une mesure est de définir en tout point $x$ l'exposant de Hölder ponctuel $\alpha(x):=\lim_{\delta\rightarrow 0}\log\mu({\calB}_\delta(x))/\log\delta$ puis l'ensemble iso-Hölder $E(\alpha):=\{x:\alpha(x)=\alpha\}$ et le spectre de Hausdorff: \begin{equation}f_{\cal H}(\alpha):=\dim_{\cal H}E(\alpha).\end{equation}



$\dim_{\cal H}$ est la dimension de Hausdorff. Si cette dimension possède de nombreuses qualités (elle est fondée sur une mesure extérieure), son calcul pose parfois des problèmes et elle est extrêmement difficile à estimer. Nous avons cependant proposé deux estimateurs basés sur un théorème de Lyons, qui donne $\dim_{\cal H}E=-\log_2(1-p_c)$ avec $p_c=\inf_p\left\{0\leqp\leq 1\,,\Pr[E\subseteq F(\omega_p)]=1\right\}$. $F(\omega_p)$ est la limite d'une suite de recouvrements aléatoires $\left(F_n(\omega_p)\right)_{n\geq 0}$ définis par l'union des intervalles dyadiques de $[0,1]$ acceptés avec la probabilité $p$et rejetés avec la probabilité $1-p$. Construire un estimateur à partir de ce résultat s'avère encore une fois un travail difficile puisqu'à la finitude de la résolution de l'ensemble $E$ sur lequel on travaille s'ajoute celle de l'ensemble des recouvrements aléatoires $F_n(\omega_p)$. Il est cependant possible de dériver des résultats intéressants pour la contruction d'un estimateur semi-paramétrique de $p_c$ (cf. rapport d'activité 96). Serguei Zuyev a proposé un autre algorithme dont l'argument est le suivant: considérons la suite de v.a. i.i.d. $U_n^k$ sur $[0,1]$, l'intervalle dyadique $I_n^k$ est accepté si $U_n^k\leq p$,rejeté sinon. La probabilité d'accepter $I_n^k$ est donc toujours égale à $p$. Pour qu'un intervalle dyadique qui intersecte $E$soit recouvert, il suffit qu'au moins un des noeuds sur le chemin $\gamma$ qui mène de la racine à la feuille correspondant à cet intervalle soit recouvert, c'est à dire qu'il suffit que la plus petite des v.a. i.i.d. tirées sur ce chemin soit inférieure à $p$. Pour que tous les intervalles dyadiques qui intersectent $E$soient recouverts, il suffit que la plus grande des plus petites valeurs obtenues pour chaque feuille soit inférieure à $p$. Nous obtenons comme estimateur de $p_c$:

\begin{equation}\hat{p_c}_N=\max_{i=0,1,\ldots,2^N-1}\min_{n\in\{1,\ldots,N\},\,k\in\gamma}U_n^k.\end{equation}

Ces problèmes d'estimation peuvent être esquivés en changeant la méthode de mesure. Nous appelons alors dimension toute fonction $d$croissante telle que $d({\,})=-\infty$, $d({x})=0$ et telle que si ${\cal L}(E)\gt 1$alors $d(E)=1$. Enfin la condition de sigma-stabilité impose que la dimension d'une réunion dénombrable d'ensemble $E_n$ soit égale au supremum des dimensions. La dimension de Hausdorff respecte bien évidemment ces conditions, ainsi que la dimension de Packing $\dim_{\cal P}$. La dimension de Minkowski-Bouligand (ou dimension de boîte) $\Delta$ ne respecte pas la dernière condition mais son estimation est aisée. À partir de ces dimensions, on peut définir le spectre de dimension:

\begin{equation}f_d(\alpha)=d(E(\alpha)).\end{equation}

Enfin, il est possible de définir l'exposant ponctuel $\alpha(x)$comme la limite quand $n\rightarrow\infty$ d'un exposant de grain $\alpha_n(x)=1/n\log_2(\mu(I_n(x))$$I_n(x)$ est l'intervalle dyadique qui contient $x$ et d'étudier le rang à partir duquel $\alpha_n(x)$ est ``proche'' de $\alpha(x)$. Pour cela, nous avons définit l'ensemble $E_n^\epsilon(\alpha)=\{x:\,\forall k,k\geqn:\,\vert\alpha_k(x)-\alpha\vert\leq\epsilon\}$ et le spectre:

\begin{equation}f_d^{\limsup}(\alpha):=\lim_{\epsilon\rightarrow 0}\sup_n d(E_n^\epsilon(\alpha)).\end{equation}

Les avantages de cette nouvelle définition sont nombreux. A la différence des ensembles $E(\alpha)$, les ensembles $E_n^\epsilon(\alpha)$ ne sont pas denses dans $[0,1]$ et leur dimension de boîte n'est pas égale à $1$, ce qui permet son utilisation dans le calcul de $f_d^{\limsup}$. Les travaux en cours visent à mettre en place un estimateur robuste et à obtenir des relations d'ordre du type formalisme multifractal pour ce nouveau spectre.

Analyse multifractale du mouvement Brownien fractionnaire



Participants : Jacques Lévy Véhel , Rolf Riedi


Les propriétés multifractales de plusieurs processus aléatoires ont récemment été étudiées par divers auteurs. Compte tenu de son importance dans les applications, nous nous sommes intéressés au mBf et à quelques unes de ses généralisations. Si le spectre de Hausdorff est trivial et apporte peu d'information, les spectres de grandes déviations et de Legendre sont plus riches. Ils décrivent la vitesse avec laquelle la probabilité de rencontrer, à une résolution donnée, une régularité supérieure à $H$ (qui est l'exposant du mBf) tend vers 0 quand la résolution tend vers l'infini. Des estimations ont aussi été obtenues pour des collages de mBf, des ``Cantor Browniens'', et le mouvement Brownien multifractionnaire.

Distributions pseudo Wigner affines



Participants : Paulo Gonçalvès en collaboration avec R. Baraniuk (Rice Univ, USA)


Mots-clés : classe affine, ondelettes, temps-échelle


Résumé : Les distributions pseudo Wigner affines sont des versions à temps glissant des distributions de Wigner affines. Ces distributions vérifient asymptotiquement les mêmes propriétés théoriques que les distributions de Wigner affines mais offrent la possiblité de supprimer les termes interférentiels. D'un point de vue pratique, elles présentent l'avantage d'une programmation en ligne.


Les distributions de Wigner affines sont des représentations temps-fréquence de la classe affine et ont pour expression


\begin{displaymath}P^{(k)}_x(t,f)~=~\vert f\vert\int \mu_k(u)\,X(f\,\lambda_k(u... ....15em}{\sf R} \else ${\sf I}\hspace{-.15em}{\sf R}$\space \fi,\end{displaymath}

avec $\lambda_k(u)=(k^{-1}(e^{-u}-1)/(e^{-ku}-1))^{1/(k-1)}$, et $\mu_k(u)$ une fonction arbitraire continue de paramétrisation. Entre autres propriétés théoriques, elles se localisent stricto sensu sur les trajectoires de fréquence instantanées de signaux modulés en fréquence selon des lois de puissance. Cependant, elles sont pénalisées par deux inconvénients majeurs: d'une part leur définition nécessite de prendre en compte le signal à analyser sur toute sa durée, ce qui exclut toute programmation à temps glissant; d'autre part, leur structure bilinéaire est à l'origine de termes interférentiels inter-composantes qui pénalisent l'expertise des signatures [7].
Nous avons défini dans [8], une version à court-terme de ces distributions: les distributions pseudo Wigner affine. Ces nouvelles représentations de la classe affine sont définies à partir de la transformée en ondelettes du signal à analyser en lieu et place de la transformée de Fourier de celui-ci,

\begin{displaymath}\widetilde{P}_x^{(k)}(t,f) \stackrel{\triangle}{=} \int \f... ...(u)f\,;\,\psi) \, \Gamma^*_x(t,\,\lambda_k(-u)f\,;\,\psi)\,du, \end{displaymath}

$\Gamma_x(t,f\,;\,\psi)$ est la transformée en ondelettes du signal $x$ sur la famille analysante $\{\psi_{t,f}\}$. Le choix de l'ondelette d'analyse $\psi$, et en particulier de son coefficient de surtension $Q$ (i.e. de son extension temporelle), contrôle le taux de lissage affine en fréquence et par conséquent l'atténuation des termes interférentiels oscillant suivant cette même direction. En jouant sur l'extension de la fonction $\mu_k$, on contrôle par des arguments de même nature les interférences qui oscillent suivant l'axe des temps. En introduisant ces deux degrés de liberté supplémentaires, on établit alors un continuum entre les deux cas limites que sont (i) les distributions de Wigner affine ($\mu_k(u)=1$ et $Q=\infty$) et (ii) le scalogramme $\vert\Gamma_x(t,f\,;\,\psi)\vert^2$ ($\mu_k(u)=\delta(u)$ et $Q<\infty$).
Un autre intérêt de ces distributions par rapport aux distributions de Wigner affines $P^{(k)}$, est l'existence d'un algorithme efficace à temps glissant, applicable pour n'importe quelle valeur du paramètre $k$ (jusqu'alors on ne pouvait programmer les distributions $P^{(k)}$ que pour les seules valeurs de $k=-1$, $k=0$, $k=1/2$ et $k=2$).

Transformée en ondelettes multi-fenêtres



Participants : Paulo Gonçalvès en collaboration avec P. Abry (ENS-Lyon)


Mots-clés : auto-similarité, ondelettes, régularité Hölderienne


Résumé : Nous proposons une transformation en ondelettes multi-fenêtres destinée à identifier des structures auto-similaires non stationnaires dans des processus aléatoires et à estimer l'exposant d'échelle local $H(t)$ qui contrôle la régularité ponctuelle du processus.


Nous considérons des processus stochastiques localement auto-similaires, c'est à dire vérifiant l'égalité (en loi) suivante: \( x(at)~\stackrel{\mbox{\small d}}{=}~a^{H(t)} x(t), \)$H(t)$ est l'exposant local d'échelle (ou exposant de Hölder) à estimer. Moyennant un choix judicieux de $\psi$, la transformée en ondelettes $\Gamma_x(t,f\,; \psi)$ reproduit le même comportement local en loi d'échelle selon:


\begin{displaymath}\mbox{\textbf{E}}\{\vert\Gamma_x(t,a\,;\,\psi)\vert^2\} = a^{2H(t)+1}\, C_{\psi}(t), \hspace*{5mm} a \rightarrow 0,\end{displaymath}

$C_{\psi}(t)$ est une constante. Un problème essentiel de cette expression reste néanmoins l'estimation de la moyenne d'ensemble $\mbox{\textbf{E}}\{\Gamma_x(t,a)\}$, lorque l'on n'a qu'une seule réalisation de la variable aléatoire $x$.Nous proposons d'utiliser la distribution (de la classe affine) suivante:

\begin{displaymath}\Omega_x(t,a) = \frac{1}{L} \sum_{i=1}^{L} \left\vert\intx(\tau)\,\psi^{(i)}_{t,a}(\tau)\,d\tau\right\vert^2,\end{displaymath}

avec $\{\psi^{(i)}\}_{i=1\dots L}$ une collection d'ondelettes mères satisfaisant aux conditions de décorrélations croisées suivantes:

\begin{displaymath}\int \vert u\vert^{2} \gamma_{i,j}(u) \, du ~\equiv~0,\hspa... ...ace*{3mm}\gamma_{i,j}(u)=\int \psi^{(i)}(v)\psi^{(j)}(v-u) dv.\end{displaymath}C

ette condition formellement respectée, on obtient en toute rigueur la décorrélation entre toutes les transformées en ondelettes, c'est à dire:

\begin{displaymath}\mbox{\textbf{E}}\{\Gamma_x(t,a,\psi^{(i)})\,\Gamma_x(t,a,\p... ...pace{5mm} \forall i\neq j,\,\,\forall t, \,\, a \rightarrow 0. \end{displaymath}

En pratique, une telle contrainte est impossible à respecter, et on se contente alors de majorer la décroissance des inter-corrélations entre ondelettes. Pour assouplir la procédure de synthèse des ondelettes mères, on se place de plus dans le cadre des ondelettes semi-orthogonales:

\begin{displaymath}\psi^{(i)}(t) = \sum_{k=0}^{K} q^{(i)}_k \psi^{(0)}(t-k),\end{displaymath}

$\psi^{(0)}$est une ondelette orthogonale (type Daubechies) choisie a priori.
Dans le cas d'un processus $x$ gaussien auto-similaire (e.g. un mouvement Brownien fractionnaire), on montre enfin que la variable aléatoire $\log\Omega_x(t,a)$ suit une loi asymptotiquement normale de moyenne $(2H(t)+1)\log(a)+b_\Omega$, et de variance stabilisée (indépendante de l'échelle) proportionnelle à $2/L$.

Analyse du trafic LAN



Participants : Jacques Lévy Véhel , Rolf Riedi


Mots-clés : analyse multifractale, mouvement Brownien fractionnaire, trafic sur les réseaux d'ordinateurs


Résumé : Pour modéliser la forte non-stationnarité des trafics et rendre compte de leur caractère multifractal, nous avons considéré diverses extensions du mouvement Brownien fractionnaire, qui autorisent des variations instantanées de la régularité ponctuelle.


Poursuivant les travaux commencés l'année dernière, nous avons entrepris de construire des généralisations du mBf qui puissent rendre compte du caractère multifractal des données de trafic LAN à Berkeley et au CNET. Une particularité du mBf est que le même exposant $H$décrit la mémoire longue et l'irrégularité locale. Or, cette dernière varie fortement au cours du temps sur les traces réelles. C'est pourquoi, nous nous sommes tournés vers le mouvement Brownien multifractionnaire (mBm), qui est une sorte de mBf où $H$ dépend du temps. En choisissant de façon adéquate la fonction $H(t)$, on peut faire en sorte que, à toute résolution finie, les spectres de grandes déviations et de Legendre du mBm et des traces réelles aient la même allure. L'utilisation du mBm nécessite que $H(t)$ soit une fonction continue. Pour prendre en compte des variations brusques de l'irrégularité, nous avons proposé un autre modèle, qui est une superposition finie de mBf, l'un défini sur la droite réelle, les autres sur des ensembles de Cantor de structure particulière. Il est alors possible d'ajuster les différents paramètres pour que les propriétés multifractales obtenues coïncident avec celles des données. Nous disposons ainsi de deux modèles qui possèdent la plupart des caractéristiques fractales du trafic et qui, physiquement, pourraient rendre compte de la forte non stationnarité observée sur les réseaux (heures pleines/creuses, hétérogénéité des types de trafic) conduisant à des trajectoires dont l'irrégularité varie soit lentement, soit de façon discontinue.

Evaluation du risque de changements de prix du cuivre



Participants : Lotfi Belkacem ,Jacques Lévy Véhel, en collaboration avec TREFIMETAUX


Etant acheteur d'une grande quantité de cuivre pour le processus de fabrication des produits et semi-produits, la société TREFIMETAUX s'intéresse de près aux changements brusques des prix de ce métal sur le marché des matières premières. Le but de cette étude est d'évaluer le risque, encouru par l'acheteur au comptant, dû aux variations des prix comptant et des prix à terme (3 mois).

Nous disposons de deux signaux: prix comptant ou ``spot'' et le prix à terme (maturité 3 mois) ou ``forward'' de cuivre soit deux séries de taille 4765 points.

Le test de Kolmogorov sur les séries des variations relatives des prix rejette l'hypothèse de normalité de taux de rendement et conclut à l'adéquation à une loi stable. Les valeurs estimées des paramètres à différentes échelles suivent une loi d'échelle: le diagramme en $\log-\log$ du paramètre d'échelle en fonction de la résolution fait apparaître une droite décroissante de pente 0,6. Cet exposant est différent de la valeur théorique $\frac 1\alpha - 1$, ce qui pourrait être le signe de l'existence d'un effet de longue mémoire.

Quand le prix comptant est supérieur à celui à terme, on dit que le marché est en situation de ``backwardation''. Dans le cas contraire, on dit que le marché est en situation de ``cantango''. Dans la situation de cantango, le risque est borné par un niveau financier. Dans la situation de ``backwardation'', les prix sont plus volatiles et le risque est infini. Pour ce cas, nous construisons un autre signal qui représente la différence des deux signaux de départ: \begin{displaymath}\mbox{spread}_t = \mbox{spot}_t - \mbox{forward}_t\end{displaymath}

Nous avons modélisé cette série de deux manières:

Indexation d'images par reconnaissance de textures



Participants : Bertrand Guiheneuf , Jacques Lévy Véhel , en collaboration avec le CNET


Mots-clés : bases de données d'images, indexation, recherche par le contenu, reconnaissance de textures


Résumé : Les textures sont des composantes essentielles de la description sémantique des images naturelles présentant souvent des caractéristiques ``fractales''. Profitant de l'expérience acquise lors du développement du logiciel Arthur, nous avons mis au point des méthodes permettant de rechercher rapidement des zones présentant une texture spécifique dans une base de données d'images.


``Je ne vois rien que le soleil qui poudroie et l'herbe qui verdoie''. En décrivant ainsi le panorama qui s'offre à elle du haut de la tour du château de Barbe Bleue, Soeur Anne illustre involontairement la motivation de notre travail. La description sémantique des scènes naturelles fait en effet très souvent appel à la notion de texture. Supposons que Soeur Anne ait disposé d'une base de données d'images. Elle aurait alors formulé une requête du type [ ``Herbe'' ET ``Poussière'' ET NON ``Frères'' ] afin de montrer à sa soeur une image ressemblant à ce qu'elle voyait du haut de la tour.

Notre travail a consisté à se charger des recherches concernant les deux premières assertions de la requête. Poursuivant les travaux effectués dans le cadre du développement du logiciel Arthur, nous avons développé des méthodes permettant la recherche de zones texturées à partir d'un modèle dans des bases de données d'images. En pratique, chaque image de la base est partitionnée en zones sur lesquelles sont calculés des attributs fractals de régions en nombre limité. Afin d'élargir la classe des textures auxquelles peut s'appliquer cette méthodes, nous avons aussi intégré des paramètres de régions plus classiques (matrice de cooccurrence, atomes temps-fréquence).

Ces attributs sont les index des zones. Leur diversité permet de mettre en évidence les caractéristiques particulières d'une texture par rapport à l'ensemble des textures présentes dans la base.

Quand l'utilisateur pointe une région, on évalue les attributs sur celles ci et on les compare aux valeurs statistiques des index calculés sur l'ensemble des images de la base. Pour rendre la recherche plus robuste, on attribue ainsi des notes aux différents attributs. Une distance inter-index, pondérée par les notes obtenues par les differents attributs, fournit une liste ordonnée d'images de la base classée par ordre de ressemblance (voir figures [*] et [*]).


  Figure:   Image fournie par l'utilisateur. Une recherche est lancée dans la base pour trouver des zones similaires à la zone pointée par l'utilisateur (encadrée sur l'image)

\begin{figure}\begin{center}\includegraphics [width=10cm]{guiheneu-sumi1.ps}\end{center}\end{figure}



  Figure:   Image de la base dont une zone ressemble le plus à la texture pointée par l'utilisateur. La zone la plus pertinente est encadrée

\begin{figure}\begin{center}\includegraphics [width=10cm]{guiheneu-sumi2.ps}\end{center}\end{figure}


Segmentation texturelle par les ``Types''



Participant : Paulo Gonçalvès


Mots-clés : détection M-aire, maximum de vraisemblance, texture


Résumé : Nous considérons le problème classique de détection M-aire (choix multiples) visant à décider parmi $M$ hypothèses. Pour chacune des hypothèses, nous disposons de séquences d'apprentissage enregistrées. Etant donné la séquence observée d'origine a priori inconnue, il s'agit de l'assigner à l'une des $M$ classes avec une probabilité d'erreur minimale.


Le terme de ``Type'' est défini en théorie de l'information et désigne l'histogramme renormalisé qui estime la densité de probabilité d'une variable discrète. Etant donnée une série stochastique $\{Y_n\}_{n=0}^{N-1}$, issue d'un alphabet discret de taille finie ${\cal{Y}}= \{y_1,\ldots,y_L\}$, le type $\widehat{P}_Y(y)$ est donné par:


\begin{displaymath}\sum_n \: I(Y_n = y)/N, ~~~~~~ y = y_1,\ldots,y_L,\end{displaymath}

$I(\cdot)$ est la fonction indicatrice.
Etant données les séquences d'apprentissage $X^{(m)}$ et le vecteur d'observation $R$, nous formons les types de $X^{(m)}$, de $R$, et des séquences concaténées

\begin{displaymath}Z^{(m)}=\{X^{(m)}_1,\ldots,X^{(m)}_{N_X},R_1,\ldots,R_{N_R}\},\end{displaymath}

lesquels s'écrivent simplement:

\begin{displaymath}\widehat{P}_{Z^{(m)}} ~=~ \left(N_X\widehat{P}_{X^{(m)}} + N_R \widehat{P}_R\right)/(N_X+N_R). \end{displaymath}

La règle de décision est fondée sur le test statistique suivant:

\begin{displaymath}S_m ~=~ \frac{N_X}{N_R}D(\widehat{P}_{X^{(m)}}\Vert\widehat{P}_{Z^{(m)}})+D(\widehat{P}_R\Vert\widehat{P}_{Z^{(m)}})\end{displaymath}

calculé pour chaque modèle $m$, et où $D(P_1\Vert P_2)$ désigne la distance de Kullback-Leibler. Le minimum des tests statistiques détermine alors la classe dont est issue l'observation. Ce test d'hypothèse extrêmement simple conduit à un taux d'erreur asymptotique, défini par $\lim_{N\rightarrow\infty}-\logP_e/N$, égal à celui du détecteur au sens du maximum de vraisemblance (lequel implique la connaissance des densités de probabilité a priori). [28]
Nous appliquons cette technique au problème de segmentation par analyse texturelle des images. Les séquences d'apprentissage sont obtenues en identifiant par expertise visuelle des zones texturelles différentes sur l'image (ou sur toute version traitée de cette image). Sur chacune de ces textures, on isole une imagette, laquelle servira de séquence d'apprentissage au détecteur. La phase de segmentation consiste ensuite à définir un voisinage autour de chaque pixel de l'image, l'imagette ainsi isolée correspondant à la séquence observée. Chaque observation (via son type) est alors comparée aux types des textures prédéfinie et classifiée selon le critère statistique défini ci-dessus.
Des résultats comparables aux meilleurs résultats connus dans la littérature on été obtenus sur des images test composées de textures de Brodatz.

Génération interactive d'images d'attracteurs d'IFS Mixtes par programmation génétique

 

Participants : Evelyne Lutton , Frédéric Raynal


Mots-clés : algoritme génétique, IFS mixtes


Résumé : Nous présentons ici une application de la programmation génétique interactive à la génération d'images d'attracteurs d'IFS mixtes. La PG intervient comme une aide à l'exploration d'un espace d'images, la fonction implicitement optimisée par l'algorithme est la ``satisfaction de l'utilisateur''.


Cette application se place dans le cadre d'une pré-étude pour la société Colornet, qui a pour but le développement d'une application interactive (en JAVA) de génération d'images artistiques en accord avec des profils psycho-colorimétriques donnés. Il est prévu que ce logiciel sera utilisé de façon expérimentale sur un site WEB pour aider à recueillir des données de type profil de clientèle pour le marketing.

Le logiciel est fondé sur l'emploi d'un algorithme de programmation génétique (à l'aide du logiciel PROGON), qui vise à optimiser une fonction de fitness qui est l'appréciation de l'utilisateur. A ce titre, l'on peut parler de programmation génétique interactive: l'utilisateur donne une note aux images présentées par l'algorithme, et c'est cette note qui sert de base au calcul de la fonction de fitness que l'algorithme cherche à optimiser. Cette approche n'est pas nouvelle et a été pour la première fois proposée par Karl Sims [Sim91]. Elle permet de guider une recherche aléatoire dans l'espace des formes possibles (représentées par les individus de l'AG), de façon à optimiser la ``satisfaction'' de l'utilisateur.

L'originalité de notre approche réside essentiellement dans le fait que nous manipulons des structures ``fractales'', les IFS mixtes [15] représentées par des arbres de tailles variables, qui nécessitent donc l'emploi de la programmation génétique. Un première version de cette application sera disponible sur le site WEB du projet à la fin de 1997.


  Figure:   Quelques exemples d'attracteurs d'IFS mixtes générés par programmation génétique interactive

\begin{figure}\begin{center}\mbox{\includegraphics [width=3cm]{lutton-ima1.ps... ...}\mbox{\includegraphics [width=3cm]{lutton-ima9.ps}}\end{center}\end{figure}




previous up next contents Précédent : Logiciels Remonter : Rapport activite 1997 Suivant : Actions industrielles