Précédent : Logiciels Remonter : Projet EURÉCA, Preuve, calcul symbolique
Suivant : Actions industrielles
Participants : François Bertault , Jean-Luc Rémy , Paul
Zimmermann
L'année 1997 a été marquée par deux événements importants dans le thème << structures combinatoires >> : en premier lieu la thèse de F. Bertault << Génération et tracé de structures décomposables >> soutenue en septembre [3], en second lieu l'élaboration d'un nouvel algorithme quasi-linéaire de génération aléatoire de structures décomposables [29].
Les contributions principales de la thèse de F. Bertault sont: l'élaboration d'un algorithme de rang inverse incrémental pour les structures décomposables, et la réalisation d'un prototype correspondant; la construction d'un algorithme général de tracé de graphes orientés ou non avec des noeuds de tailles différentes, pouvant eux-mêmes contenir d'autres structures. Les algorithmes de tracé développés dans cette thèse ont été implantés dans les logiciels CGRAPH et PADNON.
En collaboration avec Alain Denise du LRI et avec Laurent
Alonso (projet ISA, Nancy), P. Zimmermann a mis au point un
nouvel algorithme de génération de structures décomposables,
nommé ADZ. La différence majeure par rapport aux algorithmes
précédents est l'utilisation d'une arithmétique en virgule
flottante avec arrondis dirigés (suivant la norme IEEE 754), qui
permet d'effectuer une génération uniforme de structure de taille
en temps moyen
,contre
précédemment. Ce nouvel algorithme permet de
générer des structures contenant jusqu'à un million d'objets
atomiques. Par exemple, un arbre de MOTZKIN de taille 106 est généré en une dizaine de secondes
sur une machine Silicon Graphics R8000.
D'autre part, 1997 a également vu la parution de [6] et l'acceptation de [7]. Ces deux articles proposent des algorithmes de génération aléatoire uniforme d'arbres. Le premier est linéaire en temps dans le pire cas et s'applique à des forêts d'arbres décomposés en motifs. Le second est linéaire en moyenne, toujours en temps, et s'applique aux arbres de Schröder.
Participant : Fabrice Rouillier
Nous avons mis un accent particulier sur l'étude des zéros réels
des systèmes admettant un nombre fini de solutions complexes.
L'outil de base est la Représentation Univariée Rationnelle (RUR)
permettant de ramener tout problème à l'étude d'un unique
polynôme en une seule variable.
De nouvelles versions de l'algorithme, implantées dans notre logiciel REALSOLVING, sont en cours de test. De très gros progrès dans le traitement des systèmes polynomiaux à coefficients rationnels ont été effectués grâce à l'introduction massive de calculs multi-modulaires. Ces dernières avancées ont permis de traiter des problèmes jusqu'alors impossibles à appréhender (le problème commence à se situer plus au niveau de la lecture (resp. écriture) des données (resp. résultats) qu'au niveau des calculs). Nous envisageons maintenant une évolution des techniques de calcul pour appréhender des problèmes paramétrés.
Couplées avec un nouvel algorithme de calcul de bases de Groebner (mis au point par Jean-Charles Faugère (CNRS - LIP6)), ces méthodes permettent de ramener à des problèmes plus simples (traitement de polynômes en une variable) une très grande classe de systèmes polynomiaux zéro-dimensionnels (avec un nombre fini de racines complexes). Ces résultats ont dirigé nos recherches vers le traitement des polynômes en une variable, principal facteur bloquant de la résolution.
Nous avons donc repris, par le biais d'un stage de DEA effectué sous la responsabilité de F. Rouillier (Olivier Cormier - Université de Rennes 1), l'étude des plateformes de Stewart. Olivier Cormier à effectué un excellent état de l'art des meilleures approches actuelles (mise en équation en vue d'une résolution par le calcul exact - Bernard Mourrain, Daniel Lazard) et a mis en place de façon pratique certaines de ces idées. Nous avons utilisé ces résultats avec Luc Rolland, chercheur en automatisme de l'École Polytechnique Fédérale de Lausanne pour aider à la mise au point de robots parallèles spécifiques (robot hexapode, delta). Les premiers résultats sont très encourageants, surtout en termes de performances.
Fort des progrès effectués sur les systèmes polynomiaux zéro-dimensionnels, nous avons avancé sur les tests d'existence de racines réelles dans le cas d'hypersurfaces (l'outil de base est la RUR). Un premier algorithme, dont la complexité théorique est polynomiale, devrait voir le jour de façon effective (intégré au logiciel REALSOLVING) dès l'année prochaine.
Participant : Fabrice Rouillier
Nous avons participé activement au calcul de nouveaux filtres de
compression d'images de dimension deux dont la particularité est
d'être à la fois non séparables, à phase linéaire, orthogonaux et
générant des bases d'ondelettes régulières.
Il s'agit d'un travail de collaboration avec Jean-Charles Faugère (LIP6 - CNRS) et François Moreau de Saint Martin (France Télécom - CCETT Rennes). Nous sommes principalement intervenus dans la partie calcul symbolique dont le but était de rechercher un maximum de conditions de platitude pour une famille bien définie de filtres (Vetterli-Kovacevic).
Grâce à l'utilisation combinée des logiciels GB (Jean-Charles Faugère) et REALSOLVING (Fabrice Rouillier), nous avons pu fournir de nouvelles familles de filtres paramétrées ayant les caractéristiques décrites plus haut. Pour un choix des paramètres (choix effectué par François Moreau de Saint Martin) nous avons pu exhiber un filtre utilisable en pratique dont les performances sont tout à fait concurrentielles des filtres classiques. Ce filtre non séparable, orthogonal et à phase linéaire génére, à notre connaissance, les bases d'ondelettes les plus régulières connues à ce jour.
Cette année a été dédiée à l'écriture de l'article accepté pour publication dans IEEE SP Transactions, Special Issue on Theory and Applications of Filter Banks and Wavelets.
Une demande de brevet a été déposée en 1996, revendiquant la propriété des familles paramétrées de filtres calculées.
Participants : Fabrice Rouillier , Paul Zimmermann
Nous avons mis au point et implanté une toute nouvelle version de
l'algorithme de Uspensky (basé sur la règle de Descartes). Cet
algorithme permet d'isoler par des intervalles à bornes
rationnelles (celles-ci sont exactes car nous utilisons une
arithmétique multi-précision) tous les zéros réels d'un polynôme
en une variable. Il était déjà présent dans notre logiciel sous
une forme standard, et donnait déjà des résultats satisfaisants
(comparables aux algorithmes numériques) sur les polynômes de la
RUR. La nouvelle version ne préserve de l'algorithme initial que
le nom (dû au théorème utilisé pour en prouver la correction) et
donne des résultats des plus surprenants. Il est semble-t-il
beaucoup plus efficace que tous les algorithmes existants sur les
polynômes de la RUR et très concurrentiel sur les polynômes
classiquement utilisés pour l'évaluation des algorithmes
numériques (polynômes de Mignotte, Chebychev, ...). Contrairement
à son prédécesseur, il permet a priori de traiter tout système
polynomial pour lequel la RUR est calculable.
Participants : Vladimir Grébinski , Grégory Kucherov
Durant l'année 1997 nous avons poursuivi les travaux sur la recherche combinatoire. Dans notre cas, l'objet à identifier est un graphe et la question porte sur un sous-ensemble de noeuds de ce graphe. Le sujet principal de nos études est le modèle dit quantitatif (ou additif) sous lequel la réponse révèle le nombre d'arêtes entre les noeuds du sous-ensemble testé. De plus, nous nous sommes focalisés sur les algorithmes non-adaptatifs qui sont ceux où aucune question ne dépend de réponses aux questions précédentes. Les algorithmes non-adaptatifs sont certes plus limités en général. Cependant, ils mettent en oeuvre des méthodes mathématiques très riches et atteignent souvent la puissance des algorithmes adaptatifs. Un algorithme non-adaptatif se formalise facilement comme un objet combinatoire, par exemple une matrice booléenne vérifiant certaines propriétés, dont l'existence peut être prouvée par une méthode probabiliste.[AS92] Avec cette approche, nous avons étudié certaines classes de matrices et en particulier, nous avons établi une nouvelle borne supérieure pour les matrices dites d-séparatrices ce qui répond à la question posée par B. Lindström en 1975.[Lin75]
En utilisant l'outil des matrices séparatrices nous avons
prouvé l'existence d'algorithmes non-adaptatifs optimaux pour
plusieurs classes de graphes telles que les graphes généraux, les
graphes à degré borné et les arbres. Certains de ces algorithmes
admettent une définition constructive. Les graphes à degré borné
forment une très large classe contenant plusieurs sous-classes
importantes (les chemins et cycles Hamiltoniens, les couplages
dans les graphes bipartis, les graphes -coloriables) qui ont
été étudiées séparément et pour lesquelles des solutions
améliorées ont été trouvées. Ce travail a été présenté à la
conférence internationale European Symposium on Algorithms
[24] et une version
étendue de l'article est soumise à la revue
Algorithmica.
Notons que ces études assez théoriques proviennent en fait
d'une application pratique à la construction d'une carte physique
de génomes (cf section ). Dans le travail précédent, nous
avons formalisé une méthode de construction de carte physique
comme un problème de recherche combinatoire pour des graphes
particuliers, à savoir les chemins Hamiltoniens dans le graphe
complet à n noeuds. L'article décrivant ce travail a été
présenté en juin 1997 au 5th Israeli Symposium on Theory of
Computing and Systems [23].
De nouvelles bornes ont été obtenues récemment pour des classes de graphes avec degré non borné, comme les arbres par exemple. De nombreuses questions sont encore ouvertes, faisant de cette recherche un domaine prometteur.
Participants : Grégory Kucherov , François Bertault
Mots-clés : recherche de motifs, mots sans puissance
n
Nous continuons à nous intéresser à la problématique de
recherche de motifs dans les séquences. Cette année, nous avons
fait un travail expérimental qui a consisté à étendre
l'implantation de l'algorithme de recherche de motifs, proposé
par G. Kucherov et M. Rusinowitch en 1995 (la version
complète de l'article décrivant cet algorithme est parue cette
année dans Theoretical Computer Science [14]). Rappelons que cet
algorithme recherche de façon simultanée plusieurs motifs de la
forme où les
sont des mots
donnés et
est un symbole spécial (don't care symbol)
qui peut être substitué par n'importe quel mot. L'algorithme,
basé sur la structure de données appelée DAWG (Directed
Acyclic Word Graph), peut être vu comme un automate fini qui
change dynamiquement au cours de son travail. Précédemment
l'algorithme avait été implanté en C dans un logiciel
appelé GRAPPE (cf http://www.loria.fr/~kucherov/SOFTWARE/grappe-1.0).
Nous avons étendu cette implantation en la combinant avec le
logiciel PADNON d'affichage de graphes,
développé par F. Bertault (cf section
).
L'idée consiste à utiliser PADNON pour
visualiser l'évolution du DAWG au cours de l'algorithme. Cette
extension, décrite dans [38], pourrait permettre
d'avoir une meilleure compréhension du processus de recherche et
éventuellement d'y apporter des améliorations.
Plusieurs algorithmes de recherche de motifs reposent sur des
propriétés combinatoires du mot. Les études théoriques sur la
combinatoire du mot sont donc également dans notre champ de
recherche. En particulier, elles font l'objet d'un projet de
collaboration au sein de l'Institut franco-russe
A. M. Liapounov d'informatique et de mathématiques
appliquées. Dans le cadre de ce projet, nous nous intéressons à
un sujet << classique >> de la théorie des langages,
à savoir les propriétés de mots infinis sans puissance n,
c'est-à-dire ne contenant pas de facteur de la forme .
Depuis les travaux de Thue du début du siècle, on sait qu'il
existe des mots infinis composés de 3 lettres sans puissance
et des mots infinis binaires sans puissance 3. En
collaboration avec Roman Kolpakov, nous avons démontré quelques
propriétés complémentaires des mots binaires sans puissance
n (
) qui concernent la minimisation de leur
<< poids >>, où le poids d'un mot est caractérisé par
le taux 1 dans ce mot. Nous avons prouvé, en particulier, que le
taux limite minimal 1 dans les mots infinis sans puissance
est asymptotiquement de
. Ceci implique, entre
autres, que pour tout n il existe des mots infinis sans puissance
n mais contenant des puissances n - 1. Nous avons également
étudié une généralisation de la fonction de taux pour les
puissances réelles (et non pas seulement pour les entiers) et
nous avons prouvé quelques propriétés intéressantes de cette
fonction. Ces résultats ont été présentés à la conférence
internationale Mathematical Foundations of Computer
Science qui s'est tenue à Bratislava en août 1997 [27].
Participants : Grégory Kucherov , Vladimir Grébinski
L'analyse de génomes reste un domaine d'application priviligié
pour nos travaux sur la recherche combinatoire (cf section
) et l'analyse de séquences (cf
section
). Notre intérêt pour la recherche
combinatoire a été déclenché par un problème issu d'une
application biologique précise - concevoir un protocole efficace
pour construire une carte physique du génome bactérien selon la
méthode pratiquée au Laboratoire de Génétique Microbienne de
l'INRA à Jouy-en-Josas.[Sa96]
L'analyse mathématique de ce problème a conduit à la publication
[23] dont une
version étendue est acceptée pour publication dans la revue
Discrete Applied Mathematics, Special Issue on Computational
Molecular Biology.
Par ailleurs, nous faisons partie du réseau <<Informatique et Génomes>> qui vient de se constituer en réponse à l'appel d'offres du CNRS sur le génome. Ce réseau succède au GdR 1029 <<Informatique et génomes>> et réunit une part importante de la communauté française travaillant dans ce domaine.
Participants : Jean-Luc Rémy , Sapphorain Pétermann
Le premier résultat de J.-L. Rémy sur la suite autoconstruite de
Golomb, évoqué dans le rapport d'activité de 1996, a conduit à
une publication [16].
Par ailleurs la collaboration avec Sapphorain Pétermann,
commencée en 1996, a abouti à un article accepté dans Illinois
Journal of Mathematics [15]. Nous avons mené divers calculs
pour tenter de préciser le comportement asymptotique de la suite
de Golomb. Cela nous conduit à plusieurs pistes de travail que
nous explorerons au cours de deux nouveaux séjours de Sapphorain
Pétermann en 1997-98.
Participants : Bouteïna Chetali , Barbara Heyd
Mots-clés : preuve de programmes, méthode
formelle,vérification de programmes
Cette année a permis à B. Heyd de faire la synthèse de ses travaux sur la vérification des programmes décrits en UNITY à l'aide de COQ. Sa recherche se divise en deux parties :
- La première partie s'intéresse au codage de la logique en COQ [Coq95]. La logique a été formalisée suivant le modèle état-transition proposé par Chandy et Misra. Mais il s'avère que, d'un point de vue théorique, cette logique présente quelques inconsistances. En effet, Sanders [San91] démontre que la logique est inconsistante par l'utilisation de l'axiome de substitution dans les preuves et incomplète sinon. En s'appuyant sur ces travaux, sur ceux de Misra [Mis94] et en collaboration avec Pierre Crégut (CNET-Lannion), une nouvelle logique UNITY a été proposée. Cette nouvelle logique introduit la notion d'environnement de programmes et définit de nouveaux opérateurs tenant compte de cet environnement de programmes. La complétude et la correction de cette logique sont démontrées dans COQ. En collaboration avec B. Chetali, une comparaison des deux implantations d'UNITY effectuées respectivement en COQ et en LP a fait l'objet d'un article [22], qui a été présenté à la conférence TPHOL (Theorem Proving in Higher Order Logic) se tenant aux États-Unis (Murray-Hill/NJ) du 19 au 22 août 1997.
- La seconde partie s'intéresse à l'utilisation de l'outil formel développé sur divers exemples. Après des exemples d'école comme la division euclidienne ou le problème des lecteurs rédacteurs, B. Heyd s'est intéressée à la vérification d'un protocole appelé le parking et à la composition de plusieurs contrôleurs d'ascenseur. Si le premier met en avant la difficulté d'utilisation des tableaux et des actions quantifiées dans COQ, le deuxième met à profit la notion d'environnement et les nouveaux opérateurs de la Logique. La deuxième étude a donné lieu à un résultat paru dans [26], qui a été présenté à la conférence Renpar'9 se déroulant en Suisse du 20 au 23 mai 1997. B. Heyd a travaillé avec P. Crégut dans la vérification formelle d'un protocole développé au CNET, l'ABT/DT ATM Block Transfert/ Delayed Transmission. Ils ont, tous deux, participé à l'élaboration de la spécification du protocole. Aprs le codage du protocole dans l'outil formel, certaines propriétés ont été démontrées.
Participants : Zine-el-Abidine Benaissa , Pierre
Lescanne
L'année 1997 a été marquée par la thèse de Z. Benaissa sur le thème << fondements des implantations de langages fonctionnels >> soutenue au mois d'octobre [2]. Les contributions principales de la thèse de Z. Benaissa sont d'une part l'étude des propriétés des calculs de substitutions explicites, formalismes permettant de décrire l'opération de substitution dans les fonctions, d'autre part l'utilisation effective des calculs de substitutions explicites pour la description formelle des implantations de langages fonctionnels. Grâce à cette modélisation, la correction des techniques de mise en oeuvre de ces langages est démontrée. Les résultats de cette seconde partie seront publiés dans [8].
Participants : Daniel Briaud , Pierre Lescanne
La recherche sur les substitutions explicites a conduit à deux types d'études. D. Briaud a présenté dans sa thèse [4] une procédure d'unification d'ordre supérieur qui est simple dans sa présentation et qui minimise les concepts mis en jeu. P. Lescanne a, quant à lui, prouvé la forte normalisation (terminaison) d'un calcul de substitutions explicites simplement typé ouvrant la voie à des généralisations.
Participants : Guillaume Bonfante , Adam Cichon , Sohame
Selhab , Hélène Touzet
Mots-clés : réécriture, terminaison, élimination de
coupures
Notre travail concerne principalement l'étude de preuves de terminaison de programmes et l'analyse de notions fondamentales de récursion qui en découlent.
Un aspect important de ce travail concerne les preuves de terminaison automatiques. Les méthodes connues dans ce domaine sont les preuves syntaxiques dites ordres de terminaison qui reviennent à vérifier la forme syntaxique d'un ensemble de règles de réécriture et à assurer la terminaison si la forme syntaxique des règles respecte certains schémas. Cette méthode est particulièrement facile à mettre en oeuvre mais elle souffre d'une certaine rigidité. Il y a de nombreux exemples intéressants où les ordres connus ne peuvent pas être appliqués.
Une autre méthode utilise des interprétations dans lesquelles les symboles de fonction de la signature sont interprétés comme des opérateurs totaux sur un domaine bien fondé. Cette méthode est plus flexible que les ordres de terminaison mais souffre de la difficulté à trouver des opérateurs d'interprétation corrects. Ce problème est, en fait, indécidable.
Nos travaux concernent une combinaison de ces méthodes. L'idée est d'utiliser des hiérarchies de fonctions sur les entiers indexées par termes ordinaux comme de potentiels opérateurs d'interprétation.
En nous débarrassant de certaines restrictions classiques des définitions d'ordinaux, nous obtenons une structure ordinale plus riche d'où résulte une classe plus vaste de preuves de terminaison. Cette structure enrichie peut être considérée comme une structure qui englobe tous les ordres de terminaison connus. En fait, on simule des définitions récursives par une récursion ordinale. Cela a pour conséquence de réduire le problème de terminaison à la solution d'un ensemble d'équations ordinales arithmétiques. Si une solution existe, la terminaison est alors prouvée. Comme cela est toujours le cas avec les méthodes uniformes de terminaison, le succès n'est pas toujours garanti. Néanmoins, cette méthode a donné naissance à des preuves de terminaison pour certains systèmes compliqués [5,11].
H. Touzet s'est préoccupée de l'étude d'une classe générale d'ordres de terminaison basés sur les théorèmes de Higman et de Kruskal : les ordres de simplification. Ses investigations dans les ordres de simplification l'ont menée à des nouvelles analyses du théorème de Higman, différentes de celle de [10], et à des nouveaux résultats concernant la complexité des systèmes de réécriture de mots, ou de termes, qui terminent par simplification. Ces travaux se sont concrétisés par l'obtention du doctorat, en septembre dernier [5].
En reprenant les travaux de H. Touzet et A. Cichon,
qui ont conduit à la proposition d'un système syntaxique de
termes ordinaux adaptés à des preuves de terminaison, Guillaume
Bonfante étudie actuellement la sémantique pour ce système en
s'appuyant sur la théorie des catégories. L'inspiration de cette
approche provient de l'article de J-Y. Girard sur la logique
et d'un manuscrit d'un livre de H. Simmons,
où on propose un système d'ordinaux construit en utilisant des
termes du lambda-calcul. G. Bonfante a notamment proposé le
concept d'arborescence qui permet de coder la complexité d'un
processus et qui peut être vu à la fois comme un foncteur de la
catégorie des mots sur les nombres naturels vers la catégorie des
ordres totaux, et comme une fonction des mots sur les nombres
naturels.
L'application des développements décrits ci-dessus se trouve dans la théorie de la démonstration. S. Selhab travaille depuis le début de sa thèse sur la représentation de l'élimination des coupures par des systèmes de réécriture.
Le théorème d'élimination des coupures de Gentzen est un résultat fondamental de la théorie des preuves. Il stipule que toute preuve du calcul des séquents classique ou intuitionniste peut être transformée en une preuve normale ne faisant pas intervenir la règle de la coupure. Gentzen a établi ce théorème en décrivant une procédure effective de normalisation. Sa méthode fut plus tard modifiée et étendue par Tait et Girard. Dans tous ces cas, une stratégie particulière de normalisation est utilisée. Une question naturelle est de savoir si toute séquence de réductions produit une preuve normale. Notre travail a consisté à utiliser des techniques syntaxiques de réécriture pour établir que la procédure d'élimination des coupures termine selon toute stratégie. Nous construisons un système de réécriture S réalisant la normalisation des preuves. Plus précisément, nous représentons les preuves par des termes puis nous réalisons l'extraction des règles de réécriture appropriées en faisant abstraction de la stratégie de réduction employée dans la procédure de normalisation de Gentzen. On prouve alors que le système obtenu termine par des méthodes provenant de la théorie de la réécriture. Cette approche a été étendue aux calculs des séquents intuitionniste et linéaire [9]. L'utilisation de la théorie de la réécriture permet de borner la complexité du processus d'élimination des coupures.
Participants : Nicolas Hermann , Laurent Juban , Phokion
G. Kolaitis
N. Hermann et Phokion G. Kolaitis [25] ont analysé la complexité des problèmes d'unification et de disunification élémentaires pour la théorie équationnelle ACI des semigroupes commutatifs et idempotents. Il est connu que le problème de décision pour l'unification ACI élémentaire peut être résolu en temps polynomial déterministe. Les auteurs ont démontré que ce problème est intrinsèquement séquentiel, en prouvant qu'il est P-complet (complet pour le temps polynomial déterministe) par les réductions en espace logarithmique. Ils ont étudié les problèmes de décision et de comptage pour le filtrage ACI élémentaire et ont démontré que le premier peut être résolu en espace logarithmique, tandis que le deuxième est #P-complet. Ensuite, ils ont analysé la complexité du problème de décision pour la disunification ACI élémentaire pour la sémantique close. Finalement, les auteurs ont étudié la complexité d'une version restreinte du filtrage ACI élémentaire qui apparaît naturellement comme un problème de filtrage des ensembles de termes dans le contexte du langage de données LDL. Pour toutes ces questions, N. Hermann et P.G. Kolaitis ont établi la frontière entre des cas polynomiaux et des cas NP-difficiles en considérant deux paramètres, le nombre de constantes libres et le nombre de diséquations ou d'équations à résoudre.
Participant : Nicolas Hermann
L'article principal sur la schématisation par les grammaires primales [13] est finalement paru.
En collaboration avec Ali Amaniss et Denis Lugiez de l'équipe Prothéo, N. Hermann a étudié la schématisation des termes itérés sous l'aspect ensembliste [21]. En particulier, les auteurs se sont intéressés aux opérations ensemblistes sur les ensembles schématisés. Ils ont montré que certaines opérations s'effectuent à l'aide d'algorithmes connus et ont donné des contre-exemples à des extensions de propriétés naturelles sur les termes. Finalement, les auteurs ont résolu le problème de généralisation des termes itérés par un algorithme d'énumération, qu'ils ont raffiné pour des généralisations des termes du premier ordre.