Projet Eureca

previous up next contents
Précédent : Logiciels Remonter : Projet EURÉCA, Preuve, calcul symbolique Suivant : Actions industrielles



Résultats nouveaux

Algorithmique

Génération aléatoire et tracé de structures combinatoires



Participants : François Bertault , Jean-Luc Rémy , Paul Zimmermann


L'année 1997 a été marquée par deux événements importants dans le thème << structures combinatoires >> : en premier lieu la thèse de F. Bertault << Génération et tracé de structures décomposables >> soutenue en septembre [3], en second lieu l'élaboration d'un nouvel algorithme quasi-linéaire de génération aléatoire de structures décomposables [29].

Les contributions principales de la thèse de F. Bertault sont: l'élaboration d'un algorithme de rang inverse incrémental pour les structures décomposables, et la réalisation d'un prototype correspondant; la construction d'un algorithme général de tracé de graphes orientés ou non avec des noeuds de tailles différentes, pouvant eux-mêmes contenir d'autres structures. Les algorithmes de tracé développés dans cette thèse ont été implantés dans les logiciels CGRAPH et PADNON.

En collaboration avec Alain Denise du LRI et avec Laurent Alonso (projet ISA, Nancy), P. Zimmermann a mis au point un nouvel algorithme de génération de structures décomposables, nommé ADZ. La différence majeure par rapport aux algorithmes précédents est l'utilisation d'une arithmétique en virgule flottante avec arrondis dirigés (suivant la norme IEEE 754), qui permet d'effectuer une génération uniforme de structure de taille $n$ en temps moyen $O(n \log^2 n)$,contre $O(n^3 \log^3 n)$ précédemment. Ce nouvel algorithme permet de générer des structures contenant jusqu'à un million d'objets atomiques. Par exemple, un arbre de MOTZKIN de taille 106 est généré en une dizaine de secondes sur une machine Silicon Graphics R8000.

D'autre part, 1997 a également vu la parution de [6] et l'acceptation de [7]. Ces deux articles proposent des algorithmes de génération aléatoire uniforme d'arbres. Le premier est linéaire en temps dans le pire cas et s'applique à des forêts d'arbres décomposés en motifs. Le second est linéaire en moyenne, toujours en temps, et s'applique aux arbres de Schröder.

La résolution des systèmes polynomiaux



Participant : Fabrice Rouillier


Nous avons mis un accent particulier sur l'étude des zéros réels des systèmes admettant un nombre fini de solutions complexes. L'outil de base est la Représentation Univariée Rationnelle (RUR) permettant de ramener tout problème à l'étude d'un unique polynôme en une seule variable.

De nouvelles versions de l'algorithme, implantées dans notre logiciel REALSOLVING, sont en cours de test. De très gros progrès dans le traitement des systèmes polynomiaux à coefficients rationnels ont été effectués grâce à l'introduction massive de calculs multi-modulaires. Ces dernières avancées ont permis de traiter des problèmes jusqu'alors impossibles à appréhender (le problème commence à se situer plus au niveau de la lecture (resp. écriture) des données (resp. résultats) qu'au niveau des calculs). Nous envisageons maintenant une évolution des techniques de calcul pour appréhender des problèmes paramétrés.

Couplées avec un nouvel algorithme de calcul de bases de Groebner (mis au point par Jean-Charles Faugère (CNRS - LIP6)), ces méthodes permettent de ramener à des problèmes plus simples (traitement de polynômes en une variable) une très grande classe de systèmes polynomiaux zéro-dimensionnels (avec un nombre fini de racines complexes). Ces résultats ont dirigé nos recherches vers le traitement des polynômes en une variable, principal facteur bloquant de la résolution.

Nous avons donc repris, par le biais d'un stage de DEA effectué sous la responsabilité de F. Rouillier (Olivier Cormier - Université de Rennes 1), l'étude des plateformes de Stewart. Olivier Cormier à effectué un excellent état de l'art des meilleures approches actuelles (mise en équation en vue d'une résolution par le calcul exact - Bernard Mourrain, Daniel Lazard) et a mis en place de façon pratique certaines de ces idées. Nous avons utilisé ces résultats avec Luc Rolland, chercheur en automatisme de l'École Polytechnique Fédérale de Lausanne pour aider à la mise au point de robots parallèles spécifiques (robot hexapode, delta). Les premiers résultats sont très encourageants, surtout en termes de performances.

Fort des progrès effectués sur les systèmes polynomiaux zéro-dimensionnels, nous avons avancé sur les tests d'existence de racines réelles dans le cas d'hypersurfaces (l'outil de base est la RUR). Un premier algorithme, dont la complexité théorique est polynomiale, devrait voir le jour de façon effective (intégré au logiciel REALSOLVING) dès l'année prochaine.

Filtrage et compression d'images



Participant : Fabrice Rouillier


Nous avons participé activement au calcul de nouveaux filtres de compression d'images de dimension deux dont la particularité est d'être à la fois non séparables, à phase linéaire, orthogonaux et générant des bases d'ondelettes régulières.

Il s'agit d'un travail de collaboration avec Jean-Charles Faugère (LIP6 - CNRS) et François Moreau de Saint Martin (France Télécom - CCETT Rennes). Nous sommes principalement intervenus dans la partie calcul symbolique dont le but était de rechercher un maximum de conditions de platitude pour une famille bien définie de filtres (Vetterli-Kovacevic).

Grâce à l'utilisation combinée des logiciels GB (Jean-Charles Faugère) et REALSOLVING (Fabrice Rouillier), nous avons pu fournir de nouvelles familles de filtres paramétrées ayant les caractéristiques décrites plus haut. Pour un choix des paramètres (choix effectué par François Moreau de Saint Martin) nous avons pu exhiber un filtre utilisable en pratique dont les performances sont tout à fait concurrentielles des filtres classiques. Ce filtre non séparable, orthogonal et à phase linéaire génére, à notre connaissance, les bases d'ondelettes les plus régulières connues à ce jour.

Cette année a été dédiée à l'écriture de l'article accepté pour publication dans IEEE SP Transactions, Special Issue on Theory and Applications of Filter Banks and Wavelets.

Une demande de brevet a été déposée en 1996, revendiquant la propriété des familles paramétrées de filtres calculées.

Racines réelles de polynômes en une variable



Participants : Fabrice Rouillier , Paul Zimmermann


Nous avons mis au point et implanté une toute nouvelle version de l'algorithme de Uspensky (basé sur la règle de Descartes). Cet algorithme permet d'isoler par des intervalles à bornes rationnelles (celles-ci sont exactes car nous utilisons une arithmétique multi-précision) tous les zéros réels d'un polynôme en une variable. Il était déjà présent dans notre logiciel sous une forme standard, et donnait déjà des résultats satisfaisants (comparables aux algorithmes numériques) sur les polynômes de la RUR. La nouvelle version ne préserve de l'algorithme initial que le nom (dû au théorème utilisé pour en prouver la correction) et donne des résultats des plus surprenants. Il est semble-t-il beaucoup plus efficace que tous les algorithmes existants sur les polynômes de la RUR et très concurrentiel sur les polynômes classiquement utilisés pour l'évaluation des algorithmes numériques (polynômes de Mignotte, Chebychev, ...). Contrairement à son prédécesseur, il permet a priori de traiter tout système polynomial pour lequel la RUR est calculable.

Algorithmes de recherche combinatoire

 

Participants : Vladimir Grébinski , Grégory Kucherov


Durant l'année 1997 nous avons poursuivi les travaux sur la recherche combinatoire. Dans notre cas, l'objet à identifier est un graphe et la question porte sur un sous-ensemble de noeuds de ce graphe. Le sujet principal de nos études est le modèle dit quantitatif (ou additif) sous lequel la réponse révèle le nombre d'arêtes entre les noeuds du sous-ensemble testé. De plus, nous nous sommes focalisés sur les algorithmes non-adaptatifs qui sont ceux où aucune question ne dépend de réponses aux questions précédentes. Les algorithmes non-adaptatifs sont certes plus limités en général. Cependant, ils mettent en oeuvre des méthodes mathématiques très riches et atteignent souvent la puissance des algorithmes adaptatifs. Un algorithme non-adaptatif se formalise facilement comme un objet combinatoire, par exemple une matrice booléenne vérifiant certaines propriétés, dont l'existence peut être prouvée par une méthode probabiliste.[AS92] Avec cette approche, nous avons étudié certaines classes de matrices et en particulier, nous avons établi une nouvelle borne supérieure pour les matrices dites d-séparatrices ce qui répond à la question posée par B. Lindström en 1975.[Lin75]

En utilisant l'outil des matrices séparatrices nous avons prouvé l'existence d'algorithmes non-adaptatifs optimaux pour plusieurs classes de graphes telles que les graphes généraux, les graphes à degré borné et les arbres. Certains de ces algorithmes admettent une définition constructive. Les graphes à degré borné forment une très large classe contenant plusieurs sous-classes importantes (les chemins et cycles Hamiltoniens, les couplages dans les graphes bipartis, les graphes $c$-coloriables) qui ont été étudiées séparément et pour lesquelles des solutions améliorées ont été trouvées. Ce travail a été présenté à la conférence internationale European Symposium on Algorithms [24] et une version étendue de l'article est soumise à la revue Algorithmica.

Notons que ces études assez théoriques proviennent en fait d'une application pratique à la construction d'une carte physique de génomes (cf section [*]). Dans le travail précédent, nous avons formalisé une méthode de construction de carte physique comme un problème de recherche combinatoire pour des graphes particuliers, à savoir les chemins Hamiltoniens dans le graphe complet à n noeuds. L'article décrivant ce travail a été présenté en juin 1997 au 5th Israeli Symposium on Theory of Computing and Systems [23].

De nouvelles bornes ont été obtenues récemment pour des classes de graphes avec degré non borné, comme les arbres par exemple. De nombreuses questions sont encore ouvertes, faisant de cette recherche un domaine prometteur.

Algorithmes d'analyse de séquences et combinatoire du mot

 

Participants : Grégory Kucherov , François Bertault


Mots-clés : recherche de motifs, mots sans puissance n


Nous continuons à nous intéresser à la problématique de recherche de motifs dans les séquences. Cette année, nous avons fait un travail expérimental qui a consisté à étendre l'implantation de l'algorithme de recherche de motifs, proposé par G. Kucherov et M. Rusinowitch en 1995 (la version complète de l'article décrivant cet algorithme est parue cette année dans Theoretical Computer Science [14]). Rappelons que cet algorithme recherche de façon simultanée plusieurs motifs de la forme $v_1*v_2* \ldots *v_m$ où les $v_i$ sont des mots donnés et $*$ est un symbole spécial (don't care symbol) qui peut être substitué par n'importe quel mot. L'algorithme, basé sur la structure de données appelée DAWG (Directed Acyclic Word Graph), peut être vu comme un automate fini qui change dynamiquement au cours de son travail. Précédemment l'algorithme avait été implanté en C dans un logiciel appelé GRAPPE (cf http://www.loria.fr/~kucherov/SOFTWARE/grappe-1.0). Nous avons étendu cette implantation en la combinant avec le logiciel PADNON d'affichage de graphes, développé par F. Bertault (cf section [*]). L'idée consiste à utiliser PADNON pour visualiser l'évolution du DAWG au cours de l'algorithme. Cette extension, décrite dans [38], pourrait permettre d'avoir une meilleure compréhension du processus de recherche et éventuellement d'y apporter des améliorations.

Plusieurs algorithmes de recherche de motifs reposent sur des propriétés combinatoires du mot. Les études théoriques sur la combinatoire du mot sont donc également dans notre champ de recherche. En particulier, elles font l'objet d'un projet de collaboration au sein de l'Institut franco-russe A. M. Liapounov d'informatique et de mathématiques appliquées. Dans le cadre de ce projet, nous nous intéressons à un sujet << classique >> de la théorie des langages, à savoir les propriétés de mots infinis sans puissance n, c'est-à-dire ne contenant pas de facteur de la forme $x^n$. Depuis les travaux de Thue du début du siècle, on sait qu'il existe des mots infinis composés de 3 lettres sans puissance $2$ et des mots infinis binaires sans puissance 3. En collaboration avec Roman Kolpakov, nous avons démontré quelques propriétés complémentaires des mots binaires sans puissance n ($n\geq 3$) qui concernent la minimisation de leur << poids >>, où le poids d'un mot est caractérisé par le taux 1 dans ce mot. Nous avons prouvé, en particulier, que le taux limite minimal 1 dans les mots infinis sans puissance $n$est asymptotiquement de $1/n$. Ceci implique, entre autres, que pour tout n il existe des mots infinis sans puissance n mais contenant des puissances n - 1. Nous avons également étudié une généralisation de la fonction de taux pour les puissances réelles (et non pas seulement pour les entiers) et nous avons prouvé quelques propriétés intéressantes de cette fonction. Ces résultats ont été présentés à la conférence internationale Mathematical Foundations of Computer Science qui s'est tenue à Bratislava en août 1997 [27].

Analyse de génomes

 

Participants : Grégory Kucherov , Vladimir Grébinski


L'analyse de génomes reste un domaine d'application priviligié pour nos travaux sur la recherche combinatoire (cf section [*]) et l'analyse de séquences (cf section [*]). Notre intérêt pour la recherche combinatoire a été déclenché par un problème issu d'une application biologique précise - concevoir un protocole efficace pour construire une carte physique du génome bactérien selon la méthode pratiquée au Laboratoire de Génétique Microbienne de l'INRA à Jouy-en-Josas.[Sa96] L'analyse mathématique de ce problème a conduit à la publication [23] dont une version étendue est acceptée pour publication dans la revue Discrete Applied Mathematics, Special Issue on Computational Molecular Biology.

Par ailleurs, nous faisons partie du réseau <<Informatique et Génomes>> qui vient de se constituer en réponse à l'appel d'offres du CNRS sur le génome. Ce réseau succède au GdR 1029 <<Informatique et génomes>> et réunit une part importante de la communauté française travaillant dans ce domaine.

Évaluation asymptotique de fonctions arithmétiques



Participants : Jean-Luc Rémy , Sapphorain Pétermann


Le premier résultat de J.-L. Rémy sur la suite autoconstruite de Golomb, évoqué dans le rapport d'activité de 1996, a conduit à une publication [16]. Par ailleurs la collaboration avec Sapphorain Pétermann, commencée en 1996, a abouti à un article accepté dans Illinois Journal of Mathematics [15]. Nous avons mené divers calculs pour tenter de préciser le comportement asymptotique de la suite de Golomb. Cela nous conduit à plusieurs pistes de travail que nous explorerons au cours de deux nouveaux séjours de Sapphorain Pétermann en 1997-98.

Preuve

Vérification de programmes parallèles



Participants : Bouteïna Chetali , Barbara Heyd


Mots-clés : preuve de programmes, méthode formelle,vérification de programmes


Coq-Unity.

Cette année a permis à B. Heyd de faire la synthèse de ses travaux sur la vérification des programmes décrits en UNITY à l'aide de COQ. Sa recherche se divise en deux parties :

- La première partie s'intéresse au codage de la logique en COQ [Coq95]. La logique a été formalisée suivant le modèle état-transition proposé par Chandy et Misra. Mais il s'avère que, d'un point de vue théorique, cette logique présente quelques inconsistances. En effet, Sanders [San91] démontre que la logique est inconsistante par l'utilisation de l'axiome de substitution dans les preuves et incomplète sinon. En s'appuyant sur ces travaux, sur ceux de Misra [Mis94] et en collaboration avec Pierre Crégut (CNET-Lannion), une nouvelle logique UNITY a été proposée. Cette nouvelle logique introduit la notion d'environnement de programmes et définit de nouveaux opérateurs tenant compte de cet environnement de programmes. La complétude et la correction de cette logique sont démontrées dans COQ. En collaboration avec B. Chetali, une comparaison des deux implantations d'UNITY effectuées respectivement en COQ et en LP a fait l'objet d'un article [22], qui a été présenté à la conférence TPHOL (Theorem Proving in Higher Order Logic) se tenant aux États-Unis (Murray-Hill/NJ) du 19 au 22 août 1997.

- La seconde partie s'intéresse à l'utilisation de l'outil formel développé sur divers exemples. Après des exemples d'école comme la division euclidienne ou le problème des lecteurs rédacteurs, B. Heyd s'est intéressée à la vérification d'un protocole appelé le parking et à la composition de plusieurs contrôleurs d'ascenseur. Si le premier met en avant la difficulté d'utilisation des tableaux et des actions quantifiées dans COQ, le deuxième met à profit la notion d'environnement et les nouveaux opérateurs de la Logique. La deuxième étude a donné lieu à un résultat paru dans [26], qui a été présenté à la conférence Renpar'9 se déroulant en Suisse du 20 au 23 mai 1997. B. Heyd a travaillé avec P. Crégut dans la vérification formelle d'un protocole développé au CNET, l'ABT/DT ATM Block Transfert/ Delayed Transmission. Ils ont, tous deux, participé à l'élaboration de la spécification du protocole. Aprs le codage du protocole dans l'outil formel, certaines propriétés ont été démontrées.

Les fondements des implantations des langages fonctionnels



Participants : Zine-el-Abidine Benaissa , Pierre Lescanne


L'année 1997 a été marquée par la thèse de Z. Benaissa sur le thème << fondements des implantations de langages fonctionnels >> soutenue au mois d'octobre [2]. Les contributions principales de la thèse de Z. Benaissa sont d'une part l'étude des propriétés des calculs de substitutions explicites, formalismes permettant de décrire l'opération de substitution dans les fonctions, d'autre part l'utilisation effective des calculs de substitutions explicites pour la description formelle des implantations de langages fonctionnels. Grâce à cette modélisation, la correction des techniques de mise en oeuvre de ces langages est démontrée. Les résultats de cette seconde partie seront publiés dans [8].

Substitutions explicites



Participants : Daniel Briaud , Pierre Lescanne


La recherche sur les substitutions explicites a conduit à deux types d'études. D. Briaud a présenté dans sa thèse [4] une procédure d'unification d'ordre supérieur qui est simple dans sa présentation et qui minimise les concepts mis en jeu. P. Lescanne a, quant à lui, prouvé la forte normalisation (terminaison) d'un calcul de substitutions explicites simplement typé ouvrant la voie à des généralisations.

Théorie et applications de la réécriture



Participants : Guillaume Bonfante , Adam Cichon , Sohame Selhab , Hélène Touzet


Mots-clés : réécriture, terminaison, élimination de coupures


Notre travail concerne principalement l'étude de preuves de terminaison de programmes et l'analyse de notions fondamentales de récursion qui en découlent.

Un aspect important de ce travail concerne les preuves de terminaison automatiques. Les méthodes connues dans ce domaine sont les preuves syntaxiques dites ordres de terminaison qui reviennent à vérifier la forme syntaxique d'un ensemble de règles de réécriture et à assurer la terminaison si la forme syntaxique des règles respecte certains schémas. Cette méthode est particulièrement facile à mettre en oeuvre mais elle souffre d'une certaine rigidité. Il y a de nombreux exemples intéressants où les ordres connus ne peuvent pas être appliqués.

Une autre méthode utilise des interprétations dans lesquelles les symboles de fonction de la signature sont interprétés comme des opérateurs totaux sur un domaine bien fondé. Cette méthode est plus flexible que les ordres de terminaison mais souffre de la difficulté à trouver des opérateurs d'interprétation corrects. Ce problème est, en fait, indécidable.

Nos travaux concernent une combinaison de ces méthodes. L'idée est d'utiliser des hiérarchies de fonctions sur les entiers indexées par termes ordinaux comme de potentiels opérateurs d'interprétation.

En nous débarrassant de certaines restrictions classiques des définitions d'ordinaux, nous obtenons une structure ordinale plus riche d'où résulte une classe plus vaste de preuves de terminaison. Cette structure enrichie peut être considérée comme une structure qui englobe tous les ordres de terminaison connus. En fait, on simule des définitions récursives par une récursion ordinale. Cela a pour conséquence de réduire le problème de terminaison à la solution d'un ensemble d'équations ordinales arithmétiques. Si une solution existe, la terminaison est alors prouvée. Comme cela est toujours le cas avec les méthodes uniformes de terminaison, le succès n'est pas toujours garanti. Néanmoins, cette méthode a donné naissance à des preuves de terminaison pour certains systèmes compliqués [5,11].

H. Touzet s'est préoccupée de l'étude d'une classe générale d'ordres de terminaison basés sur les théorèmes de Higman et de Kruskal : les ordres de simplification. Ses investigations dans les ordres de simplification l'ont menée à des nouvelles analyses du théorème de Higman, différentes de celle de [10], et à des nouveaux résultats concernant la complexité des systèmes de réécriture de mots, ou de termes, qui terminent par simplification. Ces travaux se sont concrétisés par l'obtention du doctorat, en septembre dernier [5].

En reprenant les travaux de H. Touzet et A. Cichon, qui ont conduit à la proposition d'un système syntaxique de termes ordinaux adaptés à des preuves de terminaison, Guillaume Bonfante étudie actuellement la sémantique pour ce système en s'appuyant sur la théorie des catégories. L'inspiration de cette approche provient de l'article de J-Y. Girard sur la logique $\Pi^1_2$ et d'un manuscrit d'un livre de H.  Simmons, où on propose un système d'ordinaux construit en utilisant des termes du lambda-calcul. G. Bonfante a notamment proposé le concept d'arborescence qui permet de coder la complexité d'un processus et qui peut être vu à la fois comme un foncteur de la catégorie des mots sur les nombres naturels vers la catégorie des ordres totaux, et comme une fonction des mots sur les nombres naturels.

L'application des développements décrits ci-dessus se trouve dans la théorie de la démonstration. S. Selhab travaille depuis le début de sa thèse sur la représentation de l'élimination des coupures par des systèmes de réécriture.

Le théorème d'élimination des coupures de Gentzen est un résultat fondamental de la théorie des preuves. Il stipule que toute preuve du calcul des séquents classique ou intuitionniste peut être transformée en une preuve normale ne faisant pas intervenir la règle de la coupure. Gentzen a établi ce théorème en décrivant une procédure effective de normalisation. Sa méthode fut plus tard modifiée et étendue par Tait et Girard. Dans tous ces cas, une stratégie particulière de normalisation est utilisée. Une question naturelle est de savoir si toute séquence de réductions produit une preuve normale. Notre travail a consisté à utiliser des techniques syntaxiques de réécriture pour établir que la procédure d'élimination des coupures termine selon toute stratégie. Nous construisons un système de réécriture S réalisant la normalisation des preuves. Plus précisément, nous représentons les preuves par des termes puis nous réalisons l'extraction des règles de réécriture appropriées en faisant abstraction de la stratégie de réduction employée dans la procédure de normalisation de Gentzen. On prouve alors que le système obtenu termine par des méthodes provenant de la théorie de la réécriture. Cette approche a été étendue aux calculs des séquents intuitionniste et linéaire [9]. L'utilisation de la théorie de la réécriture permet de borner la complexité du processus d'élimination des coupures.

Complexité de la déduction automatique



Participants : Nicolas Hermann , Laurent Juban , Phokion G. Kolaitis


N. Hermann et Phokion G. Kolaitis [25] ont analysé la complexité des problèmes d'unification et de disunification élémentaires pour la théorie équationnelle ACI des semigroupes commutatifs et idempotents. Il est connu que le problème de décision pour l'unification ACI élémentaire peut être résolu en temps polynomial déterministe. Les auteurs ont démontré que ce problème est intrinsèquement séquentiel, en prouvant qu'il est P-complet (complet pour le temps polynomial déterministe) par les réductions en espace logarithmique. Ils ont étudié les problèmes de décision et de comptage pour le filtrage ACI élémentaire et ont démontré que le premier peut être résolu en espace logarithmique, tandis que le deuxième est #P-complet. Ensuite, ils ont analysé la complexité du problème de décision pour la disunification ACI élémentaire pour la sémantique close. Finalement, les auteurs ont étudié la complexité d'une version restreinte du filtrage ACI élémentaire qui apparaît naturellement comme un problème de filtrage des ensembles de termes dans le contexte du langage de données LDL. Pour toutes ces questions, N. Hermann et P.G. Kolaitis ont établi la frontière entre des cas polynomiaux et des cas NP-difficiles en considérant deux paramètres, le nombre de constantes libres et le nombre de diséquations ou d'équations à résoudre.

Contraintes ensemblistes: schématisation



Participant : Nicolas Hermann


L'article principal sur la schématisation par les grammaires primales [13] est finalement paru.

En collaboration avec Ali Amaniss et Denis Lugiez de l'équipe Prothéo, N. Hermann a étudié la schématisation des termes itérés sous l'aspect ensembliste [21]. En particulier, les auteurs se sont intéressés aux opérations ensemblistes sur les ensembles schématisés. Ils ont montré que certaines opérations s'effectuent à l'aide d'algorithmes connus et ont donné des contre-exemples à des extensions de propriétés naturelles sur les termes. Finalement, les auteurs ont résolu le problème de généralisation des termes itérés par un algorithme d'énumération, qu'ils ont raffiné pour des généralisations des termes du premier ordre.



previous up next contents Précédent : Logiciels Remonter : Projet EURÉCA, Preuve, calcul symbolique Suivant : Actions industrielles