Précédent : Grands domaines d'application
Remonter : Projet SINUS, Simulation Numérique dans
Suivant : Actions industrielles
Participants : Rémi Abgrall (université de Bordeaux) ,
Romuald Carpentier , Christophe Debiez , Alain Dervieux
Mots-clés : mécanique des fluides compressibles,
équation d'Euler, schéma MUSCL, schéma multidimensionnels,
théorie TVD, théorie LED
Résumé : Le perfectionnement de logiciels tels que N3S-NATUR demande la mise au point de schémas de plus en plus précis, c'est-à-dire, en pratique, comportant de moins en moins de viscosité numérique, tout en satisfaisant des conditions de robustesse. Ces dernières seront généralement associées à l'absence d'oscillations dans le voisinage des singularités de l'écoulement solution. La précision d'un schéma est mathématiquement analysée par les équations équivalentes.
Participants : Romuald Carpentier , Alain Dervieux , Rémi
Abgrall (université de Bordeaux)
Cette étude s'intéresse aux problèmes de tourbillons détachés (instabilités hydrodynamiques) générant une onde de pression (instabilité acoustique) dans une chambre demi-close bidimensionnelle où l'écoulement est subsonique (programme ASSM P230 de l'ONERA) et a pour motivation la compréhension et la prédiction de couplages aéroacoustiques dans les propulseurs à poudre des fusées ARIANE.
En appliquant à un problème modèle le schéma <<
>> dont les erreurs de troncature sont
modulables à travers ces deux paramètres, nous avons constaté une
réponse instationnaire différente en fonction du signe de la
dispersion d'ordre 2. La mise en évidence et l'analyse de ce
phénomène surprenant ont motivé la réalisation d'un film (grâce
aux moyens de calcul de l'IDRIS et à la logistique de l'UCIS). Ce
film montre l'évolution de l'écoulement à l'intérieur de la
chambre avec l'apparition d'une bifurcation suivant le choix des
paramètres
et
de l'approximation (un
extrait est accessible à l'adresse http://www.inria.fr/audiovisuel ).
Une synthèse numérique sur les erreurs des schémas des
partenaires du projet ASSM (Bertin, CERMICS, ONERA, SNPE) a été
réalisée et la partie la plus scientifique est publiée [25].
Par ailleurs et dans la mesure où les erreurs linéaires
d'ordre 2 et 3 pouvaient être fortement compensées par un choix
approprié des paramètres et
, une étude
plus fine a été réalisée avec le souci de comparer les volumes
finis en maillages triangulaires et quadrangulaires. Cette étude
est terminée [13]. La
suite de cette activité sur deux années prévoit que :
Participants : Christophe Debiez , Alain Dervieux
Une des gageures en approximation pour les problèmes hyperboliques non-linéaires tels ceux modélisant les écoulement des fluides compressibles est le passage à des méthodes précises en pratique à un ordre supérieur à deux. La prise en compte des maillages quasi-arbitrairement irréguliers nécessite une mise en oeuvre extrêmement coûteuse. Dans une première investigation, on a mis au point un schéma précis seulement à l'ordre deux en toute généralité, mais de beaucoup plus grande précision en advection et sur des maillages réguliers, puisque la précision peut atteindre le cinquième ordre. En particulier, alors que les viscosités numériques des schémas décentrés classiques sont des dérivées secondes ou quatrièmes, le nouveau schéma ne contient que des stabilisations par des dérivées sixièmes. L'expérimentation de ce schéma a montré une précision remarquable sur des écoulement non triviaux comme des simulations de couplage aéroacoustiques ou des couplages aéroélastiques (fluide-structure), y compris sur des maillages totalement non-structurés.
Participants : Christophe Debiez , Alain Dervieux ,
Christophe Held , Katherine Mer , Cécile Viozat
Mots-clés : mécanique des fluides compressibles,
équation d'Euler, schéma MUSCL, schéma multidimensionnels,
théorie TVD, théorie LED
Participants : Alain Dervieux , Katherine Mer , Cécile
Viozat
Une des difficultés spécifiques du calcul des écoulements à grand nombre de Reynolds est la nécessité d'utiliser des maillages fortements étirés. Or, pour beaucoup d'approximations sur des maillages en triangles ou tétraèdres, le non étirement est une hypothèse nécessaire à la consistance. Plusieurs travaux ont permis de mettre en évidence la possibilité de construire des schémas à la fois positifs et consistants en étirement arbitraire. Une investigation récente a permis de définir la famille d'approximation duale-diamant qui fait la synthèse entre divers schémas aux volumes finis, des schémas aux différences multidimensionnels et des schémas variationnels. Cette construction donne accès à des approximations plus précises à la fois en maillage orthogonal et en maillage étiré. L'extension des schémas en formulation duale-diamant à des types d'éléments non triangulaires est en cours.
Participants : Christophe Debiez , Alain Dervieux ,
Christophe Held
Depuis la première formulation par Boris et Book en 1973 d'un
schéma non-linéaire quasi d'ordre deux, de très nombreux schémas
sont construits à partir de principes qui n'assurent la
positivité des inconnues que pour des modèles extrêmement
simplifiés, et typiquement monodimensionnels. Dans le cas
bidimensionnel, et en particulier pour des maillages
non-structurés, l'établissement rigoureux de la positivité reste
un problème délicat. La propriété LED (Local Extremum
Diminishing) semble être le cadre le plus élégant pour étudier
cette propriété en dimension quelconque. La positivité des
schémas MUSCL en triangles démontrée dans la thèse de C. Debiez
va donner lieu à une mise à jour des approximations utilisées
dans les applications. Une variante en formulation à faible
dissipation (schéma ) a été mise au point dans
le cadre d'un stage.
Résumé : Il est bien connu que les schémas d'approximations des équations d'Euler compressibles ont de sérieuses difficultés à calculer des écoulements proches de l'incompressible. Ces difficultés se traduisent pour les problèmes stationnaires par un ralentissement net des vitesses de convergence mais aussi par des problèmes de précision de l'approximation. En clair, sur un maillage fixe, la solution des équations discrètes ne tend pas vers une approximation raisonnable de la solution incompressible lorsque le nombre de Mach tend vers 0. La source de ces difficultés réside en évidence dans le fait que les matrices Jacobiennes des flux deviennent très mal préconditionnées à faible nombre de Mach. Pour des problèmes stationnaires, un remède extrêmement efficace consiste à préconditionner les équations continues avant leur approximation numérique de façon à homogénéiser les vitesses d'ondes. Cette démarche qui modifie les équations n'est pas applicable à un contexte instationnaire. L'approche étudiée ici consiste à ne préconditionner que la partie dissipative des flux numériques. En conséquence, les schémas demeurent consistants et peuvent être utilisés pour l'approximation de problèmes stationnaires aussi bien qu'instationnaires.
Participants : Alain Dervieux , Dominique Guézengar ,
Gilles Carré , Cécile Viozat
L'extension des capacités des méthodes numériques décentrées mises au point par le projet au calcul d'écoulement à petit nombre de Mach, d'abord appliquée avec succès à des schémas numériques utilisant un solveur de Roe, a été consolidée par des extensions à des schémas voisins de type HLLE (étude postdoctorale dans le cadre d'un contrat avec le CEA-CESTA) ainsi que par un transfert vers le logiciel commercial N3S-NATUR (stage postdoctoral financé par EDF). Les nouveaux schémas ont été pris en compte dans l'étude N3S-PMG sur les algorithmes multigrille en 3D. Au total les applications de ces nouveaux schémas sont devenues très nombreuses et couvrent notamment des cas de détachement de tourbillons, de convection naturelle, de turbo-machines, etc.
Participants : Hervé Guillard , Cécile Viozat
Le but de ce travail est de clarifier les comportements de plusieurs schémas d'approximations lorsque le nombre de Mach tend vers 0. En utilisant les outils classiques de l'analyse asymptotique des EDP, on a réussi à montrer que les schémas décentrés de type << flux difference splitting >> tendent vers une forme limite qui admet des fluctuations de pression de l'ordre du nombre de Mach alors que la solution continue ne comporte que des fluctuations de pression proportionnelles au carré du nombre de Mach. La même analyse effectuée sur les approximations modifiées par le préconditionnement de la dissipation numérique montre que les équations << limites >> ont des solutions où la pression a le bon ordre de grandeur. Ce travail a fait l'objet d'un rapport Inria [26].
Participants : Charbel Farhat (université du Colorado à
Boulder) , Hervé Guillard
Les approximations de type éléments ou volumes finis font
appel au calcul de quantités liées à la géométrie du maillage
(par exemple le gradient des fonctions de base dans une technique
Éléments Finis). Lorsque le maillage est fixe, ce calcul ne pose
pas de problème de principe. Il n'en est plus de même si le
maillage est mobile comme dans les calculs aéroélastiques ou dans
un moteur à piston. Un outil extrêmement utile pour l'évaluation
de ces quantités géométriques repose sur l'utilisation de la loi
dite de << conservation de la géométrie >>. De
manière plus précise, le calcul des quantités géométriques doit
être fait de telle manière qu'un écoulement initialement uniforme
reste uniforme indépendamment du mouvement du maillage. C'est sur
ce principe que repose la construction du schéma numérique
utilisé par exemple dans N3S-MUSCL[8]. Dans les travaux effectués
ici, on s'est attaché, d'une part, à étendre les lois de
conservation géométriques << discrètes >> à des
schémas en temps multipas et, d'autre part, à comprendre le rôle
de la loi de conservation géométrique. En particulier, on a
montré que le respect de cette loi par un schéma numérique
d'ordre sur maillage fixe est en fait une condition
suffisante pour que ce schéma soit consistant (d'ordre au moins
un) sur un maillage mobile. En pratique, à précision égale, on
observe des gains en temps CPU pouvant atteindre 5 sur certaines
applications entre les algorithmes qui respectent la loi de
conservation géométrique et ceux qui la négligent. Ces travaux
font l'objet d'un rapport de recherche de l'université du
Colorado en cours de rédaction.
Participants : Jean-Antoine Désidéri , Cyril Godart ,
Maria-Vittoria Salvetti (université de Pise)
Résumé : L'étude des écoulements hypersoniques de rentrée vise les applications au domaine spatial et offre à la simulation numérique un intérêt scientifique spécifique en raison de la nécessité de prendre en compte des modèles physico-chimiques complexes (encore incomplètement établis) et de la difficulté particulière que revêt le problème de la validation du fait de l'impossibilité actuelle de reproduire en soufflerie les conditions de vol. Cette filière, aujourd'hui ralentie, permet néanmoins au projet de maintenir des collaborations scientifiques avec le Département d'Ingéniérie Aérospatiale de l'université de Pise (Prof. M.V. Salvetti) et l'université de Tomsk, Russie (Prof. S. Peigin) par une participation à un Projet de l'Institut Liapunov (voir 7.4).
Lorsqu'un engin spatial de type << navette >> pénêtre
les couches denses de l'atmosphère dans la phase dite de rentrée,
sa très grande vitesse, qui est de l'ordre de 7 km/s à l'altitude
de 75 km, provoque la formation d'un choc détaché de très grande
intensité ce qui induit localement une élévation de température
considérable (plusieurs milliers de Kelvin). En conséquence, les
molécules d'azote et d'oxygène qui, loin de l'engin, forment un
mélange gazeux en l'équilibre, se dissocient à la traversée du
choc, créant un mélange réactif d'au moins 5 espèces en fort
déséquilibre chimique et thermique. Les équations classiques de
la Mécanique des Fluides Visqueux se compliquent par la plus
grande complexité du modèle de transport. De plus, d'autres
équations s'y rajoutent pour prendre en compte en particulier le
bilan des espèces chimiques et la relaxation vibrationnelle des
molécules.
Dans ce domaine, notre action de recherche, en amont de
l'usage courant des codes d'exploitation, a pour but d'évaluer la
sensibilité des écoulements hypersoniques (eulériens ou visqueux)
hors-équilibre au degré de raffinement de la modélisation
chimique et thermodynamique (couplages des modes hors-équilibre
entre eux, termes de transport, catalyse à la paroi, etc.), et le
coût des méthodologies numériques rendues nécessaires pour leur
prise en compte.
Alors que jusqu'ici on avait surtout étudié les modèles de transport complexes, et les questions liées au couplage des modèles chimique et thermique, nos études récentes ont principalement porté sur la prise en compte du phénomène de catalyse à la paroi.
À la traversée du choc, l'énergie cinétique du mélange gazeux se transforme en énergie interne, dont la température est la manifestation, et qui est absorbée par la dissociation chimique endothermique des molécules diatomiques d'azote et d'oxygène en espèces monoatomiques qui sont prépondérantes dans la couche de choc. À l'inverse, la recombinaison des molécules, qui est favorisée ou << catalysée >> par l'agent solide de paroi, a pour effet d'augmenter le transfert thermique pariétal, et il est essentiel de savoir prédire numériquement ce phénomène. Dans sa thèse, C. Godart a développé une étude numérique des modèles connus de la littérature et présenté des comparaisons aux données de vol de la navette américaine Orbiter [9]-[20].
Notre participation à l'organisation de l'Atelier << HSFF >> (Partie 2) du CIRA (voir 7.3) nous a conduit à enrichir la base de données de validation nommée << FLOWNET >> d'un chapitre nouveau sur les écoulements hypersoniques. Par ailleurs, un logiciel a été développé pour la construction à partir de résultats de simulations numériques d'écoulements des images généralement fournies par l'expérience (interférogrammes, ombroscopies, strioscopies) [9]. Ce logiciel sera inséré dans le logiciel graphique VIGIE développé par R. Fournier (Service SEMIR) pour la comparaison d'écoulements calculés ou mesurés.
Participants : Gilles Carré , Alain Dervieux , Luc
Fournier , Jérôme Francescatto , Hervé Guillard , Stéphane
Lanteri
Résumé : Les méthodes multigrilles constituent un thème de recherche majeur du projet SINUS. Les études en cours portent sur l'adaptation du concept de multigrille par agglomération à la simulation numérique d'écoulements turbulents en maillages triangulaires fortement étirés, la mise au point d'algorithmes multi maillages reposant sur l'utilisation d'une hiérarchie de grilles éléments finis construites par déraffinement et remaillage local et la prise en compte du parallélisme à la fois pour les calculs intervenant à l'intérieur d'un niveau donné et entre les différents niveaux de grille (algorithmes additifs). Par ailleurs, le projet est maître d'oeuvre depuis novembre 1996 dans une action R&D visant l'implantation et la démonstration du savoir-faire en multigrille par agglomération dans le logiciel industriel N3S-NATUR.
Participants : Hervé Guillard , Petr Vanek (université du
Colorado à Denver)
Le point de départ de ce travail repose sur l'analogie entre les méthodes d'agglomération de volumes telles qu'elles ont été développées dans le projet SINUS et les méthodes multigrilles algébriques utilisant le concept d'agrégation des inconnues pour construire les niveaux grossiers. Pour les équations elliptiques, les opérateurs de prolongement correspondant à l'agglomération (l'agrégation) des inconnues ne sont pas suffisamment précis et il est nécessaire de les << enrichir >>. Cela peut être fait de manière totalement algébrique en utilisant le concept de lissage des prolongements introduit par Vanek[VMB96]. Cependant cette technique de lissage suppose un déraffinement des espaces fins d'un facteur 3 alors que la pratique multigrille usuelle privilégie plutôt un déraffinement par un facteur 2. Dans ce travail, on a, d'une part, étendu la technique de lissage des prolongements pour admettre des facteurs de déraffinement arbitraires et, d'autre part, on s'est intéressé à l'extension de ces méthodes à des équations de type convection-diffusion. Les résultats obtenus sont très encourageants et les taux de convergence observés sont comparables à ceux obtenus sur maillages structurés avec des méthodes géométriques.
Participants : Alain Dervieux , Jérôme Francescatto
Les travaux sur l'application de méthodes multigrilles avec agglomération anisotrope pour le traitement de maillages très étirés se sont poursuivis avec des applications à divers écoulements stationnaires et instationnaires reposant sur des modélisations de la turbulence avec deux couches (modèle de Chen et Patel combiné avec la formulation de Menter). Des calculs sur des maillages fins dont le rapport d'étirement atteint plusieurs milliers, ont permis de valider ces modèles pour des calculs d'échappement de tourbillons réputés inatteignables par ces modèles (communication commune avec une équipe de Dassault Aviation à un symposium à Delft).
Participants : Robert Fournier , Hervé Guillard
Avec les progrès en maillage automatique, il est de plus en plus envisageable de construire des méthodes multigrille efficaces et d'usage relativement facile reposant sur plusieurs maillages (un par niveau). Ce travail constitue une première étape vers la construction automatique de maillages déraffinés en dimension 3. Il s'agit d'étendre au cas 3D la méthodologie de construction de maillages emboités par noeuds mise au point précédemment en 2D [GUIL] et depuis utilisée avec succès pour des calculs Euler ou Navier-Stokes. Une difficulté majeure réside en 3D dans la reconstruction de la frontière (maillage de peau) du maillage volumique que l'on est en train de déraffiner. Ce problème est maintenant résolu par un algorithme reposant sur des optimisations locales soumises à des contraintes sur le respect de la géométrie initiale. Un travail est en cours pour intégrer cet algorithme dans une méthode de déraffinement de maillages volumiques.
Participants : Alain Dervieux , Jérôme Francescatto ,
Hervé Guillard
Cette étude en coopération avec Dassault Aviation (M. Mallet et F. Challot) utilise une approche multi maillage rendue possible par les progrès des mailleurs automatiques. Elle a permis de mettre au point une formulation multigrille adaptée à la méthodologie << Least-Square Galerkin >> utilisée dans le logiciel VIRGINIE. L'algorithme englobe des itérations << sans matrices >> de type GMRES adaptées de façon à obtenir un bon lissage des hautes fréquences. Dans le cadre du projet BRITE IDEMAS, en collaboration avec l'Institut von Karman, une étude de grande envergure sera entreprise pour la mise au point d'un algorithme adapté à une famille d'approximations multidimensionnelles (schémas MDHR, << Multi Dimensional High Resolution >>) en 2D et 3D sur des maillages comprenant divers types d'éléments.
Participants : Luc Fournier , Stéphane Lanteri
On s'intéresse ici à l'adaptation d'algorithmes multigrille linéaires par agglomération aux architectures de calcul parallèles et leur application à la résolution numérique d'écoulements de fluides compressibles laminaires et turbulents. Les travaux effectués durant l'année 1997 visent à atteindre cet objectif en abordant des aspects algorithmique parallèle et algorithmique numérique.
Une première activité a porté sur la parallélisation d'une
méthode multigrille linéaire existante qui avait été
préalablement développée dans le cadre de la thèse de G. Carré
[1] (résolution numérique des
équations de Navier-Stokes 2D couplées à un modèle de turbulence
). Les performances parallèles de l'algorithme
multigrille multiplicatif (les niveaux de grille sont
traités en séquence) parallèle résultant ont été évaluées sur
deux plateformes : l'architecture MIMD en mémoire partagée
SGI Power Challenge Array (à base du processeur Mips
R8000/90 Mhz) du centre Charles Hermite de Nancy et une
plateforme expérimentale comprenant 12 Pentium Pro
(P6/200 Mhz) interconnectés par une technologie
FastEthernet 100 Mbit/s mise en place à l' Inria Sophia
Antipolis. La stratégie de parallélisation combine des techniques
de partitionnement de maillages (utilisation de l'outil
MS3D développé par Simulog) et un modèle de
programmation en mémoire distribuée (standard d'échange de
messages MPI).
Cette étape a nécessité le développement d'une technique d'agglomération de maillages éléments finis partitionnés. L'approche utilisée pour la construction d'une hiérarchie de grilles de calcul repose sur un principe d'agglomération de volumes. Notons tout d'abord qu'il n'y a pas unicité de l'algorithme d'agglomération. On a utilisé dans un premier temps l'algorithme mis au point en 2D et qui est de nature topologique (algorithme de type << glouton >> sur les voisins pour construire une macro-cellule) et suit la numérotation du maillage (boucle principale sur les noeuds). L'efficacité du multigrille est sensible à la qualité de l'agglomération. Si l'approche utilisée jusqu'ici s'avère adéquate dans la majeure partie des cas, il existe cependant des situations où la dépendance vis-à-vis de la numérotation du maillage devient pénalisante ; par ailleurs, dans un contexte multi domaine, la numérotation globale unique est remplacée par plusieurs numérotations locales (une pour chaque sous-domaine) ce qui n'est pas sans incidence sur le résultat de l'agglomération vue globalement. Ces raisons nous amèneront donc à envisager dans la suite des alternatives à la procédure d'agglomération topologique qui utiliseraient des principes issus des algorithmes de partitionnement de maillages non-structurés de façon à introduire des facteurs géométriques (avec, par exemple, l'utilisation des axes d'inertie principaux des sous-domaines).
Les premières expérimentations numériques avec l'algorithme multigrille multiplicatif parallèle ont montré les limites généralement observées avec ce type d'approche : la progression du traitement depuis le niveau fin vers le niveau le plus grossier se traduit par une dégradation des performances parallèles due à une évolution défavorable du rapport entre étapes de calcul et étapes de communication. Différentes stratégies sont possibles pour améliorer cette situation ; l'approche qui nous intéresse repose sur une notion de filtrage de résidus et conduit à la construction d'une variante additive de l'algorithme multigrille original. Dans ce cas, les différents niveaux peuvent être traités en parallèle, ce qui constitue un second niveau de parallélisme. Une étude théorique préliminaire effectuée dans le cadre de la thèse de B. Koobus [KOOB] a permis de démontrer que l'algorithme additif est convergent sous certaines formes des hypothèses multigrille classiques (hypothèses de lissage et d'approximation). Cette étude théorique est en cours de consolidation avec, notamment, une analyse spectrale dans le cas linéaire qui permettra d'affiner les propriétes de convergence de l'algorithme. La mise en oeuvre parallèle est plus délicate et fait l'objet d'un travail en cours.
L'ensemble des travaux ci-dessus a fait l'objet d'une présentation aux journées numériques de Besançon en septembre ; les actes seront publiés dans un numéro spécial de la revue << Calculateur Parallèle >>.
Participants : Gilles Carré , Alain Dervieux , Stéphane
Lanteri
Le travail décrit ici est au coeur du programme R&D
N3S-PMG et vise le transfert dans un
logiciel à usage industriel du savoir-faire du projet SINUS en multigrille linéaire par agglomération.
L'enjeu est important : les simulations numériques ciblées font
appel à des modélisations complexes (turbulence, combustion) ;
les géométries sont complexes et, dans certains cas, à frontières
variables (maillages non-structurés déformables).
Cette première année de l'étude nous a permis de mettre en
place la méthode multigrille linéaire par agglomération dans une
version séquentielle de N3S-NATUR. La validation de ces
développements a été réalisée sur des cas tests modèles :
écoulement externe autour d'une aile ONERA M6
(résolution des équations d'Euler) et géométrie de marche 3D
(résolution des équations de Navier-Stokes couplées à un modèle
de turbulence ). Ces premiers calculs visent à
vérifier les propriétés intrinsèques de la méthode (en
particulier, l'indépendance de la vitesse de convergence par
rapport à la taille du maillage dans les étapes de résolution
linéaires) ; la deuxième phase de l'étude verra se concentrer nos
efforts sur la mise au point de la méthode sur plusieurs cas
tests d'intérêt industriel et sur le développement d'une version
multigrille parallèle.
Participants : Jean-Antoine Désidéri , Victorita Dolean ,
Stéphane Lanteri
Résumé : Il s'agit-là d'une activité qui démarre au sein du projet et pour laquelle on s'intéresse à la mise au point, l'analyse et l'évaluation d'algorithmes de résolution par décomposition de domaine pour des systèmes discrets issus d'EDP hyperboliques ou mixtes hyperboliques-paraboliques. L'étroite similarité formelle existant entre les méthodes hiérarchiques de type multigrille et celles par décomposition de domaine nous conduit à étudier plus profondément leur lien et les possibilités de couplage des deux approches. Cet axe de recherche est une composante d'un projet du Laboratoire franco-chinois LIAMA dont le projet est responsable.
Participants : Jean-Antoine Désidéri , Victorita Dolean ,
Stéphane Lanteri
Les méthodes de décomposition de domaines sans recouvrement (ou méthodes du complément de Schur) sont étroitement liées aux techniques d'élimination de Gauss par bloc (chaque bloc correspondant à un sous-domaine). Elles consistent à ramener la résolution d'un problème global posé sur l'ensemble des degrés de liberté (d.d.l.) issus d'une discrétisation éléments finis du domaine de calcul, à la résolution d'un problème de taille moindre posé sur les d.d.l. << interfaces >>. Ces derniers sont associés aux noeuds situés sur les interfaces entre les sous-domaines formant la partition du domaine de calcul. Le problème interface ainsi posé est alors résolu par une méthode itérative adaptée (méthode de Krylov). L'avantage principal de ces méthodes par rapport à celles basées sur l'utilisation de domaines recouvrants est le degré plus élevé de parallélisation. Les problèmes locaux peuvent être résolus presque indépendamment, des étapes de communication n'étant nécessaires que dans la phase d'assemblage des résultats locaux en vue de l'obtention de la solution globale. Les problèmes locaux dans chaque sous-domaine sont posés avec des conditions aux limites de type Dirichlet ou Neumann selon la nature de la frontière (si la frontière est << vraie >> on a des conditions de Dirichlet et s'il s'agit d'une interface on a des conditions de flux imposé).
L'étude qui nous intéresse ici, constitue le sujet de thèse de Victorita Dolean (allocation de recherche co-financée du CNES) et vise les trois objectifs généraux suivants :
Participants : Olivier Botella , Roger Peyret
L'écoulement d'un gaz lors de la phase de compression d'un
moteur à piston est soumis à des phénomènes de rotation et de
recirculation qui ne sont pas encore complètement compris. Les
investigations numériques utilisant des modèles de turbulence,
notamment les modèles ,sont rendues difficiles
par le caractère fortement anisotropique de ces écoulements, qui
est très imparfaitement pris en compte par les modèles
statistiques actuels. Le manque d'informations de référence sur
les caractéristiques de ces écoulements turbulents, qui
permettraient de guider la modélisation et de valider ces
modèles, motive la mise au point de codes de simulation
directe.
Dans le cadre de la thèse de O. Botella, une étude bidimensionnelle du problème est menée. Un code résolvant les équations de Navier-Stokes par une méthode de projection a été mis au point[12]. L'approximation spatiale est effectuée par une méthode spectrale de type Tchebyshev, dont les propriétés de précision permettent de représenter au mieux la complexité d'un écoulement turbulent, et l'approximation temporelle est d'ordre trois. Les divers problèmes numériques posés par la résolution des équations de Navier-Stokes par les méthodes spectrales sont analysés dans un article à paraître dans << Computational Fluid Dynamics Review >> [PEYR].
Afin d'étudier l'écoulement prenant place durant la phase de
compression d'un moteur à piston, ce code a été modifié de
manière à permettre le calcul de solutions singulières des
équations de Navier-Stokes. Ces singularités sont causées par la
discontinuité des conditions aux limites : la vitesse prend des
valeurs multiples aux points de contact entre le piston et les
parois du domaine. De telles solutions singulières ont été
obtenues en développant une technique de soustraction de la
singularité. Cette technique a été validée avec succès pour
l'écoulement de référence dans la cavité entraînée (dont les
conditions aux limites comportent des singularités du même type
que le problème du piston), et l'injection d'un fluide dans un
canal. Ces travaux ont été présentés au congrès <<
Numerical Modelling in Continuum Mechanics >> à Prague
[19]. Des premiers calculs
utilisant le code du piston, effectués sur le CRAY
C98 de l' IDRIS en 1997, ont montré, lors de la compression
d'un vortex de Taylor-Green pour des nombres de Reynolds compris
entre 500 et 1000, l'apparition d'un régime qui peut être
qualifié de chaotique lors des dernières phases de la
compression.
Participants : Jean-Antoine Désidéri , Stéphane Lanteri ,
Nathalie Marco
Résumé : Les problèmes d'optimisation en aéodynamique industrielle sont de plus en plus complexes. Les critères à optimiser sont très souvent non différentiables, non convexes. De nombreux paramètres d'optimisation doivent être pris en compte, ainsi que des contraintes géométriques et aérodynamiques. Il est donc indispensable d'implémenter des optimiseurs robustes. Les algorithmes génétiques (AG) semblent les mieux adaptés étant donné qu'ils n'ont pas besoin d'hypothèse de différentiabilité, qu'ils travaillent avec une population de solutions potentielles (ce qui leur permet d'explorer au maximum l'espace de recherche), à la différence des algorithmes de gradient qui risquent de tomber dans un optimum local. Les AG sont basés sur les lois de la sélection naturelle : la population évolue vers l'individu optimal, solution du problème posé.
Participants : Stéphane Lanteri , Nathalie Marco
En 1996, une première étude de faisabilité des AG s'est
effectuée sur un problème modèle 1D, ainsi qu'une étude en
optimisation multi critère (fait d'optimiser simultanément
plusieurs critères). L'étude des AG a alors été étendue à
l'optimisation de formes 2D en aérodynamique. Tout d'abord, nous
avons travaillé sur un problème inverse (reconstruction d'un
profil d'aile NACA0012), puis sur une optimisation
directe, la réduction de la traînée de choc sur un profil d'aile
RAE2822. Cependant, un problème d'optimisation en
aérodynamique demande un très gros effort en temps de calcul pour
l'évaluation du coût d'un individu (environ 90 du
temps total). Et plus le problème est complexe, plus on a besoin
de travailler avec une population de taille importante, et plus
il y aura d'évaluations.
Partant de ce constat, nous avons proposé et implémenté une stratégie de parallélisation à deux niveaux. Le premier niveau de parallélisation porte sur le calcul de l'écoulement et s'appuie sur des travaux effectués par le passé au projet [6] : on applique une stratégie de parallélisation qui combine des techniques de partitionnement de maillage et un modèle de programmation par échange de messages (utilisation du standard MPI). Le deuxième niveau de parallélisation concerne la boucle principale de l'algorithme génétique. Nous utilisons la notion de groupes de processus qui est l'une des principales caractéristiques de l'environnement MPI. Durant chaque génération, l'étape de sélection des individus fait appel à une procédure de tournoi à deux points, c'est-à-dire que les individus sont sélectionnés deux par deux. Les nouvelles valeurs d'adaptation associées aux deux individus candidats peuvent alors être évaluées en parallèle ; l'idée de base consiste à former deux groupes de processus et à allouer un calcul d'écoulement à chaque groupe. Le nombre de processus par groupe est fixé par le partitionnement du maillage sous-jacent.
Cette stratégie a été mise en oeuvre et évaluée sur les architectures suivantes : SGI Power Challenge Array équipée de processeurs Mips R8000/90 Mhz et SGI Origin 2000 équipée avec des processeurs Mips R1000/195 Mhz, toutes deux situées au centre Charles Hermite de Nancy, et une plateforme expérimentale comprenant 12 Pentium Pro (P6/200 Mhz) interconnectés par une technologie FastEthernet 100 Mbit/s mise en place à l'Inria Sophia Antipolis. Ce travail a fait l'objet de présentations aux congrès Euro-Par'97 en août (Passau, Allemagne) et Eurogen'97 en novembre (Trieste, Italie). Cette étude va maintenant se poursuivre dans le cadre du projet ESPRIT DECISION avec l'étude d'algorithmes génétiques parallèles basés sur l'utilisation de modèles de sous-populations.
Participants : Jean-Antoine Désidéri , Stéphane Lanteri ,
Nathalie Marco
L'optimisation de formes aérodynamiques 3D reste un objectif ambitieux, notamment lorsque l'on vise une modélisation de l'écoulement fluide sous-jacent par le système des équations d'Euler ou de Navier-Stokes. On s'intéresse ici à l'utilisation d'algorithmes génétiques (au moins dans une phase préliminaire de l'optimisation) pour un problème de réduction de traînée de choc induite par l'écoulement eulérien autour d'une aile 3D. Le premier obstacle à gérer concerne la technique de paramétrisation de la forme considérée. Cette technique doit garantir la manipulation de formes régulières, critère particulièrement d'actualité lorsque l'on se propose d'utiliser des opérateurs pseudo-aléatoires (les opérateurs génétiques) pour la génération des formes candidates. La solution adoptée repose sur une extension des représentations par courbes de Bézier, déjà mise en oeuvre en 2D pour des problèmes d'optimisation de profils d'aile, au traitement d'une surface triangulée. La réduction du coût global de l'optimisation est ensuite étudiée suivant deux directions : d'une part, on étend la stratégie de parallélisation précisée au paragraphe précédent, au solveur fluide 3D (sur la base des travaux réalisés dans [6]) et, d'autre part, on cherche à hybrider l'algorithme génétique avec une technique locale classique plus efficace au voisinage de l'optimum; ce dernier point est considéré dans le cadre de notre participation au projet ESPRIT DECISION.
Participants : Alain Dervieux , Angelo Iollo
Résumé : De plus en plus, l'ingénieur s'intéresse à la prédiction de phénomènes instables et à leur contrôle. Les phénomènes font soit intervenir des instabilités à l'intérieur d'un modèle (décollements, tourbillons, etc.) soit dans des couplages (aéroélasticité). Pour réaliser le contrôle de ces phénomènes, on est amené à construire des modèles moins chers et plus particuliers. Les activités du projet se sont concentrées cette année sur la conception de simplifications reposant sur la technique << Proper Orthogonal Decomposition >> appliquées au modèle des équations d'Euler en volumes finis.
Le besoin de prédire automatiquement des écoulements complexes se
fait de plus en plus sentir. Ces prédictions doivent être
réalisées dans des conditions de coût et de délai contraignantes.
Deux cas typiques sont les suivants :
Ce deuxième point est celui envisagé dans le cadre du contrôle actif d'écoulements instationnaires, qui est la motivation de la présente étude. Le problème à résoudre tout d'abord est celui de la construction d'un modèle d'ordre inférieur, que l'on peut formuler ainsi : prédire rapidement un écoulement faisant partie d'une famille d'écoulements très restreinte en profitant de la faible variabilité qualitative et quantitative de ces écoulements.
Le travail entrepris prend place dans le cadre d'une coopération avec Dassault Aviation sur le contrôle actif d'écoulements. Il est financé par le programme européen TMR au titre d'une bourse Marie Curie. Les méthodes explorées ici ressortissent de la POD (<< Proper Orthogonal Decomposition >>), une idée proposée par Lumley, que l'on applique à des écoulements numériques, c'est-à-dire calculés avec un modèle numérique (de type Navier-Stokes, typiquement). On se restreint à une géométrie bien définie ; à partir d'écoulements (actuellement régis par les équations d'Euler) instationnaires, on extrait un certain nombre de clichés instantanés (à des temps fixés). La méthode POD construit une matrice de corrélation entre les clichés grâce au choix d'un produit scalaire. De la matrice de corrélation, on extrait quelques modes principaux (vecteurs propres les plus énergétiques) qui forment la base POD.
Cette base sert à la construction d'un modèle numérique via une approche variationnelle de type Galerkin discrétisant dans cette base les équations d'Euler instationnaires. Les investigations théoriques et numériques réalisées cette année ont fait apparaître les points suivants :
Ces résultats sont présentés dans un rapport Inria à paraître.
Participants : Laurent Hascoët , Pierre-Yves Calland ,
Stéphane Lanteri , Mohamed Tadjouddine
Mots-clés : transformation automatique de programme,
compilation, parallélisation, SIMD, partition de maillage,
SPMD
Résumé : Les programmes de calcul numérique sont en général coûteux en mémoire et en temps d'exécution. Une réponse naturelle à ce problème est l'exploitation de calculateurs parallèles. En l'état actuel de la technique informatique, ce passage à une architecture parallèle nécessite une transformation du programme. Plus généralement, de nombreuses sortes de transformations sont pratiquées sur les programmes de calcul numérique. On peut citer par exemple l'extraction de sous-programmes, qui améliore la modularité, ou la différentiation, qui déduit le programme calculant l'adjoint d'un programme donné. Toutes ces transformations, effectuées manuellement, sont fastidieuses et sources d'erreur. On tente donc de développer des outils automatiques ou semi-automatiques qui les réalisent. En règle générale, tous ces outils partagent un ensemble commun d'analyses et de techniques, qui proviennent du domaine de la compilation.
Dans le projet SINUS, on se concentre sur les questions liées à la parallélisation, d'une part dans l'optique de la vectorisation étendue ( HPF, FORTRAN95), d'autre part dans l'optique de la parallélisation SPMD par partition de maillage et programmation dans un modèle par échange de messages. Nous étudions aussi les transformations plus élémentaires telles que l'extraction de sous-programme.
Par ailleurs, en coopération avec le projet SAFIR, nous examinons des problèmes rencontrés par l'outil ODYSSÉE pour la différentiation automatique en modes direct ou inverse.
Participants : Pierre-Yves Calland , Laurent Hascoët
Nous avons continué le développement de l'outil PARTITA dans la direction de la parallélisation à grain fin, que l'on peut aussi voir comme l'extension de la vectorisation. Il s'agit donc toujours de paralléliser des boucles du programme. PARTITA est désormais capable de générer du code exploitant les possibilités de HPF, telles que le forall ou les boucles HPF-INDEPENDANT. La réflexion se poursuit, avec Pierre-Yves Calland du LIP, pour l'utilisation de PARTITA comme outil d'aide au choix des directives d'alignement.
Par ailleurs, l'outil PARTITA a reçu une extension fondamentale : il est maintenant possible de paralléliser un fragment de programme donné, ce qui non seulement accroît la souplesse d'utilisation, mais surtout permet de nouvelles applications telles que la définition de tâches parallèles ou l'extraction de sous-programmes.
Participants : Laurent Hascoët , Stéphane Lanteri
Dans le cadre du projet GENIE, nous avons poursuivi les recherches sur la mise en place automatique des communications entre processeurs pour une parallélisation SPMD. Un article présentant les principes de la méthode a été présenté à la conférence PPoPP'97 à Las Vegas. La maquette mono-procédurale réalisée l'année dernière a été reprise et étendue. On dispose maintenant d'un outil pourvu d'une interface utilisateur, intégrée dans PARTITA. Cet outil traite désormais des programmes composés de plusieurs sous-programmes. On explore diverses techniques pour maîtriser l'explosion combinatoire provenant de ces programmes multi procéduraux. Cette première version de l'outil permettra de premières expériences sur des programmes réels.
Participants : Laurent Hascoët , Mohamed Tadjouddine
L'un des problèmes majeurs de la différentiation automatique est la taille des tableaux qui stockeront les matrices jacobiennes. L'analyse de dépendances déjà développée dans PARTITA permet en principe de limiter cette taille, par une analyse statique qui prouvera que certains éléments de ces matrices jacobiennes sont toujours nuls. On peut alors envisager des modes de stockage plus économes. Nous collaborons ici avec Mohamed Tadjouddine, du projet SAFIR, pour définir des analyses du graphe de dépendances qui détectent les jacobiennes simples, multi diagonales ou triangulaires. Une version expérimentale de ces analyses sera implémentée à l'intérieur du système PARTITA.