Projet Sinus

previous up next contents
Précédent : Grands domaines d'application Remonter : Projet SINUS, Simulation Numérique dans Suivant : Actions industrielles



Résultats nouveaux

Approximations haute précision



Participants : Rémi Abgrall (université de Bordeaux) , Romuald Carpentier , Christophe Debiez , Alain Dervieux


Mots-clés : mécanique des fluides compressibles, équation d'Euler, schéma MUSCL, schéma multidimensionnels, théorie TVD, théorie LED


Résumé : Le perfectionnement de logiciels tels que N3S-NATUR demande la mise au point de schémas de plus en plus précis, c'est-à-dire, en pratique, comportant de moins en moins de viscosité numérique, tout en satisfaisant des conditions de robustesse. Ces dernières seront généralement associées à l'absence d'oscillations dans le voisinage des singularités de l'écoulement solution. La précision d'un schéma est mathématiquement analysée par les équations équivalentes.


Schémas à faibles dissipation et dispersion



Participants : Romuald Carpentier , Alain Dervieux , Rémi Abgrall (université de Bordeaux)


Cette étude s'intéresse aux problèmes de tourbillons détachés (instabilités hydrodynamiques) générant une onde de pression (instabilité acoustique) dans une chambre demi-close bidimensionnelle où l'écoulement est subsonique (programme ASSM P230 de l'ONERA) et a pour motivation la compréhension et la prédiction de couplages aéroacoustiques dans les propulseurs à poudre des fusées ARIANE.

En appliquant à un problème modèle le schéma << $\beta\gamma$ >> dont les erreurs de troncature sont modulables à travers ces deux paramètres, nous avons constaté une réponse instationnaire différente en fonction du signe de la dispersion d'ordre 2. La mise en évidence et l'analyse de ce phénomène surprenant ont motivé la réalisation d'un film (grâce aux moyens de calcul de l'IDRIS et à la logistique de l'UCIS). Ce film montre l'évolution de l'écoulement à l'intérieur de la chambre avec l'apparition d'une bifurcation suivant le choix des paramètres $\beta$ et $\gamma$ de l'approximation (un extrait est accessible à l'adresse http://www.inria.fr/audiovisuel ). Une synthèse numérique sur les erreurs des schémas des partenaires du projet ASSM (Bertin, CERMICS, ONERA, SNPE) a été réalisée et la partie la plus scientifique est publiée [25].

Par ailleurs et dans la mesure où les erreurs linéaires d'ordre 2 et 3 pouvaient être fortement compensées par un choix approprié des paramètres $\beta$ et $\gamma$, une étude plus fine a été réalisée avec le souci de comparer les volumes finis en maillages triangulaires et quadrangulaires. Cette étude est terminée [13]. La suite de cette activité sur deux années prévoit que :

Schémas d'ordre élevé



Participants : Christophe Debiez , Alain Dervieux


Une des gageures en approximation pour les problèmes hyperboliques non-linéaires tels ceux modélisant les écoulement des fluides compressibles est le passage à des méthodes précises en pratique à un ordre supérieur à deux. La prise en compte des maillages quasi-arbitrairement irréguliers nécessite une mise en oeuvre extrêmement coûteuse. Dans une première investigation, on a mis au point un schéma précis seulement à l'ordre deux en toute généralité, mais de beaucoup plus grande précision en advection et sur des maillages réguliers, puisque la précision peut atteindre le cinquième ordre. En particulier, alors que les viscosités numériques des schémas décentrés classiques sont des dérivées secondes ou quatrièmes, le nouveau schéma ne contient que des stabilisations par des dérivées sixièmes. L'expérimentation de ce schéma a montré une précision remarquable sur des écoulement non triviaux comme des simulations de couplage aéroacoustiques ou des couplages aéroélastiques (fluide-structure), y compris sur des maillages totalement non-structurés.

Approximations robustes



Participants : Christophe Debiez , Alain Dervieux , Christophe Held , Katherine Mer , Cécile Viozat


Mots-clés : mécanique des fluides compressibles, équation d'Euler, schéma MUSCL, schéma multidimensionnels, théorie TVD, théorie LED


Précision en maillage étiré



Participants : Alain Dervieux , Katherine Mer , Cécile Viozat


Une des difficultés spécifiques du calcul des écoulements à grand nombre de Reynolds est la nécessité d'utiliser des maillages fortements étirés. Or, pour beaucoup d'approximations sur des maillages en triangles ou tétraèdres, le non étirement est une hypothèse nécessaire à la consistance. Plusieurs travaux ont permis de mettre en évidence la possibilité de construire des schémas à la fois positifs et consistants en étirement arbitraire. Une investigation récente a permis de définir la famille d'approximation duale-diamant qui fait la synthèse entre divers schémas aux volumes finis, des schémas aux différences multidimensionnels et des schémas variationnels. Cette construction donne accès à des approximations plus précises à la fois en maillage orthogonal et en maillage étiré. L'extension des schémas en formulation duale-diamant à des types d'éléments non triangulaires est en cours.

Approximations LED



Participants : Christophe Debiez , Alain Dervieux , Christophe Held


Depuis la première formulation par Boris et Book en 1973 d'un schéma non-linéaire quasi d'ordre deux, de très nombreux schémas sont construits à partir de principes qui n'assurent la positivité des inconnues que pour des modèles extrêmement simplifiés, et typiquement monodimensionnels. Dans le cas bidimensionnel, et en particulier pour des maillages non-structurés, l'établissement rigoureux de la positivité reste un problème délicat. La propriété LED (Local Extremum Diminishing) semble être le cadre le plus élégant pour étudier cette propriété en dimension quelconque. La positivité des schémas MUSCL en triangles démontrée dans la thèse de C. Debiez va donner lieu à une mise à jour des approximations utilisées dans les applications. Une variante en formulation à faible dissipation (schéma $\beta - \gamma $) a été mise au point dans le cadre d'un stage.

Écoulements à petit nombre de Mach

Résumé : Il est bien connu que les schémas d'approximations des équations d'Euler compressibles ont de sérieuses difficultés à calculer des écoulements proches de l'incompressible. Ces difficultés se traduisent pour les problèmes stationnaires par un ralentissement net des vitesses de convergence mais aussi par des problèmes de précision de l'approximation. En clair, sur un maillage fixe, la solution des équations discrètes ne tend pas vers une approximation raisonnable de la solution incompressible lorsque le nombre de Mach tend vers 0. La source de ces difficultés réside en évidence dans le fait que les matrices Jacobiennes des flux deviennent très mal préconditionnées à faible nombre de Mach. Pour des problèmes stationnaires, un remède extrêmement efficace consiste à préconditionner les équations continues avant leur approximation numérique de façon à homogénéiser les vitesses d'ondes. Cette démarche qui modifie les équations n'est pas applicable à un contexte instationnaire. L'approche étudiée ici consiste à ne préconditionner que la partie dissipative des flux numériques. En conséquence, les schémas demeurent consistants et peuvent être utilisés pour l'approximation de problèmes stationnaires aussi bien qu'instationnaires.


Schémas décentrés à viscosité préconditionnée



Participants : Alain Dervieux , Dominique Guézengar , Gilles Carré , Cécile Viozat


L'extension des capacités des méthodes numériques décentrées mises au point par le projet au calcul d'écoulement à petit nombre de Mach, d'abord appliquée avec succès à des schémas numériques utilisant un solveur de Roe, a été consolidée par des extensions à des schémas voisins de type HLLE (étude postdoctorale dans le cadre d'un contrat avec le CEA-CESTA) ainsi que par un transfert vers le logiciel commercial N3S-NATUR (stage postdoctoral financé par EDF). Les nouveaux schémas ont été pris en compte dans l'étude N3S-PMG sur les algorithmes multigrille en 3D. Au total les applications de ces nouveaux schémas sont devenues très nombreuses et couvrent notamment des cas de détachement de tourbillons, de convection naturelle, de turbo-machines, etc.

Comportement des schémas décentrés à faible nombre de Mach



Participants : Hervé Guillard , Cécile Viozat


Le but de ce travail est de clarifier les comportements de plusieurs schémas d'approximations lorsque le nombre de Mach tend vers 0. En utilisant les outils classiques de l'analyse asymptotique des EDP, on a réussi à montrer que les schémas décentrés de type << flux difference splitting >> tendent vers une forme limite qui admet des fluctuations de pression de l'ordre du nombre de Mach alors que la solution continue ne comporte que des fluctuations de pression proportionnelles au carré du nombre de Mach. La même analyse effectuée sur les approximations modifiées par le préconditionnement de la dissipation numérique montre que les équations << limites >> ont des solutions où la pression a le bon ordre de grandeur. Ce travail a fait l'objet d'un rapport Inria [26].

Loi de conservation géométrique en maillage mobile



Participants : Charbel Farhat (université du Colorado à Boulder) , Hervé Guillard


Les approximations de type éléments ou volumes finis font appel au calcul de quantités liées à la géométrie du maillage (par exemple le gradient des fonctions de base dans une technique Éléments Finis). Lorsque le maillage est fixe, ce calcul ne pose pas de problème de principe. Il n'en est plus de même si le maillage est mobile comme dans les calculs aéroélastiques ou dans un moteur à piston. Un outil extrêmement utile pour l'évaluation de ces quantités géométriques repose sur l'utilisation de la loi dite de << conservation de la géométrie >>. De manière plus précise, le calcul des quantités géométriques doit être fait de telle manière qu'un écoulement initialement uniforme reste uniforme indépendamment du mouvement du maillage. C'est sur ce principe que repose la construction du schéma numérique utilisé par exemple dans N3S-MUSCL[8]. Dans les travaux effectués ici, on s'est attaché, d'une part, à étendre les lois de conservation géométriques << discrètes >> à des schémas en temps multipas et, d'autre part, à comprendre le rôle de la loi de conservation géométrique. En particulier, on a montré que le respect de cette loi par un schéma numérique d'ordre $p$ sur maillage fixe est en fait une condition suffisante pour que ce schéma soit consistant (d'ordre au moins un) sur un maillage mobile. En pratique, à précision égale, on observe des gains en temps CPU pouvant atteindre 5 sur certaines applications entre les algorithmes qui respectent la loi de conservation géométrique et ceux qui la négligent. Ces travaux font l'objet d'un rapport de recherche de l'université du Colorado en cours de rédaction.

Modélisation physique et numérique des écoulements hypersoniques



Participants : Jean-Antoine Désidéri , Cyril Godart , Maria-Vittoria Salvetti (université de Pise)


Résumé : L'étude des écoulements hypersoniques de rentrée vise les applications au domaine spatial et offre à la simulation numérique un intérêt scientifique spécifique en raison de la nécessité de prendre en compte des modèles physico-chimiques complexes (encore incomplètement établis) et de la difficulté particulière que revêt le problème de la validation du fait de l'impossibilité actuelle de reproduire en soufflerie les conditions de vol. Cette filière, aujourd'hui ralentie, permet néanmoins au projet de maintenir des collaborations scientifiques avec le Département d'Ingéniérie Aérospatiale de l'université de Pise (Prof. M.V. Salvetti) et l'université de Tomsk, Russie (Prof. S. Peigin) par une participation à un Projet de l'Institut Liapunov (voir 7.4).


Lorsqu'un engin spatial de type << navette >> pénêtre les couches denses de l'atmosphère dans la phase dite de rentrée, sa très grande vitesse, qui est de l'ordre de 7 km/s à l'altitude de 75 km, provoque la formation d'un choc détaché de très grande intensité ce qui induit localement une élévation de température considérable (plusieurs milliers de Kelvin). En conséquence, les molécules d'azote et d'oxygène qui, loin de l'engin, forment un mélange gazeux en l'équilibre, se dissocient à la traversée du choc, créant un mélange réactif d'au moins 5 espèces en fort déséquilibre chimique et thermique. Les équations classiques de la Mécanique des Fluides Visqueux se compliquent par la plus grande complexité du modèle de transport. De plus, d'autres équations s'y rajoutent pour prendre en compte en particulier le bilan des espèces chimiques et la relaxation vibrationnelle des molécules.

Dans ce domaine, notre action de recherche, en amont de l'usage courant des codes d'exploitation, a pour but d'évaluer la sensibilité des écoulements hypersoniques (eulériens ou visqueux) hors-équilibre au degré de raffinement de la modélisation chimique et thermodynamique (couplages des modes hors-équilibre entre eux, termes de transport, catalyse à la paroi, etc.), et le coût des méthodologies numériques rendues nécessaires pour leur prise en compte.

Alors que jusqu'ici on avait surtout étudié les modèles de transport complexes, et les questions liées au couplage des modèles chimique et thermique, nos études récentes ont principalement porté sur la prise en compte du phénomène de catalyse à la paroi.

Catalyse à la paroi

À la traversée du choc, l'énergie cinétique du mélange gazeux se transforme en énergie interne, dont la température est la manifestation, et qui est absorbée par la dissociation chimique endothermique des molécules diatomiques d'azote et d'oxygène en espèces monoatomiques qui sont prépondérantes dans la couche de choc. À l'inverse, la recombinaison des molécules, qui est favorisée ou << catalysée >> par l'agent solide de paroi, a pour effet d'augmenter le transfert thermique pariétal, et il est essentiel de savoir prédire numériquement ce phénomène. Dans sa thèse, C. Godart a développé une étude numérique des modèles connus de la littérature et présenté des comparaisons aux données de vol de la navette américaine Orbiter [9]-[20].

Validation, base de données

Notre participation à l'organisation de l'Atelier << HSFF >> (Partie 2) du CIRA (voir 7.3) nous a conduit à enrichir la base de données de validation nommée << FLOWNET >> d'un chapitre nouveau sur les écoulements hypersoniques. Par ailleurs, un logiciel a été développé pour la construction à partir de résultats de simulations numériques d'écoulements des images généralement fournies par l'expérience (interférogrammes, ombroscopies, strioscopies) [9]. Ce logiciel sera inséré dans le logiciel graphique VIGIE développé par R. Fournier (Service SEMIR) pour la comparaison d'écoulements calculés ou mesurés.

Méthodes multigrilles



Participants : Gilles Carré , Alain Dervieux , Luc Fournier , Jérôme Francescatto , Hervé Guillard , Stéphane Lanteri


Résumé : Les méthodes multigrilles constituent un thème de recherche majeur du projet SINUS. Les études en cours portent sur l'adaptation du concept de multigrille par agglomération à la simulation numérique d'écoulements turbulents en maillages triangulaires fortement étirés, la mise au point d'algorithmes multi maillages reposant sur l'utilisation d'une hiérarchie de grilles éléments finis construites par déraffinement et remaillage local et la prise en compte du parallélisme à la fois pour les calculs intervenant à l'intérieur d'un niveau donné et entre les différents niveaux de grille (algorithmes additifs). Par ailleurs, le projet est maître d'oeuvre depuis novembre 1996 dans une action R&D visant l'implantation et la démonstration du savoir-faire en multigrille par agglomération dans le logiciel industriel N3S-NATUR.


Multigrille algébrique pour les équations de convection-diffusion



Participants : Hervé Guillard , Petr Vanek (université du Colorado à Denver)


Le point de départ de ce travail repose sur l'analogie entre les méthodes d'agglomération de volumes telles qu'elles ont été développées dans le projet SINUS et les méthodes multigrilles algébriques utilisant le concept d'agrégation des inconnues pour construire les niveaux grossiers. Pour les équations elliptiques, les opérateurs de prolongement correspondant à l'agglomération (l'agrégation) des inconnues ne sont pas suffisamment précis et il est nécessaire de les << enrichir >>. Cela peut être fait de manière totalement algébrique en utilisant le concept de lissage des prolongements introduit par Vanek[VMB96]. Cependant cette technique de lissage suppose un déraffinement des espaces fins d'un facteur 3 alors que la pratique multigrille usuelle privilégie plutôt un déraffinement par un facteur 2. Dans ce travail, on a, d'une part, étendu la technique de lissage des prolongements pour admettre des facteurs de déraffinement arbitraires et, d'autre part, on s'est intéressé à l'extension de ces méthodes à des équations de type convection-diffusion. Les résultats obtenus sont très encourageants et les taux de convergence observés sont comparables à ceux obtenus sur maillages structurés avec des méthodes géométriques.

Méthode d'agglomération anisotrope



Participants : Alain Dervieux , Jérôme Francescatto


Les travaux sur l'application de méthodes multigrilles avec agglomération anisotrope pour le traitement de maillages très étirés se sont poursuivis avec des applications à divers écoulements stationnaires et instationnaires reposant sur des modélisations de la turbulence avec deux couches (modèle de Chen et Patel combiné avec la formulation de Menter). Des calculs sur des maillages fins dont le rapport d'étirement atteint plusieurs milliers, ont permis de valider ces modèles pour des calculs d'échappement de tourbillons réputés inatteignables par ces modèles (communication commune avec une équipe de Dassault Aviation à un symposium à Delft).

Multigrille 3D << emboités par noeuds >>



Participants : Robert Fournier , Hervé Guillard


Avec les progrès en maillage automatique, il est de plus en plus envisageable de construire des méthodes multigrille efficaces et d'usage relativement facile reposant sur plusieurs maillages (un par niveau). Ce travail constitue une première étape vers la construction automatique de maillages déraffinés en dimension 3. Il s'agit d'étendre au cas 3D la méthodologie de construction de maillages emboités par noeuds mise au point précédemment en 2D [GUIL] et depuis utilisée avec succès pour des calculs Euler ou Navier-Stokes. Une difficulté majeure réside en 3D dans la reconstruction de la frontière (maillage de peau) du maillage volumique que l'on est en train de déraffiner. Ce problème est maintenant résolu par un algorithme reposant sur des optimisations locales soumises à des contraintes sur le respect de la géométrie initiale. Un travail est en cours pour intégrer cet algorithme dans une méthode de déraffinement de maillages volumiques.

Multigrille à maillages multiples



Participants : Alain Dervieux , Jérôme Francescatto , Hervé Guillard


Cette étude en coopération avec Dassault Aviation (M. Mallet et F. Challot) utilise une approche multi maillage rendue possible par les progrès des mailleurs automatiques. Elle a permis de mettre au point une formulation multigrille adaptée à la méthodologie << Least-Square Galerkin >> utilisée dans le logiciel VIRGINIE. L'algorithme englobe des itérations << sans matrices >> de type GMRES adaptées de façon à obtenir un bon lissage des hautes fréquences. Dans le cadre du projet BRITE IDEMAS, en collaboration avec l'Institut von Karman, une étude de grande envergure sera entreprise pour la mise au point d'un algorithme adapté à une famille d'approximations multidimensionnelles (schémas MDHR, << Multi Dimensional High Resolution >>) en 2D et 3D sur des maillages comprenant divers types d'éléments.

Méthodes multigrilles parallèles



Participants : Luc Fournier , Stéphane Lanteri


On s'intéresse ici à l'adaptation d'algorithmes multigrille linéaires par agglomération aux architectures de calcul parallèles et leur application à la résolution numérique d'écoulements de fluides compressibles laminaires et turbulents. Les travaux effectués durant l'année 1997 visent à atteindre cet objectif en abordant des aspects algorithmique parallèle et algorithmique numérique.

Une première activité a porté sur la parallélisation d'une méthode multigrille linéaire existante qui avait été préalablement développée dans le cadre de la thèse de G. Carré [1] (résolution numérique des équations de Navier-Stokes 2D couplées à un modèle de turbulence $k-\varepsilon$). Les performances parallèles de l'algorithme multigrille multiplicatif (les niveaux de grille sont traités en séquence) parallèle résultant ont été évaluées sur deux plateformes : l'architecture MIMD en mémoire partagée SGI Power Challenge Array (à base du processeur Mips R8000/90 Mhz) du centre Charles Hermite de Nancy et une plateforme expérimentale comprenant 12 Pentium Pro (P6/200 Mhz) interconnectés par une technologie FastEthernet 100 Mbit/s mise en place à l' Inria Sophia Antipolis. La stratégie de parallélisation combine des techniques de partitionnement de maillages (utilisation de l'outil MS3D développé par Simulog) et un modèle de programmation en mémoire distribuée (standard d'échange de messages MPI).

Cette étape a nécessité le développement d'une technique d'agglomération de maillages éléments finis partitionnés. L'approche utilisée pour la construction d'une hiérarchie de grilles de calcul repose sur un principe d'agglomération de volumes. Notons tout d'abord qu'il n'y a pas unicité de l'algorithme d'agglomération. On a utilisé dans un premier temps l'algorithme mis au point en 2D et qui est de nature topologique (algorithme de type << glouton >> sur les voisins pour construire une macro-cellule) et suit la numérotation du maillage (boucle principale sur les noeuds). L'efficacité du multigrille est sensible à la qualité de l'agglomération. Si l'approche utilisée jusqu'ici s'avère adéquate dans la majeure partie des cas, il existe cependant des situations où la dépendance vis-à-vis de la numérotation du maillage devient pénalisante ; par ailleurs, dans un contexte multi domaine, la numérotation globale unique est remplacée par plusieurs numérotations locales (une pour chaque sous-domaine) ce qui n'est pas sans incidence sur le résultat de l'agglomération vue globalement. Ces raisons nous amèneront donc à envisager dans la suite des alternatives à la procédure d'agglomération topologique qui utiliseraient des principes issus des algorithmes de partitionnement de maillages non-structurés de façon à introduire des facteurs géométriques (avec, par exemple, l'utilisation des axes d'inertie principaux des sous-domaines).

Les premières expérimentations numériques avec l'algorithme multigrille multiplicatif parallèle ont montré les limites généralement observées avec ce type d'approche : la progression du traitement depuis le niveau fin vers le niveau le plus grossier se traduit par une dégradation des performances parallèles due à une évolution défavorable du rapport entre étapes de calcul et étapes de communication. Différentes stratégies sont possibles pour améliorer cette situation ; l'approche qui nous intéresse repose sur une notion de filtrage de résidus et conduit à la construction d'une variante additive de l'algorithme multigrille original. Dans ce cas, les différents niveaux peuvent être traités en parallèle, ce qui constitue un second niveau de parallélisme. Une étude théorique préliminaire effectuée dans le cadre de la thèse de B. Koobus [KOOB] a permis de démontrer que l'algorithme additif est convergent sous certaines formes des hypothèses multigrille classiques (hypothèses de lissage et d'approximation). Cette étude théorique est en cours de consolidation avec, notamment, une analyse spectrale dans le cas linéaire qui permettra d'affiner les propriétes de convergence de l'algorithme. La mise en oeuvre parallèle est plus délicate et fait l'objet d'un travail en cours.

L'ensemble des travaux ci-dessus a fait l'objet d'une présentation aux journées numériques de Besançon en septembre ; les actes seront publiés dans un numéro spécial de la revue << Calculateur Parallèle >>.

Multigrille par agglomération dans N3S-NATUR



Participants : Gilles Carré , Alain Dervieux , Stéphane Lanteri


Le travail décrit ici est au coeur du programme R&D N3S-PMG[*] et vise le transfert dans un logiciel à usage industriel du savoir-faire du projet SINUS en multigrille linéaire par agglomération. L'enjeu est important : les simulations numériques ciblées font appel à des modélisations complexes (turbulence, combustion) ; les géométries sont complexes et, dans certains cas, à frontières variables (maillages non-structurés déformables).

Cette première année de l'étude nous a permis de mettre en place la méthode multigrille linéaire par agglomération dans une version séquentielle de N3S-NATUR. La validation de ces développements a été réalisée sur des cas tests modèles : écoulement externe autour d'une aile ONERA M6 (résolution des équations d'Euler) et géométrie de marche 3D (résolution des équations de Navier-Stokes couplées à un modèle de turbulence $k-\varepsilon$). Ces premiers calculs visent à vérifier les propriétés intrinsèques de la méthode (en particulier, l'indépendance de la vitesse de convergence par rapport à la taille du maillage dans les étapes de résolution linéaires) ; la deuxième phase de l'étude verra se concentrer nos efforts sur la mise au point de la méthode sur plusieurs cas tests d'intérêt industriel et sur le développement d'une version multigrille parallèle.

Méthodes de décomposition de domaine



Participants : Jean-Antoine Désidéri , Victorita Dolean , Stéphane Lanteri


Résumé : Il s'agit-là d'une activité qui démarre au sein du projet et pour laquelle on s'intéresse à la mise au point, l'analyse et l'évaluation d'algorithmes de résolution par décomposition de domaine pour des systèmes discrets issus d'EDP hyperboliques ou mixtes hyperboliques-paraboliques. L'étroite similarité formelle existant entre les méthodes hiérarchiques de type multigrille et celles par décomposition de domaine nous conduit à étudier plus profondément leur lien et les possibilités de couplage des deux approches. Cet axe de recherche est une composante d'un projet du Laboratoire franco-chinois LIAMA dont le projet est responsable.


Méthodes sans recouvrement pour des problèmes de convection-diffusion



Participants : Jean-Antoine Désidéri , Victorita Dolean , Stéphane Lanteri


Les méthodes de décomposition de domaines sans recouvrement (ou méthodes du complément de Schur) sont étroitement liées aux techniques d'élimination de Gauss par bloc (chaque bloc correspondant à un sous-domaine). Elles consistent à ramener la résolution d'un problème global posé sur l'ensemble des degrés de liberté (d.d.l.) issus d'une discrétisation éléments finis du domaine de calcul, à la résolution d'un problème de taille moindre posé sur les d.d.l. << interfaces >>. Ces derniers sont associés aux noeuds situés sur les interfaces entre les sous-domaines formant la partition du domaine de calcul. Le problème interface ainsi posé est alors résolu par une méthode itérative adaptée (méthode de Krylov). L'avantage principal de ces méthodes par rapport à celles basées sur l'utilisation de domaines recouvrants est le degré plus élevé de parallélisation. Les problèmes locaux peuvent être résolus presque indépendamment, des étapes de communication n'étant nécessaires que dans la phase d'assemblage des résultats locaux en vue de l'obtention de la solution globale. Les problèmes locaux dans chaque sous-domaine sont posés avec des conditions aux limites de type Dirichlet ou Neumann selon la nature de la frontière (si la frontière est << vraie >> on a des conditions de Dirichlet et s'il s'agit d'une interface on a des conditions de flux imposé).

L'étude qui nous intéresse ici, constitue le sujet de thèse de Victorita Dolean (allocation de recherche co-financée du CNES) et vise les trois objectifs généraux suivants :

- construction d'algorithmes par décomposition de domaines sans recouvrement pour des équations modèles de type mixte hyperbolique/parabolique (convection-diffusion en linéaire) ;
- analyse spectrale du mécanisme de convergence pour le problème modèle linéaire;
- extension des algorithmes aux équations de la Mécanique des Fluides et application à la résolution de problèmes de complexité croissante.

Méthodes spectrales et simulation directe de la turbulence compressée



Participants : Olivier Botella , Roger Peyret


L'écoulement d'un gaz lors de la phase de compression d'un moteur à piston est soumis à des phénomènes de rotation et de recirculation qui ne sont pas encore complètement compris. Les investigations numériques utilisant des modèles de turbulence, notamment les modèles $k-\epsilon$,sont rendues difficiles par le caractère fortement anisotropique de ces écoulements, qui est très imparfaitement pris en compte par les modèles statistiques actuels. Le manque d'informations de référence sur les caractéristiques de ces écoulements turbulents, qui permettraient de guider la modélisation et de valider ces modèles, motive la mise au point de codes de simulation directe.

Dans le cadre de la thèse de O. Botella, une étude bidimensionnelle du problème est menée. Un code résolvant les équations de Navier-Stokes par une méthode de projection a été mis au point[12]. L'approximation spatiale est effectuée par une méthode spectrale de type Tchebyshev, dont les propriétés de précision permettent de représenter au mieux la complexité d'un écoulement turbulent, et l'approximation temporelle est d'ordre trois. Les divers problèmes numériques posés par la résolution des équations de Navier-Stokes par les méthodes spectrales sont analysés dans un article à paraître dans << Computational Fluid Dynamics Review >> [PEYR].

Afin d'étudier l'écoulement prenant place durant la phase de compression d'un moteur à piston, ce code a été modifié de manière à permettre le calcul de solutions singulières des équations de Navier-Stokes. Ces singularités sont causées par la discontinuité des conditions aux limites : la vitesse prend des valeurs multiples aux points de contact entre le piston et les parois du domaine. De telles solutions singulières ont été obtenues en développant une technique de soustraction de la singularité. Cette technique a été validée avec succès pour l'écoulement de référence dans la cavité entraînée (dont les conditions aux limites comportent des singularités du même type que le problème du piston), et l'injection d'un fluide dans un canal. Ces travaux ont été présentés au congrès << Numerical Modelling in Continuum Mechanics >> à Prague [19]. Des premiers calculs utilisant le code $2D$ du piston, effectués sur le CRAY C98 de l' IDRIS en 1997, ont montré, lors de la compression d'un vortex de Taylor-Green pour des nombres de Reynolds compris entre 500 et 1000, l'apparition d'un régime qui peut être qualifié de chaotique lors des dernières phases de la compression.

Algorithmes génétiques pour l'optimisation de formes



Participants : Jean-Antoine Désidéri , Stéphane Lanteri , Nathalie Marco


Résumé : Les problèmes d'optimisation en aéodynamique industrielle sont de plus en plus complexes. Les critères à optimiser sont très souvent non différentiables, non convexes. De nombreux paramètres d'optimisation doivent être pris en compte, ainsi que des contraintes géométriques et aérodynamiques. Il est donc indispensable d'implémenter des optimiseurs robustes. Les algorithmes génétiques (AG) semblent les mieux adaptés étant donné qu'ils n'ont pas besoin d'hypothèse de différentiabilité, qu'ils travaillent avec une population de solutions potentielles (ce qui leur permet d'explorer au maximum l'espace de recherche), à la différence des algorithmes de gradient qui risquent de tomber dans un optimum local. Les AG sont basés sur les lois de la sélection naturelle : la population évolue vers l'individu optimal, solution du problème posé.


Algorithmes génétiques parallèles



Participants : Stéphane Lanteri , Nathalie Marco


En 1996, une première étude de faisabilité des AG s'est effectuée sur un problème modèle 1D, ainsi qu'une étude en optimisation multi critère (fait d'optimiser simultanément plusieurs critères). L'étude des AG a alors été étendue à l'optimisation de formes 2D en aérodynamique. Tout d'abord, nous avons travaillé sur un problème inverse (reconstruction d'un profil d'aile NACA0012), puis sur une optimisation directe, la réduction de la traînée de choc sur un profil d'aile RAE2822. Cependant, un problème d'optimisation en aérodynamique demande un très gros effort en temps de calcul pour l'évaluation du coût d'un individu (environ 90$\%$ du temps total). Et plus le problème est complexe, plus on a besoin de travailler avec une population de taille importante, et plus il y aura d'évaluations.

Partant de ce constat, nous avons proposé et implémenté une stratégie de parallélisation à deux niveaux. Le premier niveau de parallélisation porte sur le calcul de l'écoulement et s'appuie sur des travaux effectués par le passé au projet [6] : on applique une stratégie de parallélisation qui combine des techniques de partitionnement de maillage et un modèle de programmation par échange de messages (utilisation du standard MPI). Le deuxième niveau de parallélisation concerne la boucle principale de l'algorithme génétique. Nous utilisons la notion de groupes de processus qui est l'une des principales caractéristiques de l'environnement MPI. Durant chaque génération, l'étape de sélection des individus fait appel à une procédure de tournoi à deux points, c'est-à-dire que les individus sont sélectionnés deux par deux. Les nouvelles valeurs d'adaptation associées aux deux individus candidats peuvent alors être évaluées en parallèle ; l'idée de base consiste à former deux groupes de processus et à allouer un calcul d'écoulement à chaque groupe. Le nombre de processus par groupe est fixé par le partitionnement du maillage sous-jacent.

Cette stratégie a été mise en oeuvre et évaluée sur les architectures suivantes : SGI Power Challenge Array équipée de processeurs Mips R8000/90 Mhz et SGI Origin 2000 équipée avec des processeurs Mips R1000/195 Mhz, toutes deux situées au centre Charles Hermite de Nancy, et une plateforme expérimentale comprenant 12 Pentium Pro (P6/200 Mhz) interconnectés par une technologie FastEthernet 100 Mbit/s mise en place à l'Inria Sophia Antipolis. Ce travail a fait l'objet de présentations aux congrès Euro-Par'97 en août (Passau, Allemagne) et Eurogen'97 en novembre (Trieste, Italie). Cette étude va maintenant se poursuivre dans le cadre du projet ESPRIT DECISION avec l'étude d'algorithmes génétiques parallèles basés sur l'utilisation de modèles de sous-populations.

Optimisation de voilures 3D



Participants : Jean-Antoine Désidéri , Stéphane Lanteri , Nathalie Marco


L'optimisation de formes aérodynamiques 3D reste un objectif ambitieux, notamment lorsque l'on vise une modélisation de l'écoulement fluide sous-jacent par le système des équations d'Euler ou de Navier-Stokes. On s'intéresse ici à l'utilisation d'algorithmes génétiques (au moins dans une phase préliminaire de l'optimisation) pour un problème de réduction de traînée de choc induite par l'écoulement eulérien autour d'une aile 3D. Le premier obstacle à gérer concerne la technique de paramétrisation de la forme considérée. Cette technique doit garantir la manipulation de formes régulières, critère particulièrement d'actualité lorsque l'on se propose d'utiliser des opérateurs pseudo-aléatoires (les opérateurs génétiques) pour la génération des formes candidates. La solution adoptée repose sur une extension des représentations par courbes de Bézier, déjà mise en oeuvre en 2D pour des problèmes d'optimisation de profils d'aile, au traitement d'une surface triangulée. La réduction du coût global de l'optimisation est ensuite étudiée suivant deux directions : d'une part, on étend la stratégie de parallélisation précisée au paragraphe précédent, au solveur fluide 3D (sur la base des travaux réalisés dans [6]) et, d'autre part, on cherche à hybrider l'algorithme génétique avec une technique locale classique plus efficace au voisinage de l'optimum; ce dernier point est considéré dans le cadre de notre participation au projet ESPRIT DECISION.

Contrôle d'écoulements



Participants : Alain Dervieux , Angelo Iollo


Résumé : De plus en plus, l'ingénieur s'intéresse à la prédiction de phénomènes instables et à leur contrôle. Les phénomènes font soit intervenir des instabilités à l'intérieur d'un modèle (décollements, tourbillons, etc.) soit dans des couplages (aéroélasticité). Pour réaliser le contrôle de ces phénomènes, on est amené à construire des modèles moins chers et plus particuliers. Les activités du projet se sont concentrées cette année sur la conception de simplifications reposant sur la technique << Proper Orthogonal Decomposition >> appliquées au modèle des équations d'Euler en volumes finis.


Le besoin de prédire automatiquement des écoulements complexes se fait de plus en plus sentir. Ces prédictions doivent être réalisées dans des conditions de coût et de délai contraignantes. Deux cas typiques sont les suivants :

-
les calculs embarqués : cette démarche est déjà courante pour des processus liés aux oscillations de structures ou à des réactions physicochimiques (carburateurs, etc.) ;
-
les phases d'optimisation globale d'un produit pour lequel les divers métiers (aérodynamique, structures, électromagnétisme, etc.) doivent interférer de très nombreuses fois en un délai le plus court possible.

Ce deuxième point est celui envisagé dans le cadre du contrôle actif d'écoulements instationnaires, qui est la motivation de la présente étude. Le problème à résoudre tout d'abord est celui de la construction d'un modèle d'ordre inférieur, que l'on peut formuler ainsi : prédire rapidement un écoulement faisant partie d'une famille d'écoulements très restreinte en profitant de la faible variabilité qualitative et quantitative de ces écoulements.

Le travail entrepris prend place dans le cadre d'une coopération avec Dassault Aviation sur le contrôle actif d'écoulements. Il est financé par le programme européen TMR au titre d'une bourse Marie Curie. Les méthodes explorées ici ressortissent de la POD (<< Proper Orthogonal Decomposition >>), une idée proposée par Lumley, que l'on applique à des écoulements numériques, c'est-à-dire calculés avec un modèle numérique (de type Navier-Stokes, typiquement). On se restreint à une géométrie bien définie ; à partir d'écoulements (actuellement régis par les équations d'Euler) instationnaires, on extrait un certain nombre de clichés instantanés (à des temps fixés). La méthode POD construit une matrice de corrélation entre les clichés grâce au choix d'un produit scalaire. De la matrice de corrélation, on extrait quelques modes principaux (vecteurs propres les plus énergétiques) qui forment la base POD.

Cette base sert à la construction d'un modèle numérique via une approche variationnelle de type Galerkin discrétisant dans cette base les équations d'Euler instationnaires. Les investigations théoriques et numériques réalisées cette année ont fait apparaître les points suivants :

-
la méthode de Galerkin est instable,
-
une stabilisation peut être construite en s'inspirant des méthodes de Galerkin discontinues,
-
dans ces conditions on a aussi proposé divers moyens de réduire fortement le coût du calcul tout en maintenant la précision.

Ces résultats sont présentés dans un rapport Inria à paraître.

Génie logiciel et parallélisme



Participants : Laurent Hascoët , Pierre-Yves Calland , Stéphane Lanteri , Mohamed Tadjouddine


Mots-clés : transformation automatique de programme, compilation, parallélisation, SIMD, partition de maillage, SPMD


Résumé : Les programmes de calcul numérique sont en général coûteux en mémoire et en temps d'exécution. Une réponse naturelle à ce problème est l'exploitation de calculateurs parallèles. En l'état actuel de la technique informatique, ce passage à une architecture parallèle nécessite une transformation du programme. Plus généralement, de nombreuses sortes de transformations sont pratiquées sur les programmes de calcul numérique. On peut citer par exemple l'extraction de sous-programmes, qui améliore la modularité, ou la différentiation, qui déduit le programme calculant l'adjoint d'un programme donné. Toutes ces transformations, effectuées manuellement, sont fastidieuses et sources d'erreur. On tente donc de développer des outils automatiques ou semi-automatiques qui les réalisent. En règle générale, tous ces outils partagent un ensemble commun d'analyses et de techniques, qui proviennent du domaine de la compilation.

Dans le projet SINUS, on se concentre sur les questions liées à la parallélisation, d'une part dans l'optique de la vectorisation étendue ( HPF, FORTRAN95), d'autre part dans l'optique de la parallélisation SPMD par partition de maillage et programmation dans un modèle par échange de messages. Nous étudions aussi les transformations plus élémentaires telles que l'extraction de sous-programme.

Par ailleurs, en coopération avec le projet SAFIR, nous examinons des problèmes rencontrés par l'outil ODYSSÉE pour la différentiation automatique en modes direct ou inverse.


Vectorisation étendue



Participants : Pierre-Yves Calland , Laurent Hascoët


Nous avons continué le développement de l'outil PARTITA dans la direction de la parallélisation à grain fin, que l'on peut aussi voir comme l'extension de la vectorisation. Il s'agit donc toujours de paralléliser des boucles du programme. PARTITA est désormais capable de générer du code exploitant les possibilités de HPF, telles que le forall ou les boucles HPF-INDEPENDANT. La réflexion se poursuit, avec Pierre-Yves Calland du LIP, pour l'utilisation de PARTITA comme outil d'aide au choix des directives d'alignement.

Par ailleurs, l'outil PARTITA a reçu une extension fondamentale : il est maintenant possible de paralléliser un fragment de programme donné, ce qui non seulement accroît la souplesse d'utilisation, mais surtout permet de nouvelles applications telles que la définition de tâches parallèles ou l'extraction de sous-programmes.

Partition de maillage



Participants : Laurent Hascoët , Stéphane Lanteri


Dans le cadre du projet GENIE, nous avons poursuivi les recherches sur la mise en place automatique des communications entre processeurs pour une parallélisation SPMD. Un article présentant les principes de la méthode a été présenté à la conférence PPoPP'97 à Las Vegas. La maquette mono-procédurale réalisée l'année dernière a été reprise et étendue. On dispose maintenant d'un outil pourvu d'une interface utilisateur, intégrée dans PARTITA. Cet outil traite désormais des programmes composés de plusieurs sous-programmes. On explore diverses techniques pour maîtriser l'explosion combinatoire provenant de ces programmes multi procéduraux. Cette première version de l'outil permettra de premières expériences sur des programmes réels.

Différentiation automatique



Participants : Laurent Hascoët , Mohamed Tadjouddine


L'un des problèmes majeurs de la différentiation automatique est la taille des tableaux qui stockeront les matrices jacobiennes. L'analyse de dépendances déjà développée dans PARTITA permet en principe de limiter cette taille, par une analyse statique qui prouvera que certains éléments de ces matrices jacobiennes sont toujours nuls. On peut alors envisager des modes de stockage plus économes. Nous collaborons ici avec Mohamed Tadjouddine, du projet SAFIR, pour définir des analyses du graphe de dépendances qui détectent les jacobiennes simples, multi diagonales ou triangulaires. Une version expérimentale de ces analyses sera implémentée à l'intérieur du système PARTITA.




previousup next contents Précédent : Grands domaines d'application Remonter : Projet SINUS, Simulation Numérique dans Suivant : Actions industrielles