Télécharger le fichier pdf d’un mémoire de fin d’études
Modélisation et simulation de l’Interaction mécanique Pastille-Gaine
Motivations de l’étude
Maillages quadrilatéraux/hexaédriques
Ces approches sont inspirées des méthodes multigrilles standards qui consistent à accélérer la convergence d’un calcul sur un maillage très fin en utilisant une hiérarchie des maillages globaux déraffinés, cf. Figure 1.13a. Les solutions sur ces différents niveaux couvrant l’ensemble du domaine de calcul sont successivement lissées, jusqu’à atteindre la convergence sur la grille initiale la plus fine. Ces approches exploitent une résolution itérative basée sur les opérateurs de transfert : l’opérateur de restriction permet de transmettre un résidu d’un niveau fin vers un niveau grossier, tandis que l’opérateur de prolongement consiste à transmettre une correction d’un niveau grossier vers un niveau fin.
Les méthodes multigrilles locales exploitent une hiérarchie de grilles inverse, cf. Figure 1.13b. Introduites dans un contexte de raffinement de maillage multiniveau, l’idée des méthodes multigrilles locales est de fournir une possibilité pour “zoomer” le domaine de calcul dans les régions d’intérêt et ainsi d’améliorer localement la précision de la solution tout en corrigeant la solution grossière. Partant d’un maillage grossier initial couvrant tout le domaine Ω, ces techniques consistent à ajouter des niveaux de maillages avec des éléments de plus en plus fins uniquement dans les régions où une précision plus élevée est requise, voir Figure 1.13b. Étant générique et flexible, les méthodes AMR multiniveaux permettent de changer le ratio de raffinement, le modèle, le solveur, le maillage (les niveaux de maillages pas forcément hiérarchiques), etc. entre chaque niveau (voir par exemple [70, 71]).
Les méthodes basées sur le raffinement local du pas de maillage (par exemple méthodes h-, r-, s-adaptatives, CHARMS et multigrilles locales) semblent être les plus adaptées dans notre contexte. L’applicabilité des approches p-adaptatives en présence des singularités et leur mise en œuvre dans des solveurs industriels (généralement conçus pour traiter des éléments d’ordre deux maximum) sont limités. Le principal inconvénient de l’approche r-adaptative est la limitation du nombre de nœuds régie par la discrétisation initiale. Dans la méthode s-adaptative, tous les degrés de liberté des niveaux de maillages générés sont résolus simultanément, ce qui rend cette technique similaire à une technique de type h-adaptatif mais plus coûteuse vis-à-vis des résolutions implicites considérées dans ce travail. A son tour, la technique CHARMS nécessite de développer un solveur dédié, dont la mise en œuvre peut être intrusive.
Il faut également noter que nous adoptons dans cette étude la stratégie de raffinement hiérar-chique, où le maillage initial (qui peut être issus du modèle CAD, effectué avec un générateur de maillage, …) est raffiné en divisant les éléments nécessaires. Cette approche semble être plus géné-rique et robuste comparée à la stratégie basée sur le remaillage complet. Par ailleurs, comme il a été décidé de traiter les maillages composés exclusivement d’éléments quad/hexa, les approches faisant intervenir les éléments d’autres types (maillages hybrides) ne seront pas considérées par la suite.
Par conséquent, dans ce travail nous choisissons de nous appuyer sur les deux classes de méthodes AMR visant le raffinement local du pas de maillage h mais qui exploitent des processus de résolution conceptuellement différents : stratégies h-adaptatives et méthodes multigrilles locales.
Parmi les techniques de type h-adaptatif, les deux approches suivantes sont considérées : technique h-adaptative hiérarchique non-conforme (cf. Figure 1.8b) et technique h-adaptative hiérarchique conforme (cf. Figure 1.8c). Le raffinement avec la méthode h-adaptative non-conforme conduit à des maillages non-conformes qui nécessitent des contraintes supplémentaires pour maintenir la continuité de la solution. Les technique conforme adoptée ici vise à conserver la conformité du maillage grâce au raffinement basé sur des opérations sur des couches [34].
Parmi les méthodes multigrilles locales, la méthode Local Defect Correction (LDC), appliquée précédemment avec succès à des problèmes de mécanique avec singularité locales [88, 89, 20, 102], semble être la technique de raffinement multiniveau la plus appropriée. La méthode LDC peut être vue comme une méthode h-adaptative non-conforme où chaque sous-niveau est résolu séparément de façon conforme (grâce au processus itératif).
Soient u le champ de déplacements, σ et ε les champs des contraintes et de déformations, res-pectivement, f la densité volumique d’efforts définis sur Ω, et C le tenseur des modules d’élasticité d’ordre 4. Le problème à résoudre s’écrit : div σ + f = 0 = : σ C ε (P) : ε(u) = 12 (grad u + gradT u) Les conditions aux limites de type Dirichlet (un déplacement donné uD) sont imposées sur D =6 ∅, tandis que les conditions aux limites de Neumann sont appliquées sur N, avec n vecteur unitaire normal dirigé vers l’extérieur de Ω et F N la force exercée. Le problème est alors bien posé au sens où l’existence et l’unicité de la solution en déplacements et en contraintes sont garanties.
La solution exacte (u, σ) du problème donné est le couple de champ de déplacement cinémati-quement admissible satisfaisant les relations de compatibilité de (1.1) et défini comme uCA = {v; v continu et régulier dans Ω et v = uD sur D} (1.2) et de champ des contraintes statiquement admissible satisfaisant σSA = {τ; −div τ = f dans Ω et τn = F N sur N} (1.3)
La solution “améliorée” u∗h est obtenue en résolvant un même problème sur un maillage avec des éléments plus raffinés ou des fonctions de forme d’ordre plus élevé. L’erreur de discrétisation est ainsi évaluée comme la différence entre la solution enrichie u∗h et l’originelle uh.
Cette approche est très attractive grâce à son applicabilité à une large classe de problèmes et sa simplicité. Il est cependant évident que son inconvénient majeur est le sur-coût de calcul induit par la résolution d’un problème de dimension ou de complexité supérieure.
Cette approche repose sur la comparaison de deux solutions issues de différentes analyses éléments finis du même problème : l’une obtenue en se basant sur la formulation en déplacement (solution cinématiquement admissible) et l’autre sur la formulation en contraintes (solution statiquement ad-missible).
En sus de l’analyse complémentaire du même problème engendrant un coût de calcul additionnel, la difficulté de cette approche est liée au calcul du champ des contraintes statiquement admissible via une formulation en effort. Ces estimateurs sont assez peu répandus et n’existent quasiment pas dans des codes de calculs industriels.
Il faut noter que dans les cas linéaires, cette approche s’appuie sur la même base théorique que celle des estimateurs en relation de comportement. Les mesures d’erreur obtenues avec ces deux types d’estimateurs sont donc équivalentes. Cette approche peut être vue comme un cas particulier des es-timateurs impliquant la loi de comportement où le champ des contraintes statiquement admissible est obtenu d’une façon différente.
Deux types d’estimateurs basés sur les résidus d’équilibre peuvent être distingués : les techniques explicites et implicites. Les estimateurs qualifiés d’explicites – Global Explicit Residual Based Error Estimator [114] – se basent directement sur la solution calculée du problème pour obtenir une es-timation globale d’erreur dans une certaine norme. Les estimateurs de ce type ont de fortes bases mathématiques [115, 116], et sont relativement simples de mettre en œuvre. Ils sont néanmoins peu implémentés dans des codes de calculs. Cela s’explique par la complexité d’évaluer avec précision des constantes impliquées dans les expressions de l’estimateur d’erreur [117].
Afin d’éviter le calcul de constantes nécessaires pour les versions explicites de l’estimateur, les approches implicites ont été proposées. L’idée sous-jacente des estimateurs implicites est de rechercher une estimation à travers la résolution de problèmes de petites tailles formulés sur les éléments, méthode appelée Element Residual Method [118, 119], ou des patchs d’éléments, appelées Subdomain Residual Method [120, 121, 122]. Ces estimateurs permettent l’évaluation plus précise de l’erreur comparé à des estimateurs explicites, mais ils souffrent également de plusieurs inconvénients liés notamment à la formulation de problèmes locaux.
Les principes des estimateurs implicites ont été revisités plus récemment avec le but de contour-ner leurs défauts. Cette nouvelle technique, appelée Flux-free error estimate [123, 124, 125], permet d’éviter le calcul des flux à imposer au bord des patches et conduit à résoudre une série de problèmes auto-équilibrés.
Cette approche peut être assez coûteuse mais elle conduit à des estimations de bonne qualité. Cette stratégie a l’avantage de pouvoir distinguer les différentes composantes d’erreur correspon-dant à la résolution du problème telles que : discrétisation en espace et en temps, linéarisation d’un problème non linéaire, erreur associée au solveur algébrique, etc. Ces informations peuvent être ex-ploitées pour le raffinement adaptatif de maillage en espace/temps, pour la définition de critères d’arrêt adaptatifs pour des solveurs itératifs afin de réduire l’erreur numérique et le coût de calcul.
On appelle la démarche de reconstruction du champ de contraintes le lissage de contraintes. Plusieurs techniques de lissages ont été proposées dans la littérature : approche basée sur la projection,
Superconvergent Patch Recovery (SPR) ou encore Recovery by Equilibrium in Patches (REP) . Quelle que soit la stratégie de lissage, l’erreur est estimée comme la différence entre la contrainte lissée σ∗h et celle calculée par EF σh.
Les estimateurs basés sur le défaut de régularité sont en général peu coûteux et offrent un rap-port qualité/coût remarquable. Ils possèdent de nombreux avantages, comme la simplicité de mise en œuvre, le coût de calcul limité et l’applicabilité à tout type de problème. Ils sont ainsi très populaires et répandus dans l’ingénierie et largement utilisés dans le cadre de raffinement adaptatif de maillage, cf. par exemple [135, 136, 137].
|
Table des matières
Introduction
1 Objectifs de la thèse et état de l’art
1.1 Contexte industriel
1.1.1 Réacteur à eau pressurisée
1.1.2 Crayon combustible
1.1.3 Modélisation et simulation de l’Interaction mécanique Pastille-Gaine
1.2 Motivations de l’étude
1.3 Raffinement adaptatif de maillage (AMR)
1.3.1 Généralités sur les méthodes de raffinement adaptatif
1.3.2 Maillages quadrilatéraux/hexaédriques
1.3.3 Méthodes adaptatives
1.3.4 Méthodes multigrilles locales
1.3.5 Choix d’une méthode de raffinement
1.4 Automatisation du processus de raffinement : estimation d’erreur
1.4.1 Problème modèle et notations
1.4.2 Estimation d’erreur
1.4.3 Choix d’un estimateur d’erreur
1.5 Contributions de la thèse
2 Algorithme générique AMR intégrant les méthodes de raffinement local de pas de maillage
2.1 Introduction : algorithme générique AMR
2.2 Résolution du problème : module SOLVE
2.2.1 Méthodes h-adaptatives
2.2.2 Méthode Local Defect Correction
2.3 Estimation d’erreur : module ESTIMATE
2.4 Détection des éléments à raffiner : module MARK
2.4.1 Sous-module OPTIMALITY
2.4.2 Sous-module DETECT
2.5 Critères d’arrêt : module STOP
2.6 Raffinement du maillage : module REFINE
2.6.1 Ratio de raffinement : sous-module RATIO
2.6.2 Introduction de zone de sécurité : sous-module SAFE_ZONE
2.6.3 Correction du ratio de raffinement : sous-module UPDATE_RATIO
2.6.4 Division d’éléments : sous-module DIVIDE
2.7 Remarques sur la parallélisation
2.8 Bilan du chapitre
3 Comparaison numérique des méthodes de raffinement de pas de maillage
3.1 Introduction
3.2 Généralités
3.2.1 Problème considéré
3.2.2 Détails pratiques de la mise en œuvre des méthodes AMR
3.2.3 Post-traitement des résultats
3.3 Benchmark académique : plaque trouée
3.3.1 Définition du problème
3.3.2 Illustrations numériques
3.4 Cas test industriel : Interaction mécanique Pastille-Gaine
3.4.1 Définition du problème
3.4.2 Exemple bidimensionnel
3.4.3 Exemple tridimensionnel
3.5 Conclusions de l’étude comparative
4 Positionnement de la méthode Local Defect Correction dans un contexte d’homogénéisation
4.1 Introduction
4.2 Modélisation multiéchelle
4.3 Problème non linéaire de référence
4.4 Méthodes Local Defect Correction et EF2-hybride
4.4.1 Méthode Local Defect Correction
4.4.2 Méthode d’homogénéisation numérique EF2
4.5 Cadre unifié pour des méthodes multiniveaux
4.6 Bilan du chapitre
5 Extension de la méthode Local Defect Correction à des problèmes non linéaires
5.1 Introduction
5.2 Aspects pratiques de la résolution des problèmes quasi-statiques non linéaires
5.2.1 Algorithme de résolution en temps
5.2.2 Calcul pratique du résidu LDC non linéaire
5.2.3 Transfert des champs
5.3 Problème élastique quasi-statique avec un chargement évolutif
5.3.1 Stratégie de rééquilibrage
5.3.2 Adaptation dynamique du maillage
5.4 Optimisation du processus de raffinement et contrôle de la précision
5.5 Contrôle de l’erreur sur l’historique : modèle élasto-plastique
5.6 Application de la méthode LDC au problème d’IPG avec comportement visco-plastique
5.7 Bilan du chapitre
Annexes
A Techniques de lissage de contraintes pour l’estimateur d’erreur de Zienkiewicz et Zhu
Liste des algorithmes
Liste des figures
Liste des tableaux
Bibliographie
Télécharger le rapport complet
