Télécharger le fichier pdf d’un mémoire de fin d’études
Manque de robustesse de l’inversion g´en´eralis´ee
R´egularisation par approches p´enalis´ees
Principe de la r´egularisation
L’emploi de fonctions de r´egularisation ℓ2ℓ0 conduit syst´ematiquement a` un crit`ere J mul-timodal [Li, 1995, Sec. IV.B], [Blake, 1989, p. 3]. Ce caract`ere multimodal qu’entraˆıne l’usage de fonctions de r´egularisation non convexes a pour cons´equence un manque de robustesse de la solution. En effet, le crit`ere non convexe, de par ses multiples minima locaux pr´esente une forme d’instabilit´e de la solution xˆ par rapport aux donn´ees et aux param`etres de r´eglage. Cette instabilit´e est soulign´ee notamment dans [Bouman et Sauer, 1993, Sec. I.B]. Indiquons que cette instabilit´e est li´ee a` un aspect d´ecision induit par les fonctions de r´egularisation non convexes [Idier et Blanc-F´eraud, 2001, Sec. 6.3.2].
Ce manque de stabilit´e introduit par les fonctions de r´egularisation non convexes tient au fait que xˆ n’est pas une fonction continue des donn´ees ni des param`etres de r´eglage. En d’autres termes, la troisi`eme condition de Hadamard n’est pas satisfaite par xˆ, donc le probl`eme est en-core mal pos´e malgr´e la p´enalisation. Par contre, l’usage de fonctions de r´egularisation convexes ne pr´esente pas ces faiblesses et conduit `a un probl`eme bien pos´e.
Mˆeme s’il est possible de trouver un exemple en simulation o`u l’utilisation de fonctions de r´e-gularisation non convexes permet d’obtenir une solution plus proche de l’original que l’utilisation de fonctions de r´egularisation convexes, face a` des donn´ees r´eelles, le r´eglage des hyperpara-m`etres est rendu difficile par l’instabilit´e de la solution. Ainsi, il peut ˆetre pr´ef´erable d’utiliser dans un cadre r´eel des fonctions de r´egularisation convexes pour des raisons de robustesse. Il est int´eressant de noter que si initialement, les fonctions de r´egularisation non convexes introduites par [Geman et Geman, 1984] ont et´ largement utilis´ees avant les fonctions de r´egularisation convexes, un revirement est observ´ faisant du recours aux fonctions de r´egularisation convexes l’approche pr´epond´erante, a` la suite de travaux tels que [Bouman et Sauer, 1993].
En outre, la minimisation d’un crit`ere multimodal n´ecessite la mise en œuvre d’algorithmes d’optimisation autrement plus complexes et donc d’un coˆut calculatoire bien plus elev´ que la minimisation d’un crit`ere unimodal.
|
Table des matières
I Introduction
I.1 Position du probl`eme
I.2 Contributions
I.3 Organisation du document
II Inversion par approches p´enalis´ees
II.1 Difficult´es de l’inversion
II.1.1 Probl`emes mal pos´es
II.1.2 Inversion g´en´eralis´ee
II.1.3 Manque de robustesse de l’inversion g´en´eralis´ee
II.2 R´egularisation par approches p´enalis´ees
II.2.1 Principe de la r´egularisation
II.2.2 R´egularisation au sens de Tikhonov
II.2.3 P´enalisations non quadratiques
II.2.4 Crit`ere p´enalis´e g´en´eralis´e
II.2.5 Interpr´etation intuitive du crit`ere p´enalis´e
II.3 Conclusion
III Interpr´etation probabiliste et inf´erence bay´esienne
III.1 Vraisemblance et ad´equation aux donn´ees
III.1.1 Estimation au sens du maximum de vraisemblance
III.2 Inf´erence bay´esienne
III.2.1 Vraisemblance a posteriori
III.2.2 Maximum a posteriori et approches p´enalis´ees
III.3 Ad´equation robuste aux donn´ees
III.4 Mod`eles a priori sur les images
III.4.1 Champ de Gibbs-Markov
III.4.2 Ondelettes
IV Minimisation des crit`eres p´enalis´es
IV.1 Le probl`eme d’optimisation
IV.1.1 Formulation du probl`eme
IV.1.2 Diff´erentiabilit´e du crit`ere p´enalis´e g´en´eralis´e
IV.1.3 Conditions d’optimalit´e
IV.2 M´ethodes it´eratives de minimisation
IV.2.1 Recherche it´erative de la solution
IV.2.2 Crit`ere d’arrˆet
IV.2.3 Qu’est-ce qu’un bon algorithme it´eratif ?
IV.3 M´ethodes it´eratives g´en´eriques
IV.3.1 Algorithmes de relaxation
IV.4 Algorithmes semi-quadratiques
IV.4.1 Principe
IV.4.2 Hypoth`eses sur la fonction de r´egularisation
IV.4.3 Construction de Geman et Reynolds
IV.4.4 Construction de Geman et Yang
IV.4.5 Algorithmes semi-quadratiques
IV.4.6 Interpr´etations des algorithmes semi-quadratiques
IV.4.7 Approximation quadratique majorante
IV.5 Conclusion
V Algorithmes semi-quadratiques approch´es
V.1 Difficult´es de l’inversion des matrices semi-quadratiques
V.2 Inversion approch´ee des matrices semi-quadratiques
V.2.1 Algorithme du gradient conjugu´e lin´eaire
V.2.2 Famille d’algorithmes SQ+GCP
V.3 Convergence des algorithmes SQ+GCP
V.4 Conclusion
VI Algorithmes du gradient conjugu´e non lin´eaire
VI.1 Algorithmes du gradient conjugu´e non lin´eaire
VI.1.1 Forme de Polak-Ribiere pr´econditionn´ee
VI.1.2 Recherche du pas par algorithmes SQ scalaires
VI.2 Comparaison structurelle entre algorithmes SQ et GCNL
VI.2.1 Le pas
VI.2.2 Le pr´econditionnement
VI.3 R´esultat de convergence
VI.3.1 Caract`ere gradient Lipschitz du crit`ere p´enalis´e g´en´eralis´e
VI.3.2 Coercivit´e du crit`ere p´enalis´e g´en´eralis´e
VI.3.3 Les hypoth`eses de l’annexe C sont v´erifi´ees
VI.3.4 Convergence sans conjugaison
VI.3.5 Convergence avec conjugaison
VI.3.6 Relaxation de l’hypoth`ese de coercivit´e ?
VI.4 Conclusion
VII Comparaison exp´erimentale de la vitesse de convergence
VII.1 Probl`eme de d´econvolution d’image
VII.2 Algorithmes compar´es
VII.2.1 Algorithmes SQ+GCP
VII.2.2 Algorithmes GCNL
VII.2.3 Pr´econditionnement
VII.3 Interpr´etation des r´esultats exp´erimentaux
VII.3.1 Algorithmes SQ+GCP
VII.3.2 Algorithmes GCNL
VII.3.3 Influence des param`etres θ et aGY
VII.3.4 Comparaison entre algorithmes SQ+GCP et GCNL
VII.4 Conclusion
VIII.1 Introduction
VIII.1.1 Contrˆole non destructif par ultrasons
VIII.1.2 Etat de l’art
VIII.1.3 Contributions
VIII.2 M´ethode propos´ee
VIII.2.1 Mod`ele direct
VIII.2.2 R´eflectivit´e estim´ee par utilisation d’a priori
VIII.2.3 Minimisation du crit`ere p´enalis´e 2D
VIII.3 R´esultats de la m´ethode
VIII.3.1 Proc´edure de recalage
VIII.3.2 Identification de l’ondelette 2D
VIII.3.3 R´esultats exp´erimentaux
VIII.4 Conclusion
IX Conclusion et perspectives 131
IX.1 Liens entre algorithmes SQ+GCP et Newton tronqu´e
IX.2 Lien entre algorithmes GCNL et m´ethodes `a m´emoire de gradient . . 131
IX.3 Pr´econditionnement variable pour les algorithmes GCNL
IX.4 La question de la simplicit´e
Annexes 135
A Bibliographie comment´ee sur les m´ethodes GCNL et la recherche du pas 139
A.1 Algorithmes GCNL
A.2 Recherche du pas
A.2.1 N´ecessit´e d’une recherche du pas
A.2.2 Conditions de Wolfe
A.3 R´esultats de convergence
B Preuves des r´esultats 143
B.1 Preuves du chapitre IV
B.1.1 Preuve du Lemme IV.4.1
B.1.2 Preuve du Lemme IV.4.4
B.1.3 Preuve du Lemme IV.4.5
B.2 Preuves du chapitre V
B.2.1 R´esultats pour l’algorithme GCP
B.2.2 Convergence pour un crit`ere g´en´eral
B.3 Preuves du chapitre VI
B.3.1 Preuve du Lemme VI.1.1
B.3.2 Preuve du Lemme VI.3.1
B.3.3 Preuve du Lemme VI.3.2
B.3.4 Preuve du Th´eor`eme VI.3.1
B.3.5 Preuve du Th´eor`eme VI.3.2
B.3.6 Preuve du Lemme VI.3.3
C Convergence of conjugate gradient methods with a closed-form stepsize formula
C.1 Introduction
C.3 Properties of the stepsize series
C.4 Global convergence
C.5 Discussion
C.5.1 The convex quadratic case
C.5.2 The general case
D R´esultats exp´erimentaux sur l’influence des param`etres θ et aGY 171
E D´econvolution aveugle de trains d’impulsions robuste `a l’ambigu¨ıt´e de d´ecalage temporel 175
R´ef´erences bibliographiques 18
Télécharger le rapport complet
