Contour actif par modèle déformable géométrique ou contour géodésique 

Télécharger le fichier pdf d’un mémoire de fin d’études

Acquisition des projections

Depuis le début de l’utilisation de l’imagerie par rayons X dans le domaine médical puis pour les applications industrielles, les systèmes d’acquisition ont beaucoup évolué. Selon les différentes générations de détecteurs, on peut distinguer trois principales géométries d’acquisition (voir Figure 1.3) :
– La géométrie parallèle où le système est formé d’une source et d’un détecteur, et pour laquelle les rayons sont émis suivant des droites parallèles. L’exploration de l’objet est conduite par la succession de translations et de rotations du couple source détecteur.
– La géométrie en éventail, ou fan beam, où le système est formé d’une source et d’un détecteur linéaire ou en arc de cercle, et pour laquelle les rayons émis divergent suivant l’angle d’ouverture du générateur à rayons X. Les projections sont acquises par la succession de rotations du couple source-détecteur autour de l’objet.
– La géométrie conique, ou cone beam, où le système est constitué d’une source et d’un détecteur plan (détecteur imageur), et pour laquelle les rayons sont émis de manière conique. Les projections sont acquises par la succession de rotations du couple source-détecteur autour de l’objet. Ces systèmes ont été conçus pour permettre une reconstruction 3D de l’objet étudié.
Les contraintes d’acquisition imposées par l’application médicale d’une part et in-dustrielle d’autre part peuvent engendrer des configurations d’acquisition non conven-tionnelles. On entend par conventionnelle une configuration permettant l’acquisition des projections sur l’ensemble du domaine angulaire (2 radians) en nombre suffisant.
En effet, dans le domaine médical, on cherche à minimiser la dose délivrée au patient. Celle-ci dépendant de l’intensité du faisceau de rayons X et du temps d’exposition, il convient de jouer sur ces paramètres pour réduire la dose au patient. La diminution du flux induit une augmentation du bruit dans les données acquises, et donc le développement d’algorithmes robustes. La réduction du temps d’exposition peut se traduire par la décroissance du nombre de projections (nombre de vues limité).
Pour les applications industrielles, les contraintes sont plutôt liées à la grande diversité des matériaux analysés et à la géométrie des pièces étudiées, dont les dimensions peuvent s’étendre de l’échelle nanométrique à l’échelle métrique. Compte tenu de ces observations, une résolution spatiale des volumes reconstruits plus fine que pour les applications médicales (0.5mm) est nécessaire. Dans ce domaine, des détecteurs à haute résolution spatiale sont utilisés, ce qui induit des jeux de données très volumineux à traiter. En outre, les conditions expérimentales de contrôle non destructif (CND) sont variées, et certaines géométries peuvent contraindre le domaine angulaire. L’imagerie de phénomènes dynamiques peut également contraindre le temps d’exposition et/ou le nombre de vues.
Ainsi, peut-on résumer différentes configurations d’acquisition possibles de la manière suivante :
– nombre suffisant de projections sur un domaine angulaire complet (Figure 1.4a)
– faible nombre de projections sur un domaine angulaire complet (nombre de vues limité) (Figure 1.4b)
– acquisition sur un domaine angulaire réduit (angle de vue restreint) (Figure 1.4c)

Méthodes de reconstruction

Afin de reconstruire l’image, il faut modéliser mathématiquement les mesures réalisées par le détecteur. Cette modélisation a été proposée en 1917 par Radon. La transformée de Radon 2D décrit la projection d’une fonction f(x, y) 2 R+ sur une droite L paramétrée par (t, ), telle que L(t, ) = fx j h , xi = tg définit le passage de l’espace cartésien à l’espace des projections. Alors les projections qui correspondent aux mesures en un point p du détecteur à un angle de projection donné peuvent s’écrire par la transformée de Radon de la manière suivante : (1.5) p(t,  ) = Rf(t,  )  = Z L fp(r,  ) dl (1.6) = Z L f(t cos  – u sin  , t sin  + u cos  ) .
Les algorithmes de reconstruction permettent de retrouver les valeurs de la fonction objet f en tout point de l’espace f(x, y), (x, y) 2 R2  à partir de l’ensemble des mesures de projection fp(t,  ), 2 [0,  [, 2 Rg (avec p(t,  ) = (-t,  +  )).
Pour cela, il faut inverser l’opérateur de Radon R. Il existe différentes approches que l’on peut classer selon deux familles :
– les algorithmes analytiques, très rapides en temps de calcul et de haute qualité de reconstruction, mais aussi très sensibles au bruit. Ce type d’algorithme est condictionné par Shannon [88] ne peut fournir de reconstructions acceptables dans le cas d’un faible nombre de projections ou celui de projections acquises sur un domaine angulaire réduit.
– les algorithmes itératifs, plus lents en temps de calcul mais plus robustes. L’avantage incontestable de ces méthodes est qu’elles offrent la possibilité d’intégrer des infor-mations a priori sur l’image, et permettent la reconstruction de volume à partir de données incomplètes (nombre de vues limité ou domaine angulaire restreint). Ces  méthodes utilisent une approche discrète du problème. On distingue deux types d’algorithmes : les algorithmes algébriques qui considèrent les données comme des valeurs déterministes, et les algorithmes statistiques, qui considèrent les données comme une variable aléatoire qui peut être décrite par une loi.

Approche analytique

L’algorithme analytique est une modélisation continu-continu, c’est-à-dire que les données sont interprétées comme les échantillons d’une fonction à variable continue. Les algorithmes analytiques permettent de trouver l’opérateur inverse de Radon de façon analytique en utilisant le théorème de la coupe centrale (Fourier Slice theorem) qui crée une correspondance entre l’espace image et l’espace de projection dans le domaine de Fourier : Z F fR ff( ,  )gg (q) = p(t,  )e-2 iqtdt R(1.7)
Le théorème de la coupe centrale établit que la transformée de Fourier d’une projection correspond à une ligne de la transformée de Fourier de l’image qui passe par l’origine et fait un angle avec l’axe des abscisses (voir Figure 1.5).
À partir de l’équation (1.7), on peut trouver une approximation de la fonction f, notée fˆ en appliquant la transformée de Fourier inverse  fˆ = F-1 fF fp(t,  )gg(1.8)
Le théorème de la coupe centrale permet de reconstruire une coupe tomographique de manière directe à l’aide de la transformée de Fourier inverse. Ainsi, lors une reconstruction, utilisant le théorème de la coupe centrale, on calcule d’abord la transformée de Fourier 1D de chaque projection.
Puis le calcul de la transformée de Fourier inverse 2D aboutit à l’estimation d’une coupe tomographique. Cette méthode, appelée inversion directe, nécessite donc autant  de transformées de Fourier 1D que d’angles de projection, et une transformée de Fourier inverse 2D. La rétroprojection de l’ensemble des projections fournit cependant une version floue de f car elle suppose implicitement qu’un certain nombre d’hypothèses soient vérifiées, qui ne sont en réalité pas toujours vraies (par exemple, faisceau monochromatique infiniment fin).
La méthode analytique la plus couramment utilisée est la rétroprojection filtrée, ou FBP (Filtered Back-Projection), qui est la reconstruction par rétroprojection des projections filtrées [15]. Elle repose sur le résultat suivant :  f = B(pˆ)(1.9) avec pˆ(t, ) = F-1 fFp(t, )(U).jUjg, et qui exprime f comme la rétroprojection des pro-jections filtrées par le filtre rampe jUj. Le filtrage nécessite des opérations 1D, et la rétroprojection est une sommation des contributions de chaque projection.
Les conditions réelles d’acquisition ne permettant de mesurer des projections p que pour un nombre limité d’angles k, et le nombre fini d’éléments du détecteur impliquant des mesures échantillonnées, la fonction f ne sera reconstruite que sur une grille discrète, pour un nombre fini de points. On cherche alors à retrouver les valeurs de f en tout point de la grille discrète ff(i, j), 0 6 i < N, 0 6 j < Ng à partir de l’ensemble des mesures de projection fp(td, k), 0 6 td < Ndet, 0 6 k < Nprojg.
Pour cela, on peut utiliser les méthodes analytiques qui définissent les équivalents discrets des opérateurs (transformée de Radon, rétroprojection, transformée de Fourier) puis discrétisent les formules d’inversion découlant des théorèmes ci-dessus, ou bien des méthodes algébriques qui utilisent une approche différente en discrétisant l’équation de projection fournissant ainsi un système d’équations linéaires résolues par des méthodes algébriques.
Dans ce document, nous développerons davantage les méthodes itératives qui nous permettent de discrétiser l’espace de reconstruction sur une grille non conventionnelle, et laissent la possibilité de traiter des données incomplètes ce que les méthodes analytiques ne permettent pas car seule une partie limitée de l’espace de Fourier est remplie par les données.
Approche itérative
Les méthodes itératives modélisent le problème inverse par une approche discrète-discrète : les projections sont interprétées comme des échantillons d’une fonction à variable discrète, et l’objet est représenté par une fonction inconnue f(x, y), qui est défini comme une combinaison linéaire de fonctions de base dont la plus couramment utilisée est celle des fonctions atomiques de type pixel (voir Figure 1.6). Alors :  pj = fi  ’i(td cos  k – u sin  k, td sin  k + u cos  k) (1.10)
Sous forme matricielle, le système s’écrit : p = H f(1.11)
où le vecteur p contient les mesures des projections. Il est de taille [ND Np], où ND est le nombre de pixels détecteur imageant chaque projection et Np le nombre de projections. Le vecteur f, de taille [N N], est l’objet à reconstruire. La matrice H, de taille [ND Np, N N] est la matrice de projection. Elle ne dépend que de la géométrie d’acquisition. Les éléments hij représentent la contribution de chaque pixel j au rayon i. Dans le cas le plus simple, hij = 1 si le rayon j traverse le pixel i (0 sinon), mais il existe d’autres choix plus coûteux en terme de stockage mémoire : par exemple, le coefficient hij peut être proportionnel à la longueur du rayon j interceptée dans le pixel i, ou à la surface de recouvrement du rayon i avec le pixel j. La matrice H est très creuse : la plupart de ses éléments sont nuls.
La matrice H étant très creuse, la résolution du problème (1.11) par inversion directe de la matrice H semble très intéressante. Cependant, en pratique, cette solution n’est pas réalisable car H est souvent de très grande taille, pas nécessairement carrée et surtout très mal conditionnée [15]. Le bruit qui entache les données rend le problème mal posé au sens de Hadamard [54] dans la mesure où au moins l’une des trois conditions suivantes n’est pas vérifiée : existence, unicité et stabilité de la solution.
Du fait de la grande taille de H, la résolution ne peut s’effectuer que par itérations successives : on initialise l’image de façon arbitraire fˆ0 (par exemple une image de valeur constante en tout point ou un bruit uniforme gaussien), puis on procède selon un principe d’essai et d’erreur : à chaque itération n, l’estimation de l’image fˆn est projetée suivant un opérateur de projection, et le résultat pˆn est comparé aux projections mesurées. On corrige alors l’estimation suivante fˆn+1 à partir de l’erreur en appliquant un terme correctif cn. Dans ce cadre, on distingue les méthodes additives des méthodes multiplicatives, les premières proposant une correction additive de la forme fˆn = fˆn+1 + cn, les secondes une correction multiplicative du type fˆn = fˆn+1 . cn. Ainsi, l’algorithme itératif converge-t-il vers une solution, reconstruisant progressivement les basses puis les hautes fréquences. Afin de maîtriser l’influence du bruit et donc d’empêcher le processus de diverger, celui-ci doit être contraint. Cette contrainte ou régularisation est traduite par exemple par l’arrêt du processus au bout d’un certain nombre d’itérations.
Opérateurs de projection
Différents opérateurs de projection et de rétroprojection définissant une modélisation discrète du processus d’obtention des mesures ont été proposés. Dans le cas conventionnel d’un objet représenté par des pixels (resp. voxels), on distingue principalement trois types de modèles usuels : ray-driven, pixel-driven, et distance-driven.
Le projecteur ray-driven est défini en reliant un rayon du point source au centre du pixel détecteur considéré. La mesure de projection est alors la somme pondérée de tous les pixels traversés par le rayon. Une approche usuelle consiste à pondérer la contribution de chaque pixel par la longueur d’intersection du rayon dans ce pixel [55, 111, 129]. Une interprétation alternative consiste à effectuer une interpolation linéaire entre deux valeurs de pixels pour chaque ligne ou colonne interceptée par le rayon [60]. La rétroprojection est la transposée de cette opération, où la valeur de pixels est mise à jour avec des contributions pondérées provenant de chaque rayon qui le traverse. Les méthodes ray-driven modélisent généralement bien la projection mais ont tendance à introduire des artéfacts de type moiré dans le calcul de la rétroprojection.
Le projecteur pixel-driven est défini par le rayon reliant le point source et le centre du pixel image considéré. La valeur de projection obtenue en un pixel détecteur est calculée par interpolation (linéaire ou des plus proches voisins) des valeurs obtenues aux coordonnées d’intersection des rayons sur la ligne détecteur. Les formes simples de ces projecteurs sont peu utilisées car elles introduisent des artefacts hautes fréquences [129, 80]. Ces artéfacts peuvent être réduits en utilisant des interpolations plus complexes mais au détriment d’une complexité de calcul accrue.
Le projecteur distance-driven quant à lui est basé sur la conversion du problème de projection-rétroprojection en un problème rééchantillonné en 1D. Le détecteur et l’image
à projeter sont mis en correspondance l’un avec l’autre le long des directions des lignes de projection. Chaque point d’une ligne de l’image est imagé de manière unique sur un point situé sur le détecteur, et vice-versa. Cela permet de définir une longueur de chevauchement entre chaque pixel de l’image, et chaque pixel du détecteur. Cette longueur de recouvrement est calculée en traçant les frontières des pixels d’une ligne d’image d’intérêt sur le détecteur, et toutes les limites de pixels détecteur sur la ligne médiane de l’image. En pratique une seule ligne commune est utilisée [33].
Fonction linéaire nœudale
Dans le contexte du codage vidéo, l’utilisation de maillages déformables a permis de compresser les données à transmettre [120]. À partir d’un photogramme, on génère un maillage constitué d’éléments polygonaux, tels que le triangle ou le quadriangle, qui couvrent le domaine de l’image sans se superposer. Ce maillage est adapté au contenu du photogramme par déplacement des nœuds (sommets des éléments). L’image est obtenue par interpolation linéaire de la position et de la valeur des nœuds. Cette fonction s’inspire des éléments finis de Lagrange du premier ordre [32, 7] : (1.30) ’(x) = 8 2x 0 6 x < 1=2
> < >2(1 – x)1=2 6 x 6 1
À partir des conclusions de [120], Brankov et al. utilisent la représentation par mail-lage adaptatif dans le cadre de la reconstruction tomographique par émission (SPECT)
[12]. Cette représentation est un compromis entre la fonction constante et la fonction polynomiale.
Pavages
Dans la section précédente, nous avons décrit en substance les fonctions atomiques les plus usitées en traitement d’images pour approcher une fonction continue. Ainsi, l’échan-tillonnage de l’espace continu Rn dans l’espace discret Zn simplifie la représentation de l’image. Pour cela, on réalise un pavage du plan (l’image), c’est-à-dire une partition de l’espace continu Rn en cellules (ou pavés) élémentaires contiguës remplissant tout l’espace.
Un pavage peut être réalisé par un régulièrement ou manière aléatoire (voir ensemble de points distribués dans l’espace Figure 1.8).
Mise en œuvre d’une information globale
Les méthodes de segmentation utilisant une infomation globale sont basées sur les informations ou les relations qui sont communes à un groupe de pixels. Celles-ci peuvent concerner la valeur moyenne ou bien des critères géométriques d’un pixel par rapport à ses voisins, en considérant par exemple une fenêtre de taille donnée. Contrairement aux méthodes précédemment citées, celles-ci permettent de déterminer les aspects topologiques des régions, celles-ci étant souvent déterminées à partir d’un germe (pixel) initialement choisi par l’opérateur. Dans le cas d’une image très bruitée, le résultat d’une segmentation correcte n’est pas garanti [4].
Dans ce groupe de méthodes, on peut évoquer la méthode split-and-merge. L’idée de cette approche consiste dans un premier temps à diviser (split) l’image en blocs contenant exclusivement des pixels répondant à un critère donné, puis à regrouper (merge) les blocs voisins s’ils sont similaires. Le résultat final est un ensemble jointif de régions homogènes de différentes tailles recouvrant l’image entière. L’implantation de cette méthode s’effectue à travers la mise en œuvre d’une structure appelée quadtree.
On peut également évoquer l’algorithme de la ligne de partage des eaux (ou watershed) [9] qui considère une image en niveaux de gris (NG) comme un relief. En innondant ce relief, des lacs se forment et les barrages les délimitant constituent la segmentation finale. L’inconvénient majeur de cette technique est la sursegmentation. Diverses méthodes de fusion de régions ont été proposées pour palier ce problème, par exemple la fusion itérative de paires de régions voisines [94, 95]. Les contours des régions segmentées sont caractérisés par l’effet de carré (pixel). Ainsi on perd l’information des régions contenant des contours lisses.
Méthodes basées sur un modèle géométrique
Mise en œuvre d’un a priori local
Les modèles déformables basés sur un a priori local s’appuient sur la modélisation d’une courbe ou d’une surface paramétrique pour segmenter les régions d’intérêt. La courbe est déformée sous l’action de forces interne et externe. La force interne liée à la courbe agit sur l’élasticité ou la rigidité de la courbe elle-même. La force externe, elle, attire la courbe vers le contour des objets.
A la différence des méthodes précédentes, les modèles déformables sont caractérisés par une équation de mouvement dont la solution est obtenue par minimisation d’une fonctionnelle. Les contours déformables ont trouvé une large implantation dans la seg-mentation des images médicales, car la forme connue des organes permet d’incorporer un a priori dans les contours déformables afin d’améliorer leur robustesse en présence du bruit texturé ou d’occultations partielles [82, 104, 87, 5].
Une des principales difficultés de ces modèles réside dans le choix de paramètres appropriés permettant d’initialiser la courbe. En effet, la courbe doit être placée à proximité de la région à segmenter afin d’obtenir une segmentation correcte.
Les méthodes fondées sur les coupes de graphes (Graph Cut) [11, 49] permettent d’optimiser des fonctions de coût de manière globale, et ainsi d’éviter les minima locaux. Par ailleurs, dans les applications où la forme à segmenter est connue a priori, le processus de segmentation peut être guidé par un modèle de forme ou des contraintes sur celle-ci [31, 53]. L’avantage de cette méthode des coupes de graphes est sa capacité à donner efficacement une solution optimale pour l’utilisation conjointe de différentes informations sur l’image. Peu de travaux utilisent ce type de méthodes notamment à cause de la modélisation de la forme de l’objet et de son intégration dans l’algorithme.
Mise en œuvre d’un a priori global
Les modèles déformables basés sur un a priori global s’appuient sur la modélisation en utilisant l’évolution de la courbe ou la surface non paramétrique. On peut citer par exemple les level set [46, 3, 24]. Ces méthodes permettent de s’affranchir des problèmes issus de l’initialisation ou de la paramétrisation des courbes. L’évolution de la courbe est conduite par l’optimisation d’un critère, ce qui implique la mise en œuvre d’algorithmes de minimisation souvent complexes et lourds en temps de calcul.
Dans ce type d’algorithme, on peut également mentionner les méthodes de segmenta-tion par recalage d’atlas. L’atlas est un modèle de référence de la région à segmenter. Il s’agit ensuite de recaler ce modèle dans l’image par un modèle déformable. Par exem-ple, ce type d’approche est utilisé en oncologie, pour mesurer la taille d’une tumeur ou caractériser sa forme. Les régions d’intérêt sont recalées sur une image issue d’une recon-struction de tomodensitométrie ou de résonance magnétique [122, 58, 28]. Concernant ces approches, la qualité de la segmentation dépend de la méthode de recalage et de la manière de créer le modèle de l’atlas.
Dans ce travail de thèse, nous nous sommes intéressés à la segmentation d’images au cours du processus de reconstruction tomographique (RX). Il s’agit d’images bruitées, et ce d’autant plus que la segmentation intervient précocement dans le processus itératif de reconstruction. Par ailleurs, notons que l’estimation de la valeur du niveau de gris des pixels évolue au cours du processus global de reconstruction. Ces considérations ne nous permettent pas d’envisager l’exploitation de méthodes basées sur l’image.
Nous avons choisi de nous tourner vers la deuxième classe de méthodes basées sur des modèles géométriques. Dans un premier temps, nous avons considéré un modèle déformable paramétrique (ou snake), puis dans un second temps nous avons mis en œuvre une méthode d’ensembles de niveaux (ou level set). Dans la suite, nous présentons ces méthodes plus en détail.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela clepfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Tomographie par rayons X
1.1 Principe physique
1.2 Acquisition des projections
1.3 Méthodes de reconstruction
1.3.1 Approche analytique
1.3.2 Approche itérative
1.4 Représentation d’une image
1.4.1 Fonction constante
1.4.2 Base d’ondelettes
1.4.3 Fonction radiale
1.4.4 Fonction polynomiale
1.4.5 Fonction linéaire nœudale
1.5 Pavages
1.5.1 Pavages réguliers
1.5.2 Pavages irréguliers
1.6 Conclusions
2 Détection des contours 
2.1 Généralités
2.1.1 Méthodes basées sur l’image
2.1.2 Méthodes basées sur un modèle géométrique
2.2 Modèle déformable
2.2.1 Modèle déformable paramétrique : snake
2.2.2 Snake basé sur le flux du vecteur gradient
2.2.3 Contour actif par modèle déformable géométrique ou contour géodésique
2.3 Méthode de Level Set
2.3.1 Généralités
2.3.2 Modèle géométrique par level set
2.4 Modèle de segmentation de Mumford-Shah
2.5 Méthode de segmentation convexe
2.6 Conclusions
3 Problématique de la parallélisation 
3.1 Accélération des algorithmes de reconstruction itératifs
3.2 Architectures parallèles
3.3 Parallélisation sur architectures parallèles
3.3.1 FPGA
3.3.2 Processeur Cell
3.3.3 GPU
3.3.4 CPU et Cluster
3.4 Conclusions
4 Méthode de reconstruction basée sur un maillage adaptatif (ATM) 
4.1 État de l’art des méthodes de reconstruction / segmentation simultanée
4.1.1 Modèles géométriques
4.1.2 Représentations d’images alternatives
4.2 Choix d’une structure de données adaptée
4.2.1 Maille de base
4.2.2 Discrétisation de l’espace
4.3 Initialisation du maillage
4.4 Reconstruction tomographique
4.4.1 Projecteur / Rétroprojecteur
4.4.2 Validation du projecteur en 2D et en 3D
4.4.3 Algorithmes de reconstruction
4.4.4 Performance des algorithmes de reconstruction
4.5 Segmentation
4.5.1 Passage d’une grille irrégulière à une grille régulière
4.5.2 Cas mono-matériau
4.5.3 Cas multi-matériaux
4.6 Génération du maillage adapté au contenu de l’image
4.6.1 Maillage 2D
4.6.2 Étude du paramètre k
4.6.3 Étude de l’influence du nombre d’itérations pour la première estimation de l’objet sur la segmentation
4.7 Résultats : reconstructions tomographiques 2D
4.7.1 Données numériques : objet mono-matériau
4.7.2 Données expérimentales : objet mono-matériau
4.7.3 Données numériques : objet multi-matériaux
4.7.4 Discussion
4.8 Conclusions
5 Mise en œuvre sur carte graphique 
5.1 Opérateur de projection en 2D
5.2 Traversée du volume composé de tétraèdres
5.2.1 Méthode des paramètres avec stockage d’équations de plans
5.2.2 Méthode de classification
5.2.3 Évaluations des performances dans le rendu volumique tétraédrique
5.3 Projecteur 3D
5.3.1 Validation de la projection calculée sur GPU
5.3.2 Influence du maillage sur le calcul des projections
5.3.3 Performances CPU et GPU
5.3.4 Performances en simple et double précision sur GPU
5.4 Rétroprojecteur 3D
5.5 Optimisation
5.5.1 Accélération de l’étape d’initialisation des rayons
5.5.2 Mise en œuvre d’accélération de l’étape d’initialisation des rayons par la structure hiérarchique
5.5.3 Amélioration du rétroprojecteur
5.6 Conclusions
Conclusions et Pespectives 
A Courbure 
B Fonction nœudale
Bibliographie 

Télécharger le rapport complet

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *