Depuis une vingtaine d’années, la politique de gestion des déchets en France a évolué vers un cadre plus environnemental, privilégiant la prévention, la valorisation et le recyclage. Le 13 juillet 1992, l’Assemblée Nationale et le Sénat ont modifié la loi cadre du 15 juillet 1975 relative à l’élimination des déchets et à la récupération des matériaux. La nouvelle loi ainsi adoptée précise qu’à compter du 1er juillet 2002, seuls les déchets dits “ultimes” seront autorisés dans les centres de stockage, impliquant ainsi la fermeture des traditionnelles décharges d’ordures ménagères. L’arrêté du 9 septembre 1997 (relatif aux centres de stockage de déchets ménagers et assimilés) précise les modalités d’ouverture, de contrôle, de gestion et de fermeture des sites et impose une surveillance des sites 30 ans après leur fermeture.
Cette surveillance est classiquement effectuée au moyen de méthodes hydrologiques et géochimiques reposant sur l’analyse d’échantillons d’eau prélevés dans des piézomètres de contrôle. Ce réseau de surveillance doit compter au minimum 3 piézomètres dont un est implanté en amont hydraulique du site, définissant ainsi les conditions hydrogéochimiques locales (arrêté du 9 septembre 1997). Les analyses doivent être suffisamment nombreuses et régulières afin de prévenir au plus tôt toute fuite ou disfonctionnement du site. Malheureusement, ces méthodes sont souvent peu rapides et financièrement coûteuses. De plus, elles n’offrent qu’une vision partielle des paramètres étudiés (conductivité du fluide, pH, oxygène dissous, potentiel rédox…) puisque les mesures, localisées au niveau de l’emplacement des piézomètres, sont ponctuelles. Enfin, l’implantation de piézomètres perturbe les conditions hydrologiques du milieu et le prélèvement d’échantillons d’eau dans les piézomètres est susceptible de modifier les équilibres chimiques. Il faut ainsi attendre au moins30 minutes après la purge dupiézomètre pour avoir un retour à l’équilibre et effectuer le prélèvement. Les mesures des paramètres physico-chimiques tels que la conductivité du fluide et lepotentiel rédox sont souvent longues et difficiles à réaliser (Schüring et al. (2000)).
Ainsi, pour des raisons principalement économiques, la densité du réseau de surveillance est souvent faible. Dans le but d’améliorer l’efficacité de surveillance d’un Centre de Stockage et de pallier le manque d’information entre les piézomètres, il convient d’utiliser des techniques non-destructives et rapides qui permettent d’obtenir des données quantitatives et spatialisées à moindre coût.
Les méthodes géophysiques répondent à ces critères. Elles sont souvent utilisées sur les sites contaminés pour détecter et évaluer l’extension d’un panache de contamination ou sa migration. Nobes et al. (2000) ont effectué une reconnaissance électro-magnétique au moyen d’un EM31 en aval d’une décharge municipale en Nouvelle-Zélande pour localiser la présence de paléochenaux qui influencent la migration du panache. Daniels et al. (1995) ont utilisé le géoradar pour détecter la présence d’hydrocarbures dans le sous-sol. Les méthodes actives les plus couramment utilisées sont les méthodes géoélectriques avec la résistivité électrique et la polarisation provoquée (Benson et al. (1997), Aristodemou & Thomas-Betts(2000), Atekwana et al. (2000), Chambers et al. (2003), Daily & Ramirez(2004)). Ces méthodes sont souvent combinées entre elles afin de mieux comprendre la géologie du site étudié et localiser l’extension de la zone contaminée (Buselli & Lu (2001)). Les méthodes géophysiques passives, telles que la méthode électromagnétique VLF (Very Low Frequency) et la PS (Polarisation ou Potentiel Spontané), sont le plus souvent utilisées en complément avec d’autres méthodes géophysiques sur des sites contaminés (Benson et al. (1997), Nimmer & Osiensky (2002)).
Parmi ces méthodes géophysiques, la méthode de potentiel spontané (PS), qui est la plus ancienne des méthodes de prospection géophysique (Fox (1830)), parait très prometteuse. Elle a essentiellement été développée jusqu’au milieu du 20o siècle pour la recherche de gisements de minerais. Puis, elle a régulièrement évolué, diversifiant ses domaines d’application : en géothermie (e.g., Corwin (1990), Revil & Pezard (1998), Revil et al. (1999b)), en volcanologie (e.g., Corwin & Hoover (1979), DiMaio & Patella (1994), Hashimoto & Tanaka (1995), Lénat et al. (1998)), en sismologie en tant que potentiel précurseur de la rupture sismique (Fitterman (1978), Jouniaux & Pozzi (1995), Jouniaux & Pozzi (1999), Hunt & Worthington (2002), Amogawa (2003)) et en hydrologie (Bogoslovsky & Ogilvy(1973), Fournier (1989), Birch (1998), Trique et al. (1999), Doussan et al. (2002), Revil et al. (2002b)). Même si peu d’applications concernent les sites contaminés, certains auteurs ont observé des anomalies PS aux abords de sites de stockage (Weigel (1989), Hämmann et al. (1997), Vichabian et al. (1999), Nyquist & Corry (2002)). Cependant, aucun modèle permettant d’expliquer ce phénomène n’avait été développé dans la littérature.
Malgré tous les avantages que présente la méthode de potentiel spontané (non-intrusive, rapide, économique, équipement simple), celle-ci a souvent été critiquée dans la littérature. Les principales critiques sont : (1) la faible intensité des signaux mesurés et leur faible rapport signal-sur-bruit, (2) les nombreux phénomènes électromagnétiques qui viennent se rajouter à la mesure de la source étudiée, et par conséquent (3) la difficulté d’interpréter les signaux de potentiel spontané. Mais ces défauts peuvent être maîtrisés : (1) Revil et al. (2002b) ont montré que le rapport signal-sur-bruit pouvait être fortement amélioré (2 ordres de grandeur) en effectuant un monitoring avec un réseau d’électrodes fixes ; (2)les principales sources du signal peuvent être discriminées si les mécanismes mis en jeu sont bien connus et si les sources de bruit sont bien identifiées ; (3) les techniques d’interprétation des signaux ont fortement évolué, notamment lorsque la source de potentiel spontané est associée à l’écoulement de l’eau dans le sous-sol (Aubert & Atangana (1996), Fournier (1989), Birch (1993), Gibert & Pessel (2001), Sailhac & Marquis (2001), Revil et al. (2003), Darnet et al. (2003), Rizzo et al. (2004)).
Le principal objectif de cette thèse est d’étudier l’opportunité d’utiliser la méthode de potentiel spontané pour la surveillance de sites de stockage. Nous montrerons que celle-ci apporte une aide précieuse dans la localisation du panache de contamination et la détermination du potentiel rédox. Dans ce mémoire, nous parlerons de phénomène “électro-rédox” pour désigner le couplage entre les signaux PS mesurés à la surface du sol et les forts contrastes de conditions d’oxydo-réduction rencontrés dans un panache de contamination riche en matière organique.Le premier chapitre de ce mémoire est consacré à un état de l’art des méthodes géoélectriques appliquées aux sites contaminés, à savoir les méthodes de résistivité électrique, de polarisation provoquée et de potentiel spontané. Dans ce même chapitre, nous détaillons de façon minutieuse la technique d’acquisition des mesures PS afin de permettre à tout opérateur d’obtenir un jeu de données précis et fiable.
Afin de discriminer les différentes sources possibles de la PS, il est nécessaire de connaître les principaux phénomènes responsables de ces sources. Le second chapitre développe la physique des anomalies PS associées à l’écoulement de l’eau dans un milieu poreux (source d’électrofiltration). Nous y expliquons les phénomènes mis en jeu à l’échelle d’un pore ainsi que les différents paramètres pouvant influencer ce couplage hydro-électrique. Le troisième chapitre présente les principales méthodes d’interprétation des signaux PS, essentiellement développées dans le cas de l’électrofiltration. Nous présenterons notamment trois méthodes dites “électrographiques” que nous avons mises en oeuvre pour retrouver le niveau piézométrique d’une nappe aquifère à partir de mesures PS. Ces méthodes ont été appliquées sur des mesures PS effectuées lors d’un pompage (Revil et al. (2003)) et sur le flanc du volcan de La Réunion (Revil et al. (2004b)). L’objectif de cette étude vise à démontrer la pertinence de ces techniques d’inversion pour étudier la dynamique des circulations hydriques dans le sous-sol.
État de l’art des méthodes géoélectriques : principes et applications
Les méthodes de prospection électrique regroupent des méthodes actives basées sur l’injection d’un courant dans le sous-sol (e.g. résistivité électrique et polarisation provoquée) et des méthodes passives mesurant, par exemple, le champ électrique résultant de l’existence de courants électriques naturels présents dans le sous-sol (potentiel spontané).
Dans ce travail de thèse, nous nous sommes concentrés sur deux méthodes géoélectriques, la résistivité électrique et la méthode de potentiel spontané (PS). Le paragraphe suivant présente un état de l’art de ces deux méthodes ainsi que la méthode de polarisation provoquée (PP). Même si cette dernière n’a pas été utilisée durant cette thèse, elle reste néanmoins une méthode très complémentaire et de plus en plus utilisée pour la détection de contaminants (Aal et al. (2004), Briggs et al. (2004), Daily & Ramirez (2004) et Grimm & Olhoeft (2004)).
La Tomographie de Résistivité Électrique–ERT
Principe de la méthode
Pour la plupart des roches, la conductivité électrique est de nature électrolytique. En effet, les ions contenus dans l’eau porale transportent des charges sous l’effet du champ électrique et en conséquence la roche conduit le courant électrique. D’autre part, la surface des minéraux est le siège de phénomènes électro-chimiques connus sous le nom de double couche électrique. Celle-ci est responsable d’une conductivité électrique dite de surface au voisinage de l’interface entre l’eau porale et les minéraux. Cette conductivité joue un rôle majeur lorsque la surface spécifique de la roche est importante, comme dans le cas de minéraux argileux. Le passage du courant peut également se faire par déplacement d’électrons. On parle de conductibilité électronique ou métallique. Elle n’est réellement importante que pour certains gisements de minerai tels que les sulfures, les oxydes ou le graphite.
La résistivité électrique du sous-sol dépend essentiellement de la teneur en eau de la roche (fonction de la porosité et de la saturation), de la salinité de l’eau interstitielle et de la teneur en argile des roches. Le principe de la méthode repose sur la mesure de différences de potentiel électrique associées à l’injection d’un courant électrique (figure 1.1). La loi d’Ohm permet de calculer la résistivité électrique dite apparente. Cette valeur résulte de la contribution de toutes les portions du milieu qui sont traversées par le courant émis en surface. Ainsi, la mesure représente une valeur qui intègre les résistivités sur un certain volume du sous-sol. La technique d’acquisition consiste à réaliser des profils en augmentant régulièrement l’espace entre les électrodes. Les mesures de terrain permettent ainsi d’obtenir une pseudo-section de la résistivité électrique apparente du sous-sol.
Matériel d’acquisition et traitement des données
Dans le cadre de cette thèse, nous avons utilisé le résistivimètre Terrameter SAS4000 et le système de panneaux électrique LUND développés par l’ABEM.
Le traitement des données est effectué à partir de logiciels d’inversion pour déterminer les résistivités électriques vraies à partir de la pseudo-section obtenue sur le terrain. Nous avons utilisé le programme d’inversion RES2DINV de Loke & Barker (1996) basé sur une méthode d’optimisation par moindres carrés généralisés. La pseudo-section obtenue avec les données de terrain est divisée en un certain nombre de blocs rectangulaires dont la taille augmente avec la profondeur (figure 1.3). Cette augmentation est généralement de 10 à 25 % selon le type d’acquisition (Wenner, Schlumberger, Pôle-Pôle …).
A chaque bloc est associé une valeur de résistivité apparente. De façon itérative, en ajustant la résistivité vraie de chaque bloc du modèle, le logiciel d’inversion tente de minimiser une fonction coût basée sur l’écart entre les valeurs calculées et mesurées de résistivité apparente. Cette minimisation peut se faire selon une norme L1 ou L2. L’erreur RMS (Root-Mean-Square) donne une estimation de cette différence. Ce paramètre est une bonne indication de la qualité d’un profil, cependant ce n’est pas l’itération qui présente une valeur RMS la plus faible qui donne le modèle le plus juste. Quatre à six itérations suffisent habituellement pour converger vers le modèle de résistivité électrique vrai qui rend le mieux compte des observations de terrain.
Sur un microprocesseur Pentium, l’inversion d’une pseudo-section prend quelques minutes avec RES2DINV. L’inversion reste malgré tout non-univoque. La non-unicité de la solution a été discuté par Gibert & Pessel (2001) qui présentent une méthode plus élaborée de tomographie de données de résistivité électrique. Différents modèles peuvent expliquer les mesures de terrain et il est parfois difficile de savoir lequel correspond à laréalité en l’absence d’information complémentaire. La connaissance préalable du terrain est donc souhaitable pour déterminer le modèle le plus fiable.
|
Table des matières
Introduction
1 État de l’art des méthodes géoélectriques : principes et applications
1.1 Introduction
1.2 La Tomographie de Résistivité Électrique–ERT
1.2.1 Principe de la méthode
1.2.2 Matériel d’acquisition et traitement des données
1.2.3 Applications
1.3 La Polarisation Provoquée –PP
1.3.1 Les Mécanismes de polarisation
1.3.2 Principe de la méthode
1.3.3 Applications
1.4 Le Potentiel Spontané–PS
1.4.1 Origine du phénomène
1.4.2 Principe de la méthode
1.4.3 Les sources de bruit
1.4.4 Équipement
1.4.5 Méthodologie des mesures
1.4.6 Applications
1.4.7 L’interprétation des signaux PS
1.5 Conclusion
2 Le phénomène d’électrofiltration
2.1 La force électromotrice
2.2 Origine du phénomène : la double couche électrique
2.2.1 Un excès de charges
2.2.2 La double couche électrique
2.2.3 L’écoulement de l’eau
2.3 Quantification de l’électrofiltration
2.3.1 L’équation d’Helmholtz-Smoluchowski
2.3.2 Les équations constitutives
2.3.3 L’équation de Poisson
2.3.4 Expression finale du potentiel spontané
2.3.5 Influence de la conductivité électrique du sol
2.4 Le coefficient de couplage électrocinétique
2.4.1 Sa gamme de variation
2.4.2 Paramètres influençant le phénomène d’électrofiltration
2.5 Conclusion
3 L’inversion des sources électrocinétiques
3.1 Introduction
3.2 Localiser la source du potentiel spontané
3.2.1 La méthode de Patella
3.2.2 La tomographie dipolaire
3.3 Caractériser les écoulements
3.3.1 La méthode SPS d’Aubert
3.3.2 La méthode de Fournier et de Birch
3.3.3 Les méthodes électrographiques
3.3.4 L’inversion couplée hydro-électrique
3.4 Conclusion
4 Le phénomène électro-rédox
4.1 Introduction
4.2 Les gisements de minerai
4.3 Les panaches de contamination
4.3.1 La dégradation de la matière organique
4.3.2 Les zones rédox
4.3.3 Le rôle des bactéries
4.3.4 Les bactéries produisent un courant électrique ?
4.3.5 Le modèle de (bio)-géobatterie
4.4 Conclusion
Conclusion
