Télécharger le fichier pdf d’un mémoire de fin d’études
Conversion de l’intensité en concentration
Après avoir obtenu les aires nettes des pics à l’ai de d’un logiciel de dépouillement de spectres, l’étape suivante est la conversion de ces quantités en concentration des éléments d’intérêt. En général, la concentration d’un élément donné dans un échantillon n’est pas une fonction linéaire de la mesure des aires nettes des pics correspondant à cet élément. Les méthodes utilisant la régression linéaire ne sont en effet valables que dans un intervalle limité de concentrations où l’effet de matrice est constant.
Les phénomènes suivants se produisent simultanémentquand un échantillon est exposé aux rayons émis par un spectromètre XRF : les rayons primaires émis sont absorbés par l’échantillon. Ces rayons excitent un élément donnéqui émet ses raies caractéristiques. Ce phénomène est la fluorescence primaire.
D’autre part, une partie des rayons émis par cet élément peut provenir de l’excitation par les radiations émises par d’autres éléments de l’échantillon. Ce phénomène est appelé fluorescence secondaire.
Il existe encore un autre phénomène plus complexe où la fluorescence primaire d’un élément produit une fluorescence secondaire pour unautre élément qui à son tour excite un autre élément émettant par la suite ses raies caractéristiques. Ce phénomène est connu sous le nom de fluorescence tertiaire.
L’effet de ces phénomènes d’absorption et d’excitation sur le spectre émis par un échantillon est communément appelé « effet de matrice ».
Ainsi, l’aire nette des pics caractéristiques d’un élément donné est fonction de la concentration de cet élément mais aussi de la concentration des autres éléments de l’échantillon.
Il existe deux types de méthodes pour la conversion de l’aire nette en concentration qui tiennent compte de l’effet de matrice. Le premier t ype est constitué des méthodes analytiques et le deuxième comprend les méthodes mathématiques ou numériques.
Méthodes analytiques :
Dans cette catégorie de méthodes, on essaie d’éliminer ou d’évaluer l’effet de matrice par des techniques analytiques. Les plus utilisées de ces méthodes sont le standard interne et l’addition de standard dont les principes sont les suivants.
Standard interne :
Dans cette méthode, on ajoute la même proportion d’un élément donné dans les échantillons standard et les échantillons inconnus.Les échantillons standard servent à définir la relation entre l’intensité (ou l’aire nette) et la concentration : c’est l’étalonnage. On utilise ensuite cette relation pour les échantilons inconnus. L’élément ajouté, appelé standard interne, doit avoir les mêmes propriétés ueq l’élément à analyser en terme d’absorption. On peut écrire pour un élément d’intérêt i : Ai = MiCi (1.2) et pour le standard interne : As =MsCs (1.3)
Addition de standard :
Cette méthode consiste à ajouter une quantité connue de l’élément à analyser dans l’échantillon. Elle est utilisée surtout dans le cas où l’élément d’intérêt est à une très basse concentration et qu’on ne dispose pas d’échantillons standard adéquats. Le principe est le suivant : on obtient une augmentationAi de l’aire nette Ai en ajoutant une quantitéCi de l’élément i. Si on a pour l’élément i : Ai = MiCi après l’addition, on a : Ai +Ai = Mi(Ci +Ci) (1.5)
On suppose donc qu’on peut appliquer ce modèle linéaire dans l’intervalle contenant l’addition. On peut tirer de ces équations la concentration Ci. On répète cette procédure avec différentes quantités de l’élément i pour vérifier la linéarité de l’étalonnage.
Méthodes mathématiques :
Ces méthodes utilisent des formulations mathématiques pour calculer l’effet de matrice au lieu de l’éliminer ou de l’évaluer comme les méthodes précédentes. On distingue deux méthodes majeures dans ce domaine. Il s’agit de la méthode des paramètres fondamentaux et l’approche basée sur les coefficients d’influence.
Méthode des paramètres fondamentaux (PF):
La méthode des paramètres fondamentaux consiste à quantifier les rayonnements émis en fonction des paramètres physiques et instrumentaux intervenant lors de la mesure. Ces paramètres sont entre autres : les coefficients d’absorption massique, les rapports de saut d’absorption, les probabilités d’émission, les énergies des raies caractéristiques,… Ce sont Sherman et Shiraiwa & Fujino [23] qui ont mis au point la première formulation mathématique de ces intensités émises. L’application pratique de cette formulation fût pourtant très difficile car elle comportait des intégrations multiples et nécessitait la connaissance de la distribution spectrale du rayonnement incident.
C’est pour pallier à ce problème que Crin et Birks [23] ont proposé une autre formulation supposant que le rayonnement incident peut être divisé en un nombre fini d’intervalles d’énergies ΔE et remplacer les intégrales par des simples sommations.
Pi est l’intensité du pic pour l’élément i résultantde l’émission primaire, alors que Si résulte des émissions secondaires provenant des autres éléments j dans l’échantillon.
Gi est une constante de proportionnalité
Ci la concentration de l’élément d’intérêt i
iE est le coefficient d’absorption massique de i pour une énergie E
’S désigne le coefficient d’absorption massique effectif de l’échantillon pour l’énergie incidente E
»S est le coefficient d’absorption massique effectif de d’échantillon pour la raie caractéristique d’énergie Ei.
’ est l’angle d’incidence et » l’angle d’émergence.
L’application pratique de la méthode des PF nécessite deux étapes fondamentales: l’étalonnage et le calcul ou l’analyse.
Etalonnage :
Le but de l’étalonnage est l’établissement d’une relation entre les intensités mesurées et les intensités calculées à partir de la formulation mathématique ci-dessus pour des conditions de mesure et d’échantillonnage bien déterminées.
Pour ce faire, on utilise des échantillons standard, c’est-à-dire, des échantillons dont la composition est bien connue. On mesure à l’aide d’u n spectromètre et d’un logiciel de dépouillement de spectre les intensités des éléments d’intérêts.
Analyse :
Cette étape consiste à déterminer les concentrations des différents constituants d’un échantillon inconnu. La méthode utilisée est un procédé itératif décrit par les points suivants :
– une première estimation de la constitution de l’échantillon est d’abord établie. Plusieurs méthodes peuvent être utilisées. On peutpar exemple donner la même proportion à tous les constituants comme valeurs in itiales des concentrations. Mais la méthode la plus utilisée consiste à mesurer les intensités et à en déduire les concentrations à l’aide de la courbe d’étalonnage et de la formulation mathématique des PF.
– Cette première estimation est ensuite utilisée pour calculer théoriquement les intensités qui sont par la suite converties en valeurs d’intensités mesurées à l’aide de la courbe d’étalonnage
– La différence entre ces deux valeurs (mesurées et alculées) permet de donner une nouvelle estimation de la composition de l’échantillon
– Ces étapes sont répétées jusqu’à la convergence.
Les coefficients d’influence :
La méthode des coefficients d’influence quantifie l’effet de matrice de chaque élément constituant l’échantillon individuellement. En d’autres termes, si l’élément d’intérêt est i et l’échantillon comprend les éléments j, k, l, …, les effets de matrices de j sur i, de k sur i, de l sur i,… sont calculés individuellement. La concen tration de i peut ainsi s’écrire en fonction de l’intensité (ou l’aire nette) de sa ligne caractéristique et des concentrations des autres éléments avec leurs coefficients d’influencerespectifs.
où Ci est la concentration de i,
Ri : l’intensité relative de i : intensité mesurée div sée par l’intensité de l’élément pur correspondant mesurée dans les mêmes conditions,
Cj : concentrations des éléments de l’échantillon
ij : coefficients d’influence indiquant l’effet de ma trice de j sur i.
La sommation couvre donc tous les éléments de l’échantillon sauf i.
Cette équation est une formulation générale de la éthodem des coefficients d’influence. Il existe en effet plusieurs algorithmes pour calculer ces coefficients. Certains de ces algorithmes comme ceux de Lachance-Trail et De Jongh [23] utilisent les paramètres fondamentaux pour le calcul des coefficients. C’est pour cela qu’ils sont parfois appelés coefficients d’influence théoriques ou fondamentaux. Il existe cependant des algorithmes qui proposent des formulations empiriques de ces coefficients. On peut citer par exemple les algorithmes de Lucas-Tooth et Price ainsi que ceux de Sherman [23].
DEVELOPPEMENTS RECENTS EN SPECTROSCOPIE XRF :
En ED-XRF, la qualité d’un spectromètre est définieprincipalement par la résolution en énergie et le taux de comptage. Les développementsqu’ont connus les spectromètres les plus récents sont donc les fruits des recherches sur les améliorations de ces caractéristiques. Presque tous les modules constituant le spectromètre ED-XRF ont ainsi connu d’importantes innovations. Avant de détailler ces innovations, nous allons tout d’abord définir ces caractéristiques d’un spectromètre.
Résolution en énergie :
Théoriquement, on doit avoir à la sortie d’un spectromètre, pour un élément donné, un pic représenté par une ligne verticale. En effet, l’énergie de fluorescence d’un élément est connue avec précision et ne dépend d’aucun facteurexterne. Ex : Mn K : 5,932 keV. On observe pourtant au lieu de cette ligne un pic plus ou moins étalé.
La résolution en énergie d’un spectromètre est définie comme sa capacité à distinguer ou à résoudre les différentes raies X caractéristiquesssuesi d’échantillons contenant plusieurs éléments. Elle est alors spécifiée par la largeurmià-hauteur (FWHM : Full Width at Half Maximum) d’un pic mesuré à une énergie bien déterminée qui est prise comme énergie de référence pour évaluer la qualité d’un détecteura. Lréférence la plus usuelle est donnée par la raie Kα du Mn qui est de 5,932 keV. Le FWHM total d’un spectromètre est la convolution de la contribution du détecteur FWHM avec celle du module électronique de
traitement du signal FWHMelec.
FWHM tot FWHMdet2 FWHMelec2 (1.8)
Pour le détecteur, la résolution en énergie est reliée à la nature statistique de la production de paires négaton-trou par un photon incident. Elleest donnée par l’équation suivante :
FWHMdet 2,35 EF (1.9)
où E est l’énergie du photon incident
ε est la valeur moyenne de l’énergie nécessaire à laproduction de négaton-trou et F le facteur de Fano
La contribution de la partie électronique est quant à elle due principalement aux fluctuations causées par effet thermique au sein des différentes composantes électroniques.
Débit de comptage :
On entend par débit de comptage (throughput en anglais), la capacité d’un spectromètre à traiter tous les événements se produisant au sein ud détecteur. Un spectromètre a en effet des limitations pour le comptage de ces événements.Ces limitations sont dues au temps que met le spectromètre pour le traitement d’un événement (impulsion). Quand l’intervalle de temps entre deux impulsions est trop petit, on observe le phénomène de chevauchement qui donne un résultat erroné après le traitement par l’analyseur multicanal (MCA) du spectromètre. Il faut aussi remarquer que la performance en débit de comptage est reliée directement à la limite de détection. En effet, si toutes les impulsions émises par un élément donné sont comptées, sa limite de détections’en trouve améliorée.
Détecteurs à semi-conducteur :
Les détecteurs à semi-conducteur ont fait leur apparition au début des années 70 avec l’arrivée du détecteur au Silicium dopé au Lithium(Si(Li)). Actuellement la plupart des spectromètres ED-XRF sont équipés de détecteurs àemis-conducteur qui sont typiquement le Si(Li) ou le Germanium pur HPGe. Pour pouvoir fonctionner, ces détecteurs ont besoin du refroidissement par azote liquide. Ce refroidissement représente pourtant leur plus grand inconvénient. En effet, le récipient contenanl’azote liquide est assez encombrant et lourd car sa contenance est de 30 à 50 litres. Ceci rend la maniabilité de ces détecteurs très restreinte. Il existe déjà des récipients plus petits (aux environs de 5 à 10 litres) mais ces détecteurs sont encore difficiles à manier. Il faut rappeler que le rôle du refroidissement des détecteurs à semi-conducteur est de diminuer au maximum les courants de fuite dus aux effets thermiques qui détérioreraient la résolution en énergie.
C’est pour pallier à ces problèmes d’exploitation ( encombrement, maniement, coût) que d’autres types de détecteurs à semi-conducteur ont été expérimentés. Ces détecteurs n’utilisent plus l’azote liquide comme refroidisseu r mais sont dotés de système de refroidissement thermoélectrique par effet Peltier. Ils peuvent ainsi travailler à la température ambiante sans besoin du gros récipientpour azote liquide. Plusieurs matériaux composés ont été étudiés, comme le GaAs, CdTe, HgI.Bien que des détecteurs HgI existent sur le marché, l’utilisation de ces types de détecteurs n’a pas connu le succès dans le domaine de l’ED-XRF.
Arrivèrent par la suite les détecteurs aux photodiodes Si-PIN (silicon positive intrinsic negative) qui sont aussi adaptés pour la détectiondes basses énergies (2-30keV). Ce type de détecteur a été rendu célèbre en 1997 durant missionla Pathfinder au cours de laquelle un détecteur Si-PIN a été utilisé pour l’analyse dusol et des roches de la surface de la planète Mars. La production du Silicium est une science déjà bien maîtrisée et très développée dans la majorité de l’industrie mondiale.En outres, le Si étant un élément simple et non un composé, il a de ce fait un degréélevé de stabilité. Pour ces raisons, les détecteurs au Si ont obtenu beaucoup de succès dansle domaine de l’ED-XRF. Le seul facteur qui peut affecter un détecteur Si-PIN est l’humidité. C’est pour cela que ces détecteurs sont produits avec un couvercle hermétique. Un exemple de ces détecteurs est le XR-100CR fabriqué par Amptek. Ce détecteur atteintla résolution de 185 eV à 5,9 keV avec son refroidissement thermoélectrique.
Un autre type de détecteurs similaires au Si-PIN est ce qu’on appelle détecteur à semi-conducteur dopé (SDD : semiconductor drift detector). Les SDD ont la spécificité d’avoir une capacitance très basse pour diminuer les bruits de fond. Contrairement au Si-PIN qui a une surface active très petite (6-7mm²) pour diminuer la capacitance, les détecteurs SDD peuvent avoir une surface active pouvant atteindre 1cm² [4] augmentant ainsi leur performance en taux de comptage. On reporte une résolution en énergie de 145 eV à 5,9 keV pour ces types de détecteurs.
La plus récente et la plus impressionnante amélioration dans le domaine des détecteurs pour l’ED-XRF est le développement de détecteurs utilisant les superconducteurs. On peut citer par exemple le détecteur Nb/Al/AlOx/Nb [11] avec lequel une résolution en énergie aussi bonne que 29 eV à 5,9 keV a été obtenue avec un refroidissement à 6.10 -2°K. Le problème avec ces détecteurs est leur faible surface active ainsi que la nécessité de les maintenir autour de la température de 0°K.
Traitement numérique du signal :
Un autre développement très important dans le domaine de la spectrométrie ED-XRF est l’introduction du traitement numérique du signal (DSP : Digital Signal Processing). Dans les spectromètres analogiques, le signal (impulsions provenant du détecteur) est filtré, mis en forme, amplifié avant d’être numérisé. Dans leascdes systèmes numériques (DSP), le signal est aussitôt numérisé à la sortie du préamplificateur. C’est ce signal numérique qu’on filtre et met en forme à l’aide d’algorithmes spéciaux pour être transféré au MCA à la fin du traitement. La majorité des tâches lors du traitement numérique du signal est actuellement effectuée par une seule puce appelée rocesseurp numérique de signal. La taille des systèmes à DSP est ainsi très réduite etils ne consomment que très peu d’énergie. Un autre avantage des spectromètres à DSP est leur stabilité par rapport à la température et le temps contrairement aux systèmes analogiques dont les comportements changent avec l’usure des composantes et la température. L’introduction du DSP dans les spectromètres ED-XRF a aussi permis une nette amélioration de laperformance en taux de comptage. En effet, la fréquence d’échantillonnage lors de la numérisation du signal à la sortie du préamplificateur est relativement élevée (20MHz pour le DP4 de Amptek Inc. [27]). Ces spectromètres peuvent ainsi acquérir un signal dépassant la fréquence de 1MHz qui est très rarement atteinte dans les applications classiques de l’ED-XRF. Un exemple de ces types de spectromètres est le DP4 de Amptek Inc. qui a une dimension d’à peu près 9 6 cm² et une consommation de 400 mW.
Les tubes à rayons X :
Des recherches ont été aussi menées pour améliorerquelques caractéristiques des tubes à rayons X. Parmi ces caractéristiques, les plus importants sont la portabilité et la consommation en énergie. On utilise déjà au lieu des tubes à rayons X des sources 241 109 Cd, le 244 Cm, le 55 Fe. Le radioactives scellées qui sont portatives comme l’ Am, le problème avec ces sources est le fait que les éléments qu’elles peuvent exciter sont très limités. Ceci n’est pas le cas des tubes à rayons X qui permet de détecter un très large éventail d’éléments. On peut trouver aujourd’hui sur le marché des tubes à rayons X miniaturisés. Un exemple est l’Eclypse III de Amptek Inc. [25]. Parmi ses caractéristiques techniques, on distingue sa consommation de 3W maximale avec un poids de 300g et une longueur de 15 cm environ.
Spectromètres portatifs :
Avec tous ces modules miniaturisés et l’avènement des ordinateurs portables, on peut trouver actuellement des spectromètres complètement portatifs. Il existe même des systèmes comprenant à la fois le détecteur avec le préamplificateur et le module de traitement numérique du signal. Les spectromètres portatifs ont permis d’amener le laboratoire vers l’échantillon et non l’inverse. C’est en effet une exigence actuellement dans les applications comme les mesures sur terrain et les analyses non destructives surtout.
Un spectromètre portatif est composé par les éléments suivants :
– un détecteur avec le préamplificateur, un module de traitement de signal (numérique) qui comprend en gros un convertisseur analogique-digital, un circuit de mise en forme numérique du signal et un MCA. Dans la plupart des cas, ces différents modules se trouvent dans une seule unité.
– un ordinateur portable dont les rôles principaux so nt la visualisation et le stockage des données Un des domaines dans lesquels les spectromètres ED-XRF portatifs sont les plus utilisés actuellement est l’archéologie. Dans ce domaine, les échantillons sont dans la majorité des cas des objets dont l’aspect et les formes doivent rester inchangés ou qu’on ne peut même pas déplacer de leurs places d’origine (statuts, tableaux, murs,…). Plusieurs dispositifs ont été alors développés pour satisfaire aux exigencesde ces types de mesures communément appelées tests non destructifs (NDT : Non-Destructive Testing). Ces exigences sont relatives au positionnement du détecteur et du système d’excitation (source radioactive ou tube à rayons X). Le dispositif sur la figure suiva nte montre un exemple de ce positionnement pour la mesure d’échantillons en archéologie.
|
Table des matières
Introduction
Chapitre 1 : La spectroscopie par fluorescence X
1.1. Généralités sur la spectroscopie XRF
1.1.1. Instrumentation
1.1.2. Principes de la Fluorescence X à réflexion totale (TXRF)
1.2. Techniques classiques de quantification en ED-XRF
1.2.1. Le dépouillement du spectre
1.2.2. Conversion de l’intensité en concentration
1.2.2.1. Méthodes analytiques
1.2.2.2. Méthodes mathématiques
1.3. Développements récents en spectroscopie XRF
a. Résolution en énergie
b. Débit de comptage
1.3.1. Détecteurs à semi-conducteur
1.3.2. Traitement numérique du signal
1.3.3. Les tubes à rayons X
1.3.4. Spectromètres portatifs
Chapitre 2 : La régression PLS (Partial Least Squares)
2.1. Généralités
2.1.1. Position du problème
2.1.2. Notations et conventions
2.2. Loi de Beer-Lambert
2.3. Moindres carrés ordinaires (MCO)
2.3.1. Moindres carrés classiques (MCC)
2.3.2. Moindres carrés inverses (MCI)
2.4. La régression par composantes principales
2.4.1. Analyse en composantes principales (ACP)
2.4.2. Régression en composantes principales (PCR)
2.5. La régression PLS
2.5.1. Les algorithmes PLS
2.5.1.1. Le modèle PLS
2.5.1.2. L’algorithme NIPALS en régression PLS
2.5.2. Prédictions
2.5.3. Validation du modèle – validation croisée
2.5.3.1. Principe de la validation croisée
2.5.3.2. La validation croisée « Leave One Out » (LOO-CV)
Cas du PLS1 (une seule variable Y)
Cas du PLS2
2.5.4. Estimation des intervalles de prédiction
2.5.4.1. Incertitude dérivée du PRESS
2.5.4.2. Développement linéaire du coefficient de régression [b]
2.5.5. Utilisation de la méthode bootstrap
2.5.5.1. Technique de rééchantillonnage
2.5.5.2. Le bootstrap
2.5.5.3. Réplication bootstrap
2.5.5.4. Algorithme général
2.5.5.5. Application du bootstrap à la régression PLS
2.5.5.6. Intervalle de confiance du coefficient de régression
2.5.5.7. Intervalle de prédiction
Chapitre 3 : Utilisation de la méthode PLS en analyse quantitative en spectroscopie par fluorescence X
3.1. Introduction
3.2. Mise au point du modèle
3.2.1. Principe
3.2.2. Choix des échantillons standard
3.2.3. Prétraitement des données
3.2.4. Lissage des données
3.2.5. Etalonnage
3.2.6. Prédiction
Chapitre 4 : Conception du logiciel de quantification par régression PLS : X-PLS v1.0
4.1. Le logiciel X-PLS v1.0
4.2. Conception générale
Etalonnage
Prédiction
4.3. Conception détaillée
4.3.1. Etalonnage
4.3.1.1. Sélection des canaux
4.3.1.2. Réduction des variables
4.3.1.3. Calcul des composantes PLS
4.3.1.4. Calcul du nombre de composantes par validation croisée
4.3.1.5. Tri sélectif des échantillons
4.3.1.6. Calcul du coefficient de régression et des résidus
4.3.1.7. Formats des données
A l’entrée
A la sortie
4.3.2. Prédiction
4.4. Les interfaces graphiques
4.4.1. La fenêtre principale
4.4.2. Etalonnage
4.4.2.1. La fenêtre d’étalonnage
4.4.2.2. Insertion d’échantillons
4.4.2.3. Les éléments à étudier
4.4.3. La prédiction
4.4.3.1. Chargement d’un fichier d’étalonnage
4.4.3.2. Options de prédiction
4.4.3.3. Visualisation des données d’étalonnage
4.4.3.4. Prédiction
4.4.3.5. Enregistrement des résultats de prédiction
Chapitre 5 : Applications à la fluorescence X à réflexion totale
5.1. Expérimentations
5.1.1. Préparations des échantillons
5.1.2. Conditions de mesures
5.1.3. Utilisation du logiciel X-PLS
5.2. Série d’étalonnages N°1
5.2.1. Etalonnage
5.2.2. Etalonnage du Cu
5.2.2.1. Nombre de composantes PLS
5.2.2.2. Délimitation de la plage de canaux à utiliser
5.2.2.3. Prétraitement des données
5.2.2.4. Prédictions
5.2.2.5. Intervalles de prédictions
Application du lissage des données
5.2.3. Etalonnage du Zn
5.2.3.1. Nombre de composantes PLS
5.2.3.2. Délimitation de la plage de canaux
5.2.3.3. Prétraitement des données
5.2.3.4. Prédictions
5.2.4. Etalonnage des autres éléments
5.2.5. Conclusion partielle
5.3. Série d’étalonnages N°2
5.3.1. Cas du Cu
5.3.2. Cas du Zn
5.3.3. Cas de l’As
5.3.4. Cas du Se
5.3.5. Cas du Ni
5.3.6. Conclusion partielle
Conclusion générale
Références
Annexes
Télécharger le rapport complet
