Certaines fonctionnalités de ce site reposent sur l’usage de cookies.
Les services de mesure d'audience sont nécessaires au fonctionnement du site en permettant sa bonne administration.
ACCEPTER TOUS LES COOKIES
LES COOKIES NÉCESSAIRES SEULEMENT
CONNEXION
Valider
Mot de passe oublié ?
EAU

Mieux maîtriser l'analyse et le prélèvement

LA RÉDACTION, LE 1er MAI 2010
Archiver cet article
Newsletters
Toute l'information de cette rubrique est dans : Hydroplus
Constituant la première étape de la surveillance des milieux ou des rejets, l'échantillonnage joue un rôle crucial. S'il est mal réalisé, le résultat d'analyse n'aura aucun sens. Anne Morin, directrice du programme Aquaref, laboratoire national de référence pour la surveillance des milieux aquatiques, note d'ailleurs qu'un « changement est en cours : c'est comme si le prélèvement était enfin reconnu à sa juste valeur ». Ainsi, dans le cadre d'Aquaref, un premier travail collaboratif de prélèvement et d'analyse a été mené en 2007 sur un cours d'eau, en travaillant sur des paramètres physico-chimiques. Les observations lors de cette opération ont permis la création d'une formation de préleveur en cours d'eau pour juin 2010. Des opérations similaires ont été menées en eaux souterraines en 2009, et devraient venir pour les plans d'eau et les eaux de rejet. Les difficultés sont nombreuses. « Les normes d'échantillonnage de l'eau dans le milieu naturel sont tellement précises qu'elles sont inapplicables en l'état. Elles sont faites pour des cours d'eau qui ont une coupe en U et des parois lisses. Si la rivière contient des macrophytes, que ses berges sont boueuses, qu'elle a une forme en V, etc., il faut toujours savoir s'adapter. L'expérience du préleveur devient essentielle pour que les échantillons soient représentatifs », explique Gérard Pelletier, directeur du laboratoire d'analyses Letmi. En matière d'échantillonnage d'éléments biologiques (les structures de peuplement étudiées dans le cadre de la DCE), les méthodes sont encore en cours d'élaboration. « Des méthodes d'échantillonnage doivent exister pour chacun des quatre éléments biologiques prescrits par la directive : poissons ; invertébrés ; phytoplancton ; macrophytes et phytobentos (les diatomées). Et pour quatre catégories d'eau : plan d'eau, rivière, eaux de transition et littoral », détaille Christian Chauvin, ingénieur au Cemagref et animateur de l'axe « hydrobiologie » d'Aquaref. Certaines méthodes, qui existent déjà, doivent être adaptées aux autres milieux ou affinées pour atteindre les critères de performance (représentativité, précision) voulus par la DCE. Elle exige par exemple de décrire le genre des invertébrés rencontrés, alors que la norme française existant depuis les années 1980 s'arrêtait à la famille. D'autres méthodes doivent être mises au point et normalisées, comme la pêche au chalut des poissons dans les estuaires. MANQUE D'HOMOGÉNÉITÉ L'échantillonnage est aussi une problématique pour la surveillance des eaux de rejet. Ici, les nouvelles exigences sont liées à l'action de recherche et de réduction des rejets de substances dangereuses dans l'eau (RSDE) plus qu'à la DCE, même si les autorisations de rejet sont plus ou moins exigeantes en fonction de l'état des milieux. L'encadrement normatif de l'échantillonnage est rigoureux : les normes ISO 5667 imposent que le système fonctionne avec une vitesse d'aspiration égale ou supérieure à 0,5 m/s, « pour éviter que les matières en suspension décantent avant d'être aspirées », précise Cédric Fagot, chef de marché eau et environnement d'Endress+Hauser, et poursuit que le système doit être réfrigéré à 4 °C « pour réduire au minimum la cinétique microbiologique ». Malgré ces précautions, l'échantillonnage des eaux usées reste une opération délicate car il est difficile d'obtenir un échantillon homogène et stable. En outre, pour l'autosurveillance des stations d'épuration urbaines ou industrielles, l'échantillonnage se fait la plupart du temps en continu grâce à des échantillonneurs automatiques asservis au débit. Si le débit augmente, la fréquence d'échantillonnage croît. Au bout de 24 heures, les prélèvements faits dans la journée sont mélangés et un nouvel échantillon est réalisé sur cette somme. C'est lui qui sera analysé. Or Antonin Sofia, responsable du secteur analyse pour l'association des exploitants d'équipements de mesure, de régulation et d'automatisme ( Exera), rappelle que « l'asservissement de l'échantillonnage au débit est délicat et nécessite des matériels de mesure du débit dans les canaux à ciel ouvert fiables, justes et représentatifs. » À cela s'ajoute le fait que la variation de l'effluent au cours du temps n'est pas prise en compte par certains appareils, que l'effluent n'est pas homogène sur toute la hauteur d'eau, et que les matériels « ne respectent pas toujours les caractéristiques techniques annoncées, tant sur les performances que les conditions d'ambiance », d'après Antonin Sofia. Exera lance d'ailleurs cette année une opération de test sur les échantillonneurs en ligne. Dans le but d'améliorer les stratégies d'échantillonnage, l'agence de l'eau Rhône-Méditerranée et Corse ( AERMC) mène une étude pour valider le principe même de l'échantillonnage lié au débit. « Nous voulons vérifier si la règle de l'art, qui fait dépendre du débit la fréquence d'échantillonnage, est toujours adaptée », précise Alain Terrasson, responsable de l'unité méthodologie à l'AERMC. ÉCHANTILLONNAGE EN LIGNE De son côté, l'Ineris et le Cemagref animent dans le cadre d'Aquaref un groupe de travail pour faire progresser l'échantillonnage en ligne. Le groupe se penche sur cinq questions : l'homogénéisation de l'échantillon pendant le conditionnement ; les blancs de prélèvement ; le choix des procédures de nettoyage du matériel de prélèvement ; la conservation des échantillons ; et la gestion des incertitudes. La question des blancs de prélèvement est centrale. Il faut « s'assurer avant prélèvement que le système (crépine, canalisation de succion, réceptacle de stockage) ne crée pas un artefact qui va altérer les résultats de l'analyse », précise Gilles Puech, responsable technique et développement pour la partie mesure chez Dekra Industrial. Cet artefact pourrait résulter d'une réaction entre les substances et le matériau de l'appareil d'échantillonnage (adsorption, transformation), ou d'un relargage par le matériel de certaines molécules. D'où la nécessité de « faire appel à de vrais spécialistes » pour mettre en place l'échantillonnage, d'après Antonin Sofia, pour qui « l'échantillonnage, c'est 80 % de l'analyse ». Une opinion que ne contredira pas Gilles Puech. Au cours de ses campagnes de vérification des installations de prélèvement pour l'autosurveillance, il remarque que « les systèmes ne sont pas systématiquement pertinents. Il y a parfois des progrès à faire avec les entreprises ». DE GROS ENJEUX FINANCIERS C'est d'autant plus important que la deuxième phase de l'action RSDE est engagée. Toutes les installations classées pour la protection de l'environnement (ICPE) soumises à autorisation doivent voir, avant le 1er janvier 2013, leur arrêté d'autorisation complété d'une obligation de surveillance pendant six mois d'un certain nombre de substances dans leurs rejets. Si la présence des contaminants est confirmée, l'installation devra prendre des mesures pour les éliminer. Les enjeux financiers sont de taille : il faut créer le système de surveillance, payer les analyses et éventuellement les études pour déterminer la stratégie d'élimination des substances, réaliser des traitements complémentaires. La question centrale qui préoccupe les entreprises est ainsi formulée par Gilles Puech : « Est-ce que les résultats des analyses seront réellement exploitables, compte tenu des incertitudes qui règnent sur les technologies d'échantillonnage et d'analyse ? » Une question d'autant plus prégnante que les substances sont recherchées à des concentrations de plus en plus faibles. INCONFORTABLE INCERTITUDE La mesure des micropolluants dans les eaux de rejet pour l'action RSDE, ou dans les milieux naturels dans le cadre de la DCE, se fait en effet désormais à des concentrations pouvant descendre à quelques nanogrammes par litre. La moindre interférence des matériels peut donc fausser le résultat, et l'industriel ou l'État membre se voir imposer des investissements inutiles. Le niveau très bas des normes pose d'ailleurs divers problèmes en termes d'analyse. C'est par exemple le cas pour les normes de qualité environnementales (NQE), concentration maximale autorisée dans les milieux aquatiques par la DCE pour les polluants dangereux. « Pour certains polluants, les laboratoires ne peuvent toujours pas techniquement atteindre les NQE : les chloroalcanes, l'un des hydrocarbures aromatiques polycycliques, le tributylétain. », signale Anne Morin. Pour ce dernier, une méthode d'analyse a été développée par l'Ineris. Mais elle ne peut pas encore être appliquée en routine à un coût acceptable. En outre, « l'un des enjeux est celui de la capacité des laboratoires à avoir une performance analytique constante à ces concentrations très basses », note Gilles Puech. Gérard Pelletier va même plus loin : « Parfois, l'analyse descend jusqu'au picogramme par litre. À ce moment-là, l'incertitude est de l'ordre de la mesure... » L'incertitude est en effet essentielle pour estimer un résultat d'analyse. Elle indique l'étendue des valeurs dans laquelle se trouve la vraie valeur de la grandeur mesurée. Elle doit normalement être fournie aux autorités administratives avec le résultat d'analyse. Pourtant, d'après Anne Morin « ils ne savent qu'en faire, surtout si le résultat s'approche des normes réglementaires... ». Dans ce cas, un résultat supérieur à la norme peut se révéler être soit au-dessus soit en dessous de la norme une fois l'incertitude prise en compte. Et l'inverse est aussi vrai. Si l'incertitude est une donnée scientifique essentielle, les modalités de sa prise en compte par l'administration et le politique doivent donc encore être clarifiées. Cette question de l'incertitude est encore plus épineuse lorsqu'il s'agit de déterminer l'état biologique des masses d'eau, dans le cadre de la DCE. En effet, tout comme les analyses physico-chimiques et les analyses de micropolluants, les analyses hydrobiologiques doivent être fournies avec l'incertitude qui les caractérise... mais ici, dans le domaine très variable et hétérogène des milieux aquatiques, les méthodes d'établissement des incertitudes restent souvent elles-mêmes à définir. L'HYDROBIOLOGIE EN CHANTIER D'une manière plus générale, le développement de l'analyse hydrobiologique dans le cadre de la DCE s'accompagne d'un grand effort théorique. Alors qu'auparavant, les indices biologiques fournissaient une évaluation absolue d'un état du milieu, aujourd'hui ils doivent être comparés avec un état de référence. C'est la notion d'état écologique, ou de taux de dégradation. Un premier travail a donc été de définir, en concertation au niveau européen, cet état de référence pour chaque élément de qualité biologique et chaque type de masse d'eau. Il s'agit ensuite de transformer les indices existants - ou ceux en cours d'élaboration - en un « écart à la référence », traduit en classes d'état sur une échelle de cinq classes allant de « très bon état » à « mauvais état ». Sachant que le point crucial est de situer la limite entre le « bon état » et l'« état moyen », puisque la DCE exige de mettre en oeuvre des mesures correctives si l'état constaté est en dessous de « bon ». Autre priorité : les résultats d'évaluation de la qualité des cours d'eau doivent être « intercalibrés », autrement dit équivalents d'un pays à un autre. Cela doit permettre de ne pas introduire d'inégalités entre les pays face aux exigences de la DCE et aux futurs rappels à l'ordre de la Commission. Pour cela, « nous devons regarder la même chose. Par exemple, pour les macrophytes, est-il nécessaire d'identifier seulement ce qu'il y a dans le cours d'eau (méthode française et anglaise) ou aussi ce qu'il y a sur les berges (méthode néerlandaise) ? Il faut aussi avoir les mêmes critères d'évaluation : va-t-on s'intéresser à la masse de macrophytes, à leur diversité... ? Enfin, les exigences en matière d'état des milieux doivent être les mêmes d'un pays à l'autre, pour que le "bon état" soit comparable dans toute l'Europe, alors que les rivières et les lacs sont totalement différents entre le Danemark et Chypre ! » explique Christian Chauvin. LES MESURES OPTIQUES Du côté de l'analyse physico-chimique, l'amélioration de l'analyse passe aujourd'hui par l'amélioration des performances des analyseurs, d'une part des analyseurs en ligne, et d'autre part des technologies des laboratoires. La mesure en ligne est très prisée par les industriels pour l'autosurveillance. Elle est notamment utilisée pour une analyse globale des effluents, donc de paramètres comme la conductivité, le pH, l'oxygène dissous, la concentration en ammonium, en phosphates, le COT. La plupart de ces critères sont intégrés dans les autorisations de rejet des stations d'assainissement urbaines ou industrielles. Les technologies de mesure en ligne sont variées : ainsi, pour le COT, Cédric Fagot signale qu'il existe « quatre technologies différentes, qui offrent chacune un équilibre entre la précision recherchée et le budget : deux méthodes optiques par ultraviolets, et deux méthodes dites COT-mètres, pour lesquelles il faut carboniser l'échantillon ». Les méthodes optiques, autrement appelées photométriques, sont de plus en plus utilisées : « Elles sont simples à mettre en oeuvre et nécessitent une faible maintenance », poursuit Cédric Fagot. Elles s'appuient sur la capacité des molécules à absorber les ondes, ou à en émettre lorsqu'elles sont excitées (fluorescence). Ainsi, les techniques évoluent : les analyseurs, qui nécessitent de réaliser un échantillon, d'y ajouter un réactif puis de lire le résultat, sont peu à peu remplacés par des capteurs, ces derniers effectuant directement la mesure, sans dérivation. De même, la mesure de l'oxygène dissous par électrochimie (électrodes de Clark) est remplacée par une mesure en continu par fluorescence. L'intérêt principal est la réduction de la maintenance : la membrane doit être changée une fois par an, alors que les électrodes devaient être entretenues quotidiennement ; en outre, la turbidité n'empêche pas la mesure. À ces innovations technologiques s'ajoutent les progrès des techniques d'interprétation des résultats. « Le traitement informatique du signal (chimiométrie) est de plus en plus rapide », estime Antonin Sofia. Cependant, ces technologies ne permettent généralement pas encore l'analyse des micropolluants, « car les matrices sont complexes et les concentrations recherchées trop basses pour les technologies existantes », d'après Cédric Fagot. Seuls certains micropolluants peuvent être ainsi mesurés en ligne : c'est par exemple le cas d'une vingtaine de métaux, avec des méthodes comme la voltamétrie ou une électrolyse plus classique. L'AUTOMATISATION SE GÉNÉRALISE Pour les micropolluants, qu'ils se trouvent dans les milieux aquatiques ou dans les rejets d'installations, l'intervention des laboratoires reste donc indispensable. Là aussi, les techniques s'affinent et l'ordre du jour est à la réduction des coûts. Les matériels fonctionnent de plus en plus en mode automatique : la minéralisation, le passage des échantillons, l'agitation, la lecture des résultats sont automatisés. Les laboratoires peuvent ainsi gagner en reproductibilité, en fiabilité, en temps, et diminuer le risque d'exposition des personnels aux réactifs toxiques. Parallèlement, les techniques d'analyse s'affinent et se développent. De grands espoirs sont mis dans les méthodes multirésidus, qui permettent de mesurer en même temps plusieurs centaines de micropolluants. Elles doivent encore être améliorées, notamment grâce à un usage plus répandu des étalons marqués ; malheureusement, de tels étalons n'existent pas pour tous les micropolluants, et ils sont chers. Par ailleurs, « un protocole analytique comprend plusieurs phases : préparation de l'échantillon, extraction et séparation du polluant, détection. Si l'on recherche un grand nombre de polluants en même temps, il faut faire des compromis : par exemple, dans le choix des solvants pour l'extraction. Or, qui dit compromis, dit perte de spécificité, d'efficacité, de sensibilité. Ce qui est gênant lorsque le résultat se rapproche des normes de concentration des polluants dans l'eau », explique Anne Morin. CHANGEMENT D'APPROCHE En termes de choix technologiques pour l'analyse des micropolluants dans les milieux aquatiques, la directive européenne de 2009 sur l'assurance qualité appliquée à la surveillance des eaux (dite QA/QC), introduit un changement d'approche essentiel. Cette directive, qui doit être transposée d'ici à juin 2011, concerne la mesure des paramètres physico-chimiques dans les milieux aquatiques (et non dans les rejets). Là où, auparavant, la législation exigeait la mise en oeuvre de certaines méthodes, elle ne s'intéresse désormais plus qu'aux performances analytiques du matériel. Elle exige que la limite de quantification des appareils soit au moins inférieure à un tiers de la valeur NQE ; et que l'incertitude soit au maximum de 50 % autour de la NQE. La porte est donc ouverte à toutes les technologies performantes. Reste qu'une autre interrogation est celle de la robustesse des NQE. Elles ont été développées à partir de tests écotoxicologiques, encore peu nombreux. L'incertitude inhérente aux tests a donc été démultipliée lorsque leurs résultats ont été extrapolés à l'ensemble des milieux et de la chaîne alimentaire. « Il faut les réviser régulièrement en fonction des nouveaux résultats scientifiques », d'après Anne Morin. C'est pour cette raison que les NQE peuvent être revues lors de la révision de la liste de polluants prioritaires, prévue tous les quatre ans. La prochaine révision est fixée à janvier 2011. Ce sera sans doute l'occasion de modifier certaines NQE, mais aussi d'ajouter certaines molécules actuellement absentes de la liste européenne. Comme le souligne Anne Morin, « il faudra alors recommencer tout ce travail pour les nouvelles substances ».


PARTAGER :
À LIRE ÉGALEMENT
Recherche de fuites : le projet Radir, un complément aux méthodes acoustiques
Recherche de fuites : le projet Radir, un complément aux méthodes acoustiques
Circularité de l’eau : le littoral sur la vague de la Reut
Circularité de l’eau : le littoral sur la vague de la Reut
Dossier | Eau de pluie : quel potentiel pour le bâtiment ?
Dossier | Eau de pluie : quel potentiel pour le bâtiment ?
Unicem entreprises engagées publie un nouveau recueil pour mieux gérer l'eau
Unicem entreprises engagées publie un nouveau recueil pour mieux gérer l'eau
TOUS LES ARTICLES EAU
Les plus lus
L'essentiel de l'actualité de l'environnement
Ne manquez rien de l'actualité de l'environnement !
Inscrivez-vous ou abonnez-vous pour recevoir les newsletters de votre choix dans votre boîte mail
CHOISIR MES NEWSLETTERS