Accueil du site
Coordination marée noire




envoyer l'article par mail envoyer par mail  [où ?]   [imprimer cet article]    Article précédent   
L’OCEAN SOUS HAUTE SURVEILLANCE.

   Des réseaux pour veiller à la qualité du milieu marin

Michel Marchand mercredi 19 mai 2010



Michel Marchand nous a autorisé à reproduire le texte d’une conférence qu’il a donné à IFREMER Nantes. Qu’il en soit ici remercié.

L’OCÉAN SOUS HAUTE SURVEILLANCE.
DES RÉSEAUX POUR VEILLER À LA QUALITÉ DU MILIEU MARIN

Michel Marchand.
Ifremer, Centre de Nantes

Résumé : Du contrôle de la qualité bactériologique des coquillages initié au début du 20ème siècle au contrôle du bon état écologique des mers européennes au 21ème siècle, la surveillance de la qualité du milieu marin a profondément évolué en 100 ans. Cette évolution est le reflet et en même temps une réponse à la dégradation du milieu marin, soumis comme les autres milieux naturels, à la pression incessante qu’exerce nos sociétés sur la nature. Les réseaux de surveillance sont des indicateurs de la crise écologique actuelle.

L’Ifremer est en charge d’un certain nombre de ces réseaux qui surveillent la qualité microbiologique, chimique et biologique du milieu marin. Ceux-ci répondent à des politique publiques issues, soit de règlements européens qui prévoient le classement des zones de production de coquillages et un suivi régulier de ces zones, soit de directives européennes comme la Directive cadre sur l’eau qui concerne l’ensemble des milieux aquatiques dont les eaux littorales, et la récente directive cadre stratégie pour le milieu marin qui se situe à l’échelle de l’ensemble des mers européennes.

1- INTRODUCTION : DES POINTS DE REPERES

Pour établir quelques points repères, l’histoire de la planète Terre et celle de l’humanité peut se résumer en quelques chiffres clés qui constituent des étapes, des jalons totalement différente dans la durée :

* le « big bang » (13,7 milliards d’années) marque la création de l’espace et du temps,
* la formation de la Terre (4,6 milliards d’années),
* l’apparition de la vie dans l’océan primitif (3,9 milliards d’années),
* la vie sort de l’océan (550 millions d’années),
* plusieurs phases d’extinction de la vie jalonnent l’histoire de la planète, la dernière en date (65 millions d’années) marque l’extinction des dinausores,
* l’Homo sapiens, l’homme sage, apparaît il y a 200 000 ans,
* le début de l’agriculture et de l’élevage débute avec la sortie d’un âge glaciaire, il y a 10 000 ans. L’homme se fixe sur son territoire, développe le langage, et marque le début des civilisations.
* l’entrée dans l’ère industrielle à partir du 19ème siècle se caractérise par le déstockage des produits fossiles (gaz, pétrole, charbon) et l’extraction des matières premières. Il serait donc plus judicieux de qualifier cette nouvelle période de thermo-industrielle. Elle se traduit par un formidable bond en avant, se traduisant par une production immense de biens, mais avec un terrible revers, de multiples déchets, le rejet de substances toxiques, l’épuisement des ressources.

La fin du 20ème siècle se traduit par l’émergence d’une crise écologique majeure qui se traduit par une évolution climatique et une érosion de la biodiversité extrêmement préoccupantes, conduisant à une modification irréversible pour laquelle nous sommes condamnés à nous adapter. L’homme est devenu un élément déterminant dans le fonctionnement de la planète. C’est pour cette raison que certains qualifient cette nouvelle période, l’anthropocène : l’homme est devenu une force évolutive de la planète. La perception de ce changement radical, où l’on ne peut plus faire une réelle distinction entre les histoires naturelle et humaine est récente. La première Conférence mondiale de l’environnement remonte à 1972. La même année, la France se dote de son premier ministère de l’environnement. Quarante ans environ nous séparent de cet prise de conscience fondatrice. Quarante ans, c’est bien peu de choses, comparés à l’histoire de notre planète et à l’histoire de l’humanité. Autrement dit, rien n’est figé, tout est possible, le pire comme le meilleur.

Les grands défis de notre époque :
Notre civilisation aime traduire son dynamisme et sa force en relevant les défis qu’elle se crée (ou impose aux autres). Aujourd’hui, ils sont de trois ordres au niveau planétaire :
* le changement climatique : l’océan joue un rôle clé dans la régulation du climat, par sa capacité d’absorption de la chaleur et du gaz carbonique,
* l’érosion de la biodiversité : les milieux les plus menacés sont les forêts, les zones humides et les mers côtières,
* Les besoins en alimentation du fait de l’évolution démographique.

Pour ces 3 défis auxquels le genre humain est confronté, la mer et les océans ont un rôle majeur, à la fois de régulation climatique, de production de ressources alimentaires et de milieu menacé dans son intégrité alors que c’est là, où la vie est apparue à son stade initial.

La vie a été un long et lent cheminement de conquêtes et d’extinction des espèces. Elle a été capable d’élaborer plus d’un milliard d’espèces vivantes, apparues, puis disparues. On estime entre 1 et 1,5% le nombre des espèces qui nous accompagnent encore aujourd’hui, et la diversité spécifique actuelle est estimée à plus de 14 millions d’espèces. Cette biodiversité, tissu vivant de la planète, est aujourd’hui menacée pour quatre plusieurs raisons :
(i) la destruction et la contamination des milieux naturels,
(ii) la prédation en excès et la surexploitation des ressources naturelles,
(iii) les introductions anarchiques d’espèces de milieux autres et
(iv) le réchauffement climatique généré par les activités humaines (il serait plus juste de parler du système de productivisme actuel). Les espèces vivantes actuelles disparaissent de la planète à un rythme au moins 1000 fois plus rapide que le taux d’extinction naturel.

Au niveau des besoins en ressources alimentaires tirées des milieux aquatiques, il est possible de fixer quelques ordres de grandeur. La consommation annuelle de poissons et de coquillages est estimée à environ 110 millions de tonnes chaque année, soit une consommation journalière moyenne de 50 g par habitant. La moitié de cette consommation vient de l’élevage. Les besoins en alimentation sont évalués d’ici 2050 à une demande supplémentaire annuelle de 30 millions de tonnes en poissons. L’aquaculture est passée de 1 million de tonnes par an en 1950 à 51 millions de tonnes par an en 2006. Le tiers des poissons pêchés (pêche minotière) est utilisé pour la fabrique de farines et d’huiles de poissons, dont une partie sert pour l’élevage. Il faut savoir que 1 kg de saumon d’élevage consomme 4 kg de poissons de pêche. Donc l’aquaculture dépend de la pêche, tributaire de la qualité du milieu. Or, la concentration des élevages conduit à la dégradation de la qualité des eaux due aux rejets d’effluents (excréments) et aux aliments non consommés. En absence de non dispersion des effluents, on constate rapidement la prolifération d’algues dont la dégradation conduit à l’anoxie du milieu (consommation totale de l’oxygène), et au développement de maladies par des agents pathogènes. Il est estimé qu’une ferme piscicole produisant 3000 tonnes de saumon en Norvège est équivalente aux rejets d’une ville de 50 000 habitants.

Cette forte demande alimentaire est liée à l’évolution démographique . En 3 siècles (1700 à 2000), la population mondiale s’est accrue d’un facteur 10 fois, au 20ème siècle, la population s’est multipliée 4 fois. Cette évolution s’est accompagnée de profondes inégalités. En 2007, les régions les plus développées et les plus riches représentaient 18% de la population mondiale. Par ailleurs, d’autres caractéristiques accompagnent cette évolution démographique. La concentration urbaine est de plus en plus forte (une augmentation d’un facteur 10 au cours du 20ème siècle), le nombre de métropoles augmentent, avec des populations dépassant 20 millions d’habitants (Mexico, Shanghaï,…). Une population de plus en plus importante vit en bordure de mer, non seulement dans les pays développés (25% des canadiens, 55% des habitants des Etats-Unis vivent dans les zones côtières), mais également dans les pays pauvres. Cette forte densité de population vivant en bordure de mer va subir à des degrés divers les conséquences à terme de l’élévation du niveau de la mer. Ainsi, le Bangladesh risque de voir le tiers de sa surface inondée, soit un destin tragique pour plusieurs dizaines de millions

2- LE LITTORAL ET LA ZONE COTIERE

Définition du littoral. Qu’est-ce le littoral pour la majorité d’entre nous ? On pourrait dire qu’il y a une loi pour cela, la Loi « Littoral » du 3 janvier 1986. Mais paradoxalement, elle ne définit pas son objet, « c’est une entité géographique qui appelle une politique spécifique d’aménagement, de protection et de mise en valeur » (article 1). Pour tenter d’apporter une réponse, on peut simplement penser que le littoral est tout simplement la zone qui sépare la terre de la mer. Ce serait donc un trait de 5 500 km de long qui suit le bord de mer, englobant les estuaires, alternant les côtes rocheuses et sableuses, les baies et côtes rectilignes, successions de dunes, de marais, de plages, etc, etc….

Mais cette définition reste trop physique. Pour les naturalistes, les écologues, le littoral est un espace tampon entre le milieu terrestre et le milieu marin, un écotone pour employer le mot savant. Alors, en tant que simple citoyen, attiré comme beaucoup par le bord de mer, j’avancerais une définition très simple « c’est le lieu d’où je peux voir la mer », ce qui explique à quel point le littoral est devenu un espace limité, attractif et très convoité.

Comment ne pas penser à la chanson de Charles Trenet « la mer qu’on voit danser le long des golfs clairs a des reflets d’argent, la mer des reflets changeants sous la pluie. La mer, au ciel d’été, confond ses blancs moutons avec les anges si purs, la mer bergère d’azur infini. Voyez près des étangs, ces grands roseaux mouillés, voyez ces oiseaux blancs et ces maisons rouillées. La mer les a bercés le long des golfs clairs. Et d’une chanson d’amour, la mer a bercé mon cœur pour la vie ». La mer est autant une réalité qu’un imaginaire et l’on peut y adjoindre une multitude de représentations.

* lieu de départ pour le voyage, l’exploit, le commerce, la pêche, mais aussi la guerre,
* lieu de repos et de loisirs, pour la baignade, la pêche de coquillages, la navigation,
* lieu de soins et de cure,
* lieu de travail pour la pêche, la conchyliculture, l’extraction de sables,
* lieu d’exploitation minière (les nodules de manganèse), de ressources énergétiques actuelles (pétrole, gaz), mais aussi futures (hydrates de méthane, hydrogène), d’énergies renouvelables,
* lieu d’exploration scientifique, de recherche, sur la dérive des continents, les sources hydrothermales, oasis du fond des océans, les échanges d’énergie entre l’océan et l’atmosphère, la compréhension des origines de la vie, ….
* lieu de régulation du climat (absorption de la chaleur et du gaz carbonique, rôle des grands courants océaniques), mais aussi lieu de lutte contre la dérive climatique elle-même (séquestration du gaz carbonique dans les couches géologiques profondes, accélération de la production végétale par addition de fer dans la mer),
* lieu des catastrophes naturelles et des drames passés (Titanic), actuels (tsunami, marées noires, pirateries) mais aussi futurs (élévation du niveau de la mer).
* lieu des inégalités, les immigrants clandestins face à une Europe forteresse.

On peut voir également le littoral selon que l’on a les pieds sur terre ou les pieds dans l’eau.

Un littoral vu de terre.
Les communes littorales représentent 4% du territoire métropolitain. Mais la densité des populations représentent 6 millions de résidents, soit 281 hab/km2, ce qui représente environ 2,5 fois la moyenne métropolitaine, ceci sans compter la capacité d’accueil touristique estimée à 7 millions de lits. Ceci pour dire que le littoral est un espace très convoité. Les espaces artificialisés sont importants, ils représentent 14% du territoire des communes littorales, soit environ 3 fois la moyenne nationale. Le taux d’artificialisation peut aller jusqu’à 40% dans les Pyrénées Atlantiques et dans les Alpes maritimes. C’est une autre manière de montrer la convoitise qui s’abat sur ce territoire.

Les espaces naturels, landes, dunes, maquis occupent également une place importante, environ 21% de la surface littorale, 2,5 fois la moyenne nationale. Même constat pour les zones humides. Les espaces littoraux accueillent une faune et une flore très diversifiée, ceci confère au littoral une grande richesse biologique. Les niveaux de protection des espaces naturels terrestres sont plus élevés dans les communes littorales. Les sites d’intérêt communautaire sont 2,6 fois plus importants dans la zone littorale par rapport à la moyenne nationale. Ils représentent près de 22% de la surface des communes littorales.

On voit s’esquisser ainsi une première conclusion. Que ce soit en terme de pressions humaines (populations, surfaces artificialisées) ou en terme de richesse biologique reconnue et donc de besoin de protection, il y a un rapport sensible de 1 à 3 entre moyenne nationale métropolitaine et communes littorales. On comprend aisément l’énoncé de la Loi Littoral de 1986 relative à l’aménagement, la protection et la mise en valeur du littoral. Cette loi garde plus que jamais son actualité.

Un littoral vu depuis la mer.
Si l’on considère les limites administratives, la bande des 300 mètres correspond à la zone de responsabilité des maires pour la baignade par exemple. Au-delà, la limite des eaux territoriales à 12 milles de la côte, soit environ 22 km, marque la juridiction des Etats. Si la bande côtière peut rester perceptible à cette limite territoriale, elle ne l’est plus aux limites de la zone économique exclusive (ZEE) qui s’étend aux 200 milles (environ 360 km) de la côte où les Etats se sont octroyés des droits pour l’exploitation du milieu (pêche, ressources minérales, ressources énergétiques), mais aussi des devoirs pour la protection.

Le droit international de la mer accorde donc d’immenses espaces maritimes aux nations. Ainsi, la France avec un territoire métropolitain hexagonal (3 façades maritimes, 3 façades terrestre) de 560 000 km2, bénéficie par son domaine ultramarin (DOM/TOM), tous océans confondus, un espace maritime de 11 millions de km2, soit près de 20 fois la surface de sa métropole.

Les océans sont aussi un espace de libre circulation pour les navires de commerce. La question se complexifie, lorsque cette navigation se concentre à proximité des côtes, points de passages obligés comme le Détroit de Malacca, le Cap de Bonne Espérance, l’entrée dans la Manche ou les Bouches de Bonifacio entre la Corse et la Sardaigne. Le rail d’Ouessant est un bon exemple de densité du trafic maritime qui voit passer chaque année 240 millions de tonnes d’hydrocarbures et 40 millions de tonnes de produits chimiques acheminés en vrac ou en colis. Ce n’est donc pas étonnant à première vue que les côtes françaises aient été victimes de nombreuses marées noires, depuis le Torrey Canyon en 1967 (même si celui-ci s’est échoué en Cornouaille anglaise), l’Amoco Cadiz en 1978 et plus récemment l’Erika en 1999. Mais la raison de ces naufrages n’est pas du uniquement à la densité du trafic et aux aléas de mer. Si l’on prend le nombre de passages de navires transportant des substances dangereuses, 16 000 passages par an sur les rails montant et descendant de la Manche/Mer du nord, cela ne fait en tout et pour tout qu’un passage toutes les 30 minutes. L’aléa maritime existe bien évidemment, mais la marée noire n’est pas une fatalité, elle est trop souvent la conséquence de choix économiques voulus, faisant naviguer des navires douteux qui se disloquent par eux-mêmes en mer, comme ce fût le cas du Tanio en 1980, de l’Erika en 1999 et du Prestige en 2000.

Mais les marées noires peuvent être aussi les arbres qui masquent la forêt. La mer subit également et surtout ce qui vient du continent, ruissellement des bassins versants, rejets directs, apports par les fleuves d’engrais, de pesticides, pollutions urbaines et industrielle, etc, etc…. Pour donner une image en terme de substances chimiques : 100 000 substances chimiques sont utilisées sur le marché européen et 5000 substances sont estimées dangereuses, soit 5%. Par ailleurs, en terme quantitatif, il faut considérer que la production chimique annuelle est passée de 7 millions de tonnes en 1950 à 400 millions de tonnes en l’An 2000. La protection des milieux aquatiques contre les substances toxiques est une affaire de prévention, ce qui renvoie à un débat autour de l’application du Règlement européen REACH.

Donc, nous avons donc de multiples raisons d’avoir des inquiétudes pour la mer et sa santé : une démographie forte sur le littoral, une importante artificialisation du littoral, des rejets de toutes natures, urbains, agricoles, industriels. Si l’on rajoute à cela, des marées noires, une érosion inquiétude de la biodiversité, un épuisement des stocks de pêche, une aquaculture intensive, il y a de quoi s’inquiéter !! Et à ce titre, il devient de plus en plus difficile de croire que nous sommes entrés dans une ère de développement durable, ne serait-ce pas plutôt le contraire.

3- LA SURVEILLANCE, UNE REPONSE A LA DEGRADATION DE L’ENVIRONNEMENT.

Que faire face à une telle dégradation de l’environnement, qu’il soit marin ou terrestre ? En premier lieu, adopter des lois qui doivent incarner l’intérêt général pour interdire, protéger et aménager. Le débat est hautement politique. Certains appellent à une « planification écologique » alors que d’autres prônent la propriété privée pour une bonne gestion des espaces à protéger.

Au plan scientifique, différentes approches sont proposées, complémentaires les unes des autres et en fortes interactions les unes avec les autres : comprendre par la recherche, observer sur le long terme, surveiller selon des cadres réglementaires. Surveiller quoi et pourquoi ? La surveillance vise très schématiquement à contrôler le bon état des eaux, à surveiller la qualité sanitaire des produits de la mer, mais aussi à surveiller la qualité du cheptel (coquillages) en terme de croissance et de pathologie, et les stocks de pêche.

La surveillance de la qualité du milieu marin, la surveillance sanitaire sont définies à présent à l’échelle européenne : règlements pour la qualité des zones de production de coquillages, directives comme la Directive Cadre sur l’Eau (DCE) et la récente Directive Stratégie pour le Milieu marin (DCSMM).

L’Institut français de recherche pour l’exploitation de la mer (ifremer) a une mission de surveillance et le propos présenté ici se limitera à la seule surveillance de la qualité du milieu marin, et non au suivi des stocks de pêche et de la qualité des coquillages (mortalités, pathologies).

Pour répondre à une telle mission, l’Ifremer met en œuvre différents réseaux de surveillance à l’échelle nationale, chacun d’entre eux étant identifié par un acronyme : le ROCCH (ex. RNO) pour la surveillance chimique, le REPHY pour surveillance du phytoplancton, le REMI pour la surveillance microbiologique, le REBENT pour la surveillance des fonds marins

Cette surveillance est mise en œuvre par des laboratoires côtiers qui sont implantés sur 10 stations réparties sur l’ensemble du littoral : Boulogne s/ Mer, Port en Bessin, Dinard, Concarneau, La Trinité, Nantes, La Tremblade, Arcachon, Sète, Toulon. La masse d’informations produites est gérée au sein d’une base de données unique QUADRIGE qui constitue, au niveau national, le référentiel des données de la surveillance des eaux littorales. L’accès aux résultats de cette surveillance est garanti par la Convention d’Aarhus qui impose l’accès du public aux données environnementales. Des bulletins de la surveillance sont publiés chaque année et le site Web Envlit http://www.ifremer.fr/envlit) fournit les données de la surveillance au public et des synthèses sur des dossiers.

4- EVOLUTION ET PRESENTATION DES RESEAUX DE SURVEILLANCE

L’une des caractéristiques d’un réseau de surveillance est son côté pérenne, répétitif, permettant de contrôler et de suivre dans la durée les évolutions. Mais il serait erroné d’y associer un caractère figé et rigide. C’est tout le contraire et pour cela, il faut remonter au début du 20ème siècle et suivre l’évolution des réseaux de surveillance. On peut déceler cinq grandes étapes.

Première étape : la mer est un milieu d’usage dont il faut contrôler sa salubrité.

Les premières interrogations sont même antérieures au début du 20ème siècle. Au 19ème siècle, des épidémies étaient attribuées aux coquillages. On parlait de « typhoïde ostréaire ». On a ainsi attribué aux huîtres d’avoir été la cause, 3 siècles auparavant, des difficultés intestinales du roi Henri IV parce qu’il en avait abusé. Mais on était loin d’avoir un consensus sur cette question. La thèse fut réfutée en 1818 par un chirurgien militaire qui, dans un essai intitulé « Essai médical sur les huîtres » écrivait « la guérison qu’obtint notre bon roi Henri d’une fièvre quarte qui avait résisté à tous les efforts de ses médecins en mangeant force huître et buvant force hypocras ».

Il n’y a pas que le roi Henri IV qui consomme les huîtres. Les huîtres sont très appréciées à la cour du roi Louis XV, comme l’illustre le tableau de J.F. De Troy (« le déjeuner d’huîtres ») que l’on peut voir au musée de Chantilly. La consommation nationale est estimée à 60 000 tonnes en 1936, environ 1 milliard d’huîtres (soit 25 huîtres par habitant chaque année), elle est aujourd’hui d’environ 130 000 tonnes par an et représente environ 90 % de la production européenne.

A cette époque, disons le premier quart du 20ème siècle, force est de constater que toutes les parties de la côte ne sont pas salubres. Pour assurer l’assainissement à terre, la pratique est d’évacuer par les égouts les matières usées à la mer. Et cette pratique va durer jusque dans les années 1960, voire au-delà. Pour donner un exemple, les eaux usées de la ville de Marseille étaient rejetées sans traitement à la mer dans la calanque de Cortiou jusque dans les années 1980.

Au début du 20ème siècle, toujours à Marseille, le nombre de colibacilles était de plusieurs milliers par litre d’eau de mer, pouvant atteindre 50 000 au cap Croisette qui est à 5 km du grand égout de Marseille. En contraste, sur la côte des îles du Frioul, les eaux étaient généralement pures, notamment dans les calanques où les colibacilles ne dépassent pas le nombre de 20 par litre d’eau de mer. Lorsqu’on lit des articles de cette époque, on ne parle pas de pollution mais de souillure, par exemple « … les ruisseaux charrient après les pluies une masse considérable d’eau souillée » ou « les ports constituent une source de souillure non négligeable ».

Le premier pas vers une surveillance fut à l’initiative de plusieurs restaurateurs parisiens, convaincus qu’il était important d’offrir une garantie de salubrité au consommateur. Ceci faisait suite à une vive campagne contre les huîtres, causée par des intoxications dues à des mollusques retrempés dans les canaux de Sète. Ces restaurateurs, parmi lesquels on peut citer les noms de Drouant, Prunier (son restaurant existe toujours Avenue Victor Hugo dans le 16ème arrondissement de Paris), Labeyrie, Porcher, Velly, vont créer un contrôle sanitaire des établissements ostréicoles. Ils formèrent le premier Conseil de l’Association d’Encouragement des Industries Ostréicoles » (AEIO), association qui fonda une station à La Tremblade, puis une autre à Auray.

En 1920, le contrôle, jusqu’alors facultatif, devint obligatoire et un Décret paru en 1923 créa le contrôle sanitaire obligatoire et peu à peu s’organisa le service du contrôle sanitaire. En plus du contrôle s’instaure l’octroi par l’Administration de concessions, et dans les zones insalubres, aucune concession n’est accordée. L’exploitation de gisements insalubres est interdite. Il est interdit par exemple de pêcher les coquillages dans les ports. Et si une production de coquillages a lieu dans des zones suspectes, il y a obligation d’en reparquer les produits pendant un mois en zone salubre. Ce mode de surveillance et de contrôle existe toujours.

La mer est alors considérée comme un milieu infini qui peut recevoir, diluer, assimiler nos souillures. Toutefois, on conçoit que cela peut avoir des conséquences néfastes sur les consommateurs de produits de la mer, surtout ceux qui sont consommés crus comme les huîtres. Il en émerge deux règles, d’une part les coquillages doivent être produits dans des zones salubres, d’autre part leur salubrité doit être contrôlée avant leur consommation.

D’une initiative privée, celle de restaurateurs parisiens, le contrôle devient une mission de service public réalisée sous l’autorité de l’Administration. Mais la perception de la mer est au fond la même par tous durant cette période de la première moitié du 20ième siècle. Que ce soit pour les producteurs, les consommateurs, l’administration, la mer est un milieu d’usage dont il faut seulement contrôler la qualité bactériologique des produits consommés.

Seconde étape : la mer est le milieu récepteur ultime de nos pollutions croissantes.

La seconde étape débute après la seconde guerre mondiale avec l’arrivée de très mauvais « acteurs » que sont les contaminants chimiques. Certains vont devenir tristement célèbres, comme le mercure, le DDT, les PCB, les hydrocarbures.

* Le mercure se fait connaître par les rejets industriels d’une usine japonaise dans la baie de Minamata dans les années 1950, affectant gravement pêcheurs et leurs familles qui capturaient dans la zone côtière les poissons qui étaient à la base de leur alimentation. Pour comprendre l’impact de cette pollution, il aura fallu des études, des recherches pour disséquer le processus d’intoxication qui n’est pas lié uniquement aux quantités de mercure rejetées, mais aussi à la transformation du mercure métal en méthyle mercure, ceci par l’activité bactérienne naturelle du milieu.

* Les pesticides et le plus connu d’entre eux est sans conteste le DDT. Cet insecticide (rendons-lui au moins cet hommage) a rendu de grands services à l’homme, notamment dans la lutte contre le vecteur de la malaria. L’impact négatif du DDT se situe sur l’environnement et spécifiquement sur les oiseaux, ce qui amènera l’américaine Rachel Carson à écrire son célèbre ouvrage « Printemps Silencieux » dans les années 1960, ouvrage qui éveillera à la conscience écologique toute une génération. Le DDT a été interdit en France en 1972, date importante, comme nous le verrons par la suite.

* Les PCB font toujours parler d’eux aujourd’hui. Ce sont des produits industriels utilisés depuis 1930, principalement dans les transformateurs électriques. Ils ont été découverts la première fois dans l’environnement, dans l’archipel de Stockholm, en 1966. Ils seront ensuite identifiés partout, sur toute la planète, jusque dans la neige et les penguins des zones polaires. Ils sont interdits en France depuis 1985.

* Les hydrocarbures sont assimilés instantanément aux marées noires, la première, celle du Torrey Canyon eut lieu en 1967.

C’est dans ce contexte assez lourd que s’ouvre en 1972 à Stockholm la première Conférence mondiale sur l’environnement. La même année, la France crée son premier Ministère de l’Environnement et le DDT est interdit. Le nouveau ministère charge en 1974 l’Ifremer (plus exactement à l’époque le Cnexo) de mettre sur pied un réseau national d’observation de la qualité du milieu marin, le RNO. Le RNO sera le premier réseau de surveillance de la contamination chimique du milieu marin. Il va utiliser notamment les moules et les huîtres, pour suivre cette contamination chimique parce que ces coquillages ont la capacité d’accumuler certains contaminants chimiques présents dans l’eau en très faibles quantités, à l’état de traces comme disent les chimistes.

Les contaminants recherchés, surveillés sont les métaux, notamment le Cd, Hg, Pb, les insecticides comme le DDT, le lindane, les PCB et les hydrocarbures, bref, tous les mauvais acteurs énoncés précédemment.

Ce réseau de surveillance va fournir une masse d’informations qui répondent aux interrogations des années 1970 : qu’en est-il de la pollution chimique sur nos côtes ? On a vu surgir des programmes analogues à celui du RNO en France, comme le « Mussel Watch » aux Etats-Unis (en fait celui-ci est antérieur au RNO). Dans les deux cas, que cherche-t-on à savoir : un état de la situation. Nous ne sommes pas dans une logique de contrôle réglementaire, comme par exemple le contrôle bactériologique sanitaire. Il y a un besoin de savoir, d’acquérir des connaissances et les données acquises peuvent être qualifiées de données à caractère « patrimonial ».

Avec le RNO, une étape nouvelle est franchie. Nous commençons à admettre que la mer ne doit plus être considérée comme une poubelle, le dépotoir de nos activités, surtout pour des substances toxiques, à la fois pour l’environnement, mais aussi pour l’homme. Une préoccupation nouvelle se fait jour, celle du devenir et des effets du rejet des substances toxiques dans l’environnement.

Ce mouvement crée d’autres approches qui utilisent les données de la surveillance. Durant cette décennie des années 1970, un concept nouveau émerge au niveau des études littorales, le SAUM, le « Schéma d’aptitude à l’utilisation de la mer » qui deviendra par la suite SNVM « Schéma national de la valorisation de la mer » et à présent la GIZC « gestion intégrée des zones côtières ». Les premiers SAUM ont été lancés dans les années 1970 pour l’estuaire de la Seine et la rade de Brest. Un autre concept apparaît également à cette époque, celui de la capacité d’assimilation du milieu, basée sur une méthode, celle du « cheminement critique ». Prenons deux exemples concrets pour illustrer ce que signifie cette approche. L’usine de retraitement nucléaire de Windscale au Pays de Galles en Mer d’Irlande, analogue à celle de La Hague, rejette des effluents radioactifs en mer, en faibles quantités mais existants. Parmi ceux-ci figure le Ruthénium 109 qui s’accumule dans les algues, dont certaines espèces servent à confectionner un pudding local appelé le « laverbread ». Si l’on connaît, d’un côté la dilution du rejet en mer, le cheminement du ruthénium dans le milieu, sa capacité d’accumulation dans l’algue, et de l’autre côté la quantité maximale de ruthénium que le consommateur ne doit pas ingérer en consommant le pudding local (on fait l’hypothèse que le cheminement critique du ruthénium vers l’homme depuis le milieu marin se fait par l’intermédiaire du pudding), il devient possible de réglementer en amont les rejets radioactifs. La même approche peut de se faire à partir de rejets de mercure en mer, en considérant la concentration maximale admissible dans le poisson qui va être consommé.

Avec cette seconde étape, on commence à percevoir les conséquences de la pollution des mers, notamment par les substances chimiques toxiques. Si l’on met en place des réseaux de surveillance et des travaux de recherche, la mer reste encore fondamentalement un milieu qu’il faut protéger certes, mais qu’il faut protéger par rapport aux usages et bénéfices que l’on peut en tirer : loisirs, cultures marines, pêche professionnelle ou pêche récréative.

Troisième étape : la mer produit des toxines dangereuses pour le consommateur, dont il faut se prémunir.

Une troisième étape, cette fois-ci plus complexe, intervient dans les années 1980. Il est toujours question de protéger la santé humaine, mais on est également amené à s’interroger sur le fonctionnement naturel des écosystèmes marins.

En 1983, plusieurs centaines de personnes sont victimes d’intoxications alimentaires en Loire Atlantique après avoir consommé des moules. Les recherches en déterminent rapidement la cause. Il ne s’agit plus de souillures en provenance de la terre, mais de toxines biologiques produites par des espèces bien particulières de phytoplancton. La micro-algue en question s’appelle Dinophysis et elle a la particularité de produire des toxines diarrhéiques (appelées DSP pour diarrheic shellfish poisoning) qui s’accumulent dans les coquillages. Mais cette algue n’est pas la seule. Il existe également un autre dinoflagellé du genre Alexandrium qui produit des toxines cette fois paralysantes, appelées PSP pour paralytic shellfish poisoning et l’algue du genre Pseudo-nitzschia qui produit des toxines amnésiantes appelées ASP pour amnesic shellfish poisoning.

A cette situation, on peut faire une remarque caustique. Imaginez les effets combinés de coquillages contaminés par un cocktail des trois types de toxines, paralysantes, diarrhéiques et amnésiantes ! Mais sans aller jusqu’à ce cas fatal hypothétique, on voit bien qu’il y a bien un problème de santé publique qui nécessite surveillance et contrôle. Lorsque les toxines sont connues chimiquement parlant, l’analyse chimique permet de réaliser ce contrôle en se référant à un seuil sanitaire à ne pas dépasser. Lorsque la situation est plus complexe, on utilise un test biologique, le fameux test dit de la souris qui a fait couler beaucoup d’encre l’an dernier, notamment par rapport aux protestations des ostréiculteurs du bassin d’Arcachon.

C’est ainsi qu’est né en 1984 un nouveau réseau de surveillance, le REPHY, à la fois pour surveiller le phytoplancton et notamment les espèces toxiques qui produisent des toxines, mais aussi pour contrôler la qualité sanitaire des coquillages en cas d’apparition de flores toxiques. Cette troisième étape montre une nouvelle évolution en matière de surveillance. On commence à surveiller le milieu marin par rapport à son fonctionnement naturel. Il s’agit de surveiller la flore phytoplanctonique, de déceler des abondances, ce que l’on appelle des blooms, et plus spécifiquement les flores toxiques afin de pouvoir contrôler les phycotoxines qui s’accumulent dans les coquillages. Le milieu marin est toujours considéré comme un milieu d’usage, la production de produits de la mer, mais il devient nécessaire de surveiller les espèces phytoplanctoniques dans leur ensemble.

Quatrième étape : la mer doit être protégée dans sa fonctionnalité écologique.

Cette quatrième étape débute dans un contexte purement national, durant l’An 2000 après la marée noire de l’Erika. L’impact environnemental d’une marée noire sur le long terme s’évalue principalement sur les effets constatés sur la faune et la flore du fond des mers, ce que l’on appelle le benthos. Mais ce diagnostic n’est envisageable que si l’on connaît l’état des peuplements avant la pollution accidentelle, c’est à dire connaître l’état de référence avant l’accident. La connaissance des états de référence d’un milieu complexe, dépendant de la nature des fonds marins, fonds rocheux, sableux, vaseux, nécessite un réel investissement de connaissance. C’est ainsi qu’est né un nouveau réseau de surveillance, purement environnemental, ne répondant à aucun impératif sanitaire, le REBENT, réseau de surveillance des peuplements benthiques, dont le prototype a été créé en Bretagne.

Mais cette quatrième étape dans l’évolution de la surveillance n’est pas liée à cette marée noire de l’Erika, mais à l’adoption durant l’année 2000 de la Directive cadre sur l’eau. Cette nouvelle directive européenne est très importante pour plusieurs raisons que l’on peut tenter d’énumérer ainsi :

* Elle fixe la politique communautaire de l’eau à l’échelle d’un continent, pour plus de 500 millions d’habitants,
* Elle concerne tous les milieux aquatiques, depuis les lacs alpins, les torrents, les rivières, les fleuves, les eaux souterraines, les estuaires et les lagunes (que l’on appelle des eaux de transition) pour englober au final les eaux marines côtières. On reconnaît en quelque sorte que tous les milieux aquatiques sont en interactions permanentes les uns avec les autres.
* Elle impose à tous les Etats-membres, une obligation de résultat : atteindre le bon état des eaux en 2015.
* Le bon état signifie deux choses : le bon état écologique et le bon état chimique.
* Le bon état chimique est déterminé à partir d’une liste de substances considérées comme prioritaires, 41 au total. Chaque substance ne doit pas dépasser un certain seuil, appelé « norme de qualité environnementale » qui protège à la fois les écosystèmes aquatiques faune et flore, et la santé humaine.
* Le bon état écologique est plus complexe à définir. Il est déterminé à partir d’un ensemble d’éléments de qualité biologique, le phytoplancton, les invertébrés, les algues, les herbiers, les poissons (mais seulement dans les eaux de transition), ainsi que de différents paramètres physico-chimiques qui sont des supports à la vie biologique (température, oxygène, éléments nutritifs, turbidité). Sans entrer dans un détail méthodologique complexe, disons simplement que le bon état écologique ou le mauvais état d’une masse d’eau est défini par rapport à un écart plus ou moins important à un état de référence qu’il faut évidemment connaître ou déterminer.

Ce texte européen, transcrit en droit national par la Loi sur l’Eau, constitue une petite révolution conceptuelle. Il ne s’agit plus de surveiller, au sens avoir une information sur l’état d’une situation à un moment donné (comme pour les contaminants chimiques), mais de contrôler l’état de la qualité des eaux sur la base d’une batterie d’indicateurs biologiques. La mise en œuvre est complexe à plus d’un titre :

* Choix de l’indicateur : est-il pertinent ou non ?
* Connaissance de l’état de référence : ceci est nécessaire si l’on veut mesurer un écart à cette référence
* Détermination d’un indice quantitatif permettant de mesurer cet écart à la référence
* Positionnement du curseur pour estimer le seuil au-dessus duquel la masse d’eau est en bon état, et au-dessous duquel la masse d’eau va être qualifiée d’état moyen ou de mauvais état.
* Vérifier si cette approche est homogène pour l’ensemble des pays de l’Union européenne.

Ce texte est réellement novateur par rapport aux approches antérieures. En mettant en avant la nécessité d’atteindre un état chimique et un bon état écologique, la DCE exprime une double inquiétude, d’une part celle liée à la présence de substances toxiques dans l’environnement, d’autre part que les écosystèmes sont menacés dans leur fonctionnalité écologique. Le milieu naturel n’est plus considéré comme uniquement un milieu d’usage, mais aussi comme un milieu naturel qu’il faut protéger dans sa fonctionnalité même.

Concrètement, la mise en œuvre d’un tel dispositif complexe s’est fait en marchant. Il a fallu s’entourer de compétences du monde de la recherche (Universités, Muséum d’histoire naturelle, Cnrs) ou de centres spécialisés comme le Ceva de Pleubian. Pratiquement, la mise en œuvre de la DCE en milieu marin s’appuie sur les réseaux existants, le REPHY pour le phytoplancton, le REBENT pour les peuplements benthiques.

Cinquième étape : il faut protéger la fonctionnalité écologique des mers, non seulement à la côte, mais aussi au large.

Cette cinquième étape intervient en juillet 2008 avec l’adoption d’une nouvelle Directive cadre stratégie pour le milieu marin. Cette fois, on se détache des milieux aquatiques d’eaux douces pour se situer à l’échelle de l’ensemble des mers européennes (68 000 km de côtes). On change également d’échelle, de la côte, on se dirige vers le large jusqu’aux limites de la zone économique exclusive (ZEE), c’est à dire à 200 milles.

Cette nouvelle directive strictement dédiée au milieu marin, adopte le même concept que celui de la DCE, atteindre le bon état écologique des mers d’ici 2021. Le bon état écologique signifie de prendre en considération toutes les composantes du système et l’homme est une des composantes, agissant sur le système par la pollution ou la prédation sur les stocks de pêche. Nous sommes bien dans cette nouvelle ère qualifiée d’anthropocène où l’on considère que l’homme est partie prenante de l’évolution des écosystèmes marins.

D’autres considérants sont également pris en compte, l’évolution des conditions de référence au vu du changement global, aux effets de l’acidification des eaux liée au surplus du principal gaz à effet de serre, le gaz carbonique piégé dans les océans. La surveillance qui est imposée par cette nouvelle directive européenne s’inscrit totalement dans ce nouveau concept appelé l’approche écosystémique.

4- QUELQUES CONCLUSIONS.

En cinq étapes, en l’espace d’un siècle, on perçoit bien la très forte évolution de la surveillance du milieu marin. Cette évolution est d’une certaine manière l’indice de cette dégradation généralisée de l’environnement. Elle est aussi une réponse à une situation de plus en plus préoccupante.

On est passé d’une surveillance relativement simple, contrôle bactériologique, surveillance des contaminants chimiques à un concept autrement complexe, celui de vouloir surveiller, contrôler la santé des océans à travers des indicateurs biologiques que l’on quantifie par rapport à des conditions dites de référence. De plus, on change d’échelle, la surveillance ne se cantonne plus à la côte, mais elle s’étend au large. Cette nouvelle surveillance est loin d’être consolidée, elle se fait également en marchant.

C’est une surveillance complexe qui fait appel à la recherche, et en même temps elle alimente des questions de recherche. On peut citer deux exemples parmi d’autres : pourquoi l’herbier à zostères du Bassin d’Arcachon, le plus important d’Europe, régresse-t-il ? Comment expliquer les nécroses d’algues subtidales observées dans des lieux propres, en profondeur et non en surface au large des côtes bretonnes ?

Cette surveillance basée sur une approche écosystémique se veut globalisante, intégrant toutes les composantes des écosystèmes marins, elle fait le pari de la complexité. Mais comment aborder cette complexité si des compétences disparaissent. Il y a peu encore, vouloir conserver des compétences en systématique, c’est à dire cette compétence de savoir reconnaître les espèces biologiques, phytoplancton, invertébrés, macro-algues, était perçu comme une position passéiste. Aujourd’hui, il apparaît clairement que de telles compétences doivent être maintenues.

Des innovations technologiques apparaissent également pour permettre par exemple une reconnaissance automatique des espèces du phytoplancton ou une reconnaissance spécifique des espèces toxiques. Mais en changeant d’échelle, quittant la côte pour aller au large, la surveillance fera appel à ce qui est appelé l’océanographie opérationnelle, celle qui utilise les données des satellites, les données numérisées par l’application de modèles. Des développements récents sont prometteurs déjà des bulletins analogues aux bulletins météorologiques sont publiés régulièrement par le site Ifremer de Prévimer.

L’évolution des réseaux de surveillance, tel que j’ai essayé de vous les décrire sur un siècle ne reflète pas à proprement parler un progrès humain, mais apparaissent plus comme une réponse à un mode de civilisation terriblement destructeur de la nature et qui risque d’être funeste à terme. Le propos est certes peu encourageant pour une conclusion. Mais pessimisme ne signifie pas découragement, ni perdre espoir, pour cela gardons en mémoire les mots du poète allemand Höederlin « là où croit le péril, croit aussi ce qui sauve », puisque l’optimisme est affaire de volonté.



Article précédent



 

 


Locations of visitors to this page