Archive for the ‘Risques naturels’ Category

Sous les ponts d’Ispahan coule…plus rien !

11 avril 2018

Vue de la ville d’Ispahan et de la rivière Zayandeh

La ville d’Ispahan, troisième d’Iran par sa population, avec plus de 2 millions d’habitants, fait partie de ces grandes métropoles urbaines qui se sont développées autour d’un cours d’eau, en l’occurrence le Zayandeh Rud, « le fleuve qui donne la vie » en persan. Prenant sa source dans les Monts Zagros, ce cours d’eau, l’un des rares permanents du pays, parcourt plus de 400 km avant de se jeter dans le lac Gavkhuni, un grand lac salé saisonnier perdu dans le désert.

Le madi Farshadi, canal d’irrigation destiné à répartir l’eau du Zayandeh

Située à plus de 1500 m d’altitude sur le plateau iranien aride, la ville est une oasis où la vie n’est possible que grâce au fleuve et aux multiples canaux d’irrigation, les madis, aménagés dès le 17e siècle qui distribuent l’eau à travers toute la ville et ses environs, y compris dans chaque maison organisée traditionnellement autour d’un patio intérieur cultivé et arboré. Avec une pluviométrie moyenne de 130 mm par an alors que l’évapotranspiration potentielle y atteint 1500 mm, aucune culture n’est en effet possible dans un tel contexte climatique sans irrigation.

C’est donc la rivière Zayandeh qui a permis à cette ville de se développer, au moins depuis le 4e siècle de notre ère puisque elle était un des centres urbains de l’empire sassanide avant la conquête musulmane, et de prospérer. C’est Malik Chah, un sultan seldjoukide qui en fait sa capitale après son accession au pouvoir en 1072.

La place meydān-e Naghsh-e Jahān au coeur de la ville d’Ispahan

Mise à sac par les troupes de Tamerlan en 1387, la ville redevient capitale à partir de 1597, à l’instigation de Chah Abbas, fondateur de la dynastie des Safavides, lequel transforme en profondeur la cité, aménageant notamment une grande place de 510 m de longueur, meydān-e Naghsh-e Jahān, une des plus grandes du monde, d’ailleurs classée au patrimoine mondial de l’humanité par l’UNESCO depuis 1979.

C’est de cette époque que date également la construction des grands ponts d’Ispahan, qui sont aujourd’hui au nombre de 11, permettant de franchir la rivière Zayandeh. Le plus ancien d’entre eux est probablement le pont Sharestan, dont les piles datent précisément de cette période sassanide entre le 3e et le 7e siècle après J.-C., mais dont les arches actuelles ont été reconstruites sous la dynastie des Seldjoukides aux alentours du 11e siècle.

Au pied du Si-o-Se Pol, l’un des plus célèbres ponts d’Ispahan, en 2002 (photo © Behrouz Mehri / AFP)

Le Si-o-Seh Pol, ou pont aux trente-trois arches, porte aussi le nom de son commanditaire Allahverdi Khan, un ministre de Chah Abbas, d’origine géorgienne, qui le fit construire vers 1608. Cet ouvrage sert non seulement pour le franchissement du cours d’eau mais a aussi une fonction de seuil, permettant de rehausser le niveau de l’eau à l’amont, pour permettre d’alimenter des prises d’eau qui irriguent les jardins de part et d’autre.

Le pont Khadju à Ispahan (photo © Kelly Cheng Travel Photography /Getty Images)

Comme le précédent, le pont Khadju, édifié cinquante ans plus tard sur les fondations d’un ouvrage préexistant, remplit également ce double office de pont et de barrage et sa structure est comparable, avec deux niveaux superposés, le second étant destiné à la promenade avec une allée centrale pour le passage des chevaux et des charrettes, et des allées latérales voûtées pour les piétons, mais aussi des cafés et des loggias permettant d’admirer le paysage. Pourvu de 23 arches, il présente une longueur totale de 133 m, pour une largeur de 12 m, ce qui en fait un ouvrage d’art remarquable pour cette période.

Ces ponts d’Ispahan, très prisés comme lieux de promenade, constituent un attrait touristique majeur. Sauf que la belle carte postale de l’eau coulant majestueusement entre les arches, formant au passage de joyeuses cascades, relève désormais du passé. Périodiquement asséchée au plus fort de l’été, la rivière Zayandeh a en effet purement et simplement disparu du paysage, ne laissant aux yeux du visiteur ébahi qu’un paysage aride de sable et de gravier ! A se demander même pourquoi l’empire perse a dépensé une telle énergie pour édifier de pareils ouvrages d’art alors que le lit de la rivière se traverse désormais à pied sec quasiment toute l’année…

Le pont Khadju dans son état actuel (source © Le site de Madeleine et Pascal)

La disparition du cours d’eau qui alimente depuis toujours la ville d’Ispahan date du début des années 2000. A l’époque, chacun accusait la sécheresse qui bien sûr n’est pas totalement étrangère au phénomène. Mais la vérité est que l’essentiel de l’eau du Zayandeh Rud est, depuis cette date, détournée en amont vers la région de Yadz qui se trouve être la ville natale de l’ancien président Mohammad Khatami.

Musée antique de l’eau à Yadz

Une ville oasis également, sans doute une des plus anciennes cités du monde puisque fondée aux alentours du troisième millénaire avant J.-C., située dans l’ancien empire des Mèdes, un des foyers de la religion zoroastrienne, puis une étape caravanière sur la Route de la Soie. Le canal qui détourne l’eau du Zarendeh vers cette zone désertique alimente d’ailleurs aussi la ville de Kerman, région natale d’un autre président, Hachemi Rafsandjani, lequel possède des champs de pistache qui en font un des premiers exportateurs du pays et pour lesquels les besoins d’irrigation sont prioritaires.

Cette disparition du fleuve détourné au profit d’autres régions alimente la colère des habitants d’Ispahan et surtout des agriculteurs de la région qui se désespèrent de voir leurs récoltes se dessécher sur pied. Plusieurs émeutes ont ainsi éclaté, les dernières datant de février 2013 selon Le Monde : les habitants du village de Varzaneh ont alors détruit les installations d’eau dans leur village, amenant les prêcheurs publics de la ville à les traiter d’« opportunistes égarés » et à les accuser de « collaboration avec l’ennemi ». La police n’a pas hésité à tirer, blessant trois manifestants avec des balles en caoutchouc, mais les habitants ont du moins obtenu, suite à ces incidents, la reconnaissance, par le procureur du tribunal révolutionnaire d’Ispahan, de la mauvaise gestion de certains anciens responsables du ministère de l’énergie dans la répartition de l’eau.

Manifestation d’agriculteurs devant le pont Khadju au centre d’Ispahan, le 7 avril 2018 (source : France Mojahedin)

De nouvelles émeutes se sont encore produites tout récemment, depuis le 16 février 2018, selon un communiqué du Conseil national de la résistance iranienne, les habitants de plusieurs quartiers périphériques d’Ispahan défilant en scandant « Rohani le menteur, où est notre rivière ? ». Le 18 mars dernier, un camion transportant des munitions a d’ailleurs pris feu alors qu’il venait ravitailler les forces spéciales anti-émeutes de la police à Varzaneh, de nouveau engagées contre les manifestations d’agriculteurs en colère.

Encore un exemple qui prouve à quel point les batailles de l’eau deviennent un enjeu majeur, surtout dans des régions en forte croissance démographique et confrontées à un climat aride pour lequel les effets du réchauffement climatique global ne vont certainement pas arranger les choses…

L.V.  

Publicités

A Bangalore, il y a le feu au lac !

6 avril 2018

La ville de Bangalore, créée au 16ème siècle sur les plateaux du Dekkan, au sud de l’Inde, a longtemps gardé sa réputation de cité-jardin, plutôt verdoyante, baignée par pas moins de 285 lacs qui lui ont toujours fourni de l’eau en abondance. Devenue en 1956 capitale du nouvel État de Karnataka, la ville ne comptait alors que 800 000 habitants. Mais à partir des années 1990, Bangalore est devenu le pôle indien des nouvelles technologies, la Silicon Valley locale, et sa population a littéralement explosé sous l’effet d’un boom démographique peu courant puisqu’elle est passée de 3 millions d’habitants en 1991 à 10 millions actuellement.

Centre d’affaire UB City à Bangalore, mégapole de 10 millions d’habitants

Bien évidemment, cet afflux de population s’est traduit par une urbanisation foudroyante. De nombreux lacs ont été comblés et les espaces naturels bétonnés pour laisser place aux immeubles de bureaux et d’habitation, si bien qu’on ne compte plus que 192 plans d’eau désormais, mais qui sont devenus de véritables cloaques, réceptacles des eaux usées insuffisamment traitées et des déchets de toutes sortes.

A la surface du lac Bellandur, le plus grand de la ville, dont la surface est partiellement masquée par les plantes invasives qui s’y développent, et sur les canaux qui l’alimente, flotte régulièrement une espèce de mousse blanchâtre, issue d’un mélange entre les eaux usées qui se déversent directement dans le milieu naturel, et des produits toxiques provenant des usines chimiques proches de la ville. Lorsque le vent se lève, cette mousse se désagrège et vient retomber sur les habitants de Bangalore, comme une neige toxique qui irrite la peau et les bronches des plus fragiles.

Piétons sur un pont traversant le chenal d’entrée du Lac Bellandur recouvert de mousse en 2015 (photo © Manjunath Kiran/AFP/Getty Images)

Les autorités ont bien essayé de se prémunir de ce phénomène en posant des filets destinés à empêcher les envols de mousse, et en arrosant périodiquement la surface des eaux polluées pour disperser la mousse toxique, mais l’effet de ces mesures reste limité.

Le 19 janvier dernier, alors que la température ambiante dépassait allègrement les 30 °C, cette mousse a purement et simplement pris feu, dégageant une épaisse fumée blanche peu rassurante qui se répand au milieu des immeubles d’habitation tout proches. Les pompiers ont mis plusieurs heures pour éteindre cet incendie inhabituel se propageant à la surface du lac.

Incendie à la surface du lac Bellandur près de Bangalore, le 16 février 2017 (photo © Aaditya Sood / The Gardian)

Et cet incendie n’est que le quatrième en trois ans ! Un article très documenté publié dans The Guardian en mars 2017 rapporte en effet qu’un phénomène similaire s’était déjà produit le 16 février 2017, toujours sur le même lac Bellandur, les pompiers ayant alors mis plus de 12 heures pour en venir à bout. Ce même article rapporte qu’un autre incendie du même type avait aussi été observé en mai 2015.

D’après certains chercheurs qui observent depuis plus de 20 ans l’évolution des lacs Bellandur et Varthur, ce sont de l’ordre de 400 à 600 millions de litres d’eaux usées non traitées qui se déversent chaque jour dans ces lacs, entretenant un milieu particulièrement enrichi en matière organique. La surface des lacs étant recouverte par une épaisse couche de jacinthes d’eau qui empêche l’oxygénation des eaux, du méthane se développe dans les couches superficielles du lac, ce qui explique l’inflammabilité de ce dernier, le feu étant ensuite alimenté par la présence de pétrole et de phosphore flottant sur l’eau au milieu des nombreux déchets.

Poissons morts à la surface d’un lac de Bangalore en mars 2016 (source © L’Express)

De tels incendies à la surface de lacs lourdement pollués étaient d’ailleurs monnaie courante dans les années 1960 aux États-Unis, comme le rappelle Yann Quero sur son blog. Ce phénomène avait notamment été observé à plusieurs reprises à Cleveland (Ohio) dans la rivière Cuyahoga qui traverse la ville avant de se jeter dans le lac Érié. Dans ce cours d’eau, la concentration en produits chimiques a provoqué au moins une douzaine d’incendies et d’explosions, les plus graves ayant eu lieu en 1952 et en 1969.

A l’époque, cela avait amené les Américains à mettre en place, dans les années 1970, des normes plus sévères destinées à limiter la pollution des milieux aquatiques. Mais c’est aussi un des facteurs qui a poussé les Américains comme d’ailleurs les Européens à délocaliser leurs industries polluantes et dangereuses vers les pays du Sud, notamment en Inde et en Chine, qui ont connu à leur tour le spectacle pittoresque de la neige en été et des lacs qui prennent feu spontanément…

A Bangalore, cette pollution des eaux est d’autant plus inquiétante qu’elle concerne désormais non seulement les eaux superficielles où l’on ne compte plus les mortalités piscicoles, mais aussi les nappes souterraines dans lesquelles la ville s’approvisionne en eau potable. Science et Avenir relevait ainsi en mars dernier que près de la moitié de l’agglomération doit désormais être approvisionnée par des milliers de camions citernes qui transportent de l’eau pour les besoins quotidiens de la ville.

Camions citernes fournissant de l’eau à des logements de Bangalore, le 27 février 2018 (photo © Manjunath Kiran / AFP)

Il y a un mois, la Cour suprême a même dû intervenir pour arbitrer un accord de partage des eaux de la rivière Cauvery entre le Karnataka, région de Bangalore, et l’État voisin du Tamil Nadu. Ce cours d’eau qui traverse le Karnataka puis le Tamil Nadu avant de s’écouler dans le golfe du Bengale est en effet un enjeu majeur, âprement disputé entre les besoins de la ville de Bangalore et ceux des agriculteurs voisins. Il y a deux ans, une décision judiciaire ordonnant au Karnataka de lâcher de l’eau pour pallier une sécheresse qui menaçait les cultures du TamilNadu avait déclenché des émeutes mortelles à Bangalore et provoqué une situation de troubles quasi insurrectionnels.

C’est dire à quel point la bataille de l’eau a déjà commencé à cet endroit comme en de nombreux autres points du globe… La ville de Bangalore, dont la survie à moyen terme est désormais menacée du fait de ces difficultés d’approvisionnement en eau, n’est assurément pas la seule agglomération menacée ainsi de pénurie. Reste à savoir si ses habitants arriveront à réagir et à reconstituer des milieux aquatiques plus sains avant qu’il ne soit trop tard…

L.V. 

Pesticides dans les cours d’eau : France Nature Environnement s’alarme !

23 mars 2018

Epandage de pesticides en bord de cours d’eau (photo © Maxppp / France Bleu)

Le sujet n’est pas récent puisqu’un rapport officiel publié en novembre 2015 par le Commissariat général au développement durable, une instance du Ministère de l’écologie, l’analysait dans les détails, affirmant qu’au vu des suivis de qualité de l’eau effectués en 2013 dans nos rivières et nos plans d’eau (du moins là où il y a des points de mesure…), la quasi totalité des milieux aquatiques français est polluée par la présence de pesticides que l’on retrouve dans 92 % des points de mesure. Seuls les zones montagneuses et quelques rares secteurs encore épargnés par l’agriculture intensive en sont exempts.

Il faut bien reconnaître que la France fait toujours partie du peloton de tête des plus gros consommateurs de pesticides, ces substances chimiques destinées à lutter contre les organismes jugés nuisibles, qu’il s’agisse de plantes adventices (herbicides), d’insectes (insecticides), de champignons (fongicides), de vers (nématicides), de rongeurs (rodenticides) et on en oublie, utilisés à 90 % (voire davantage) par l’agriculture, surtout depuis que l’usage de ces produits est en voie de prohibition tant pour les particuliers que pour les collectivités.

Concentrations moyennes en pesticides dans les cours d’eau par bassin versant en 2014 (source : Observatoire national de la biodiversité)

Depuis 1999, la surveillance de la qualité de l’eau dans la nature n’a cessé de se développer et on disposait ainsi en 2014, selon le Ministère de l’écologie, de 3052 points de mesures de la qualité dans les eaux de surface (rivières, fleuves et lacs) et de 2121 points de suivi dans les eaux souterraines (nappes). Vu leur coût très élevé pour la collectivité, le nombre de ces analyses (qui portent aussi sur de très nombreux autres paramètres dégradant, dont les nitrates) est malheureusement assez limité, généralement 8 par an dans les cours d’eau et 4 par an seulement dans les nappes.

La tâche est en effet considérable car il s’agit de rechercher les traces de près de 700 principes actifs de pesticides (ainsi que les produits issus de leur dégradation dans le milieu naturel, qui donne parfois naissance à des substances encore plus redoutables pour le milieu naturel et souvent stables à long terme, des décennies après que le produit commercialisé ait été interdit à la vente). Cette variété de principes actifs à identifier et analyser ne cesse d’ailleurs d’augmenter, fruit d’une stratégie délibérée de l’industrie agro-chimique de mettre sans cesse sur le marché de nouveaux produits pour avoir toujours un coup d’avance sur la réglementation et le contrôle.

Ainsi en 2014 ce sont pas moins de 389 substances différentes provenant de pesticides qui ont été retrouvées sur l’ensemble des points de mesure en eaux de surface, et 265 dans les eaux souterraines, avec en moyenne pas moins de 17 substances différentes identifiées dans chaque station (mais jusqu’à 89 molécules différentes pour certains prélèvements !). Cette année-là, des pesticides ont ainsi été retrouvés, en quantité et en nombre variable selon les endroits, dans 87 % des points de mesure en eau superficielle et dans 73 % des points de suivi en nappe, ce qui en dit long sur la généralisation du phénomène.

Nombre de produits pesticides observés par point de mesure en 2014 (source : Ministère de l’écologie)

Certes, si l’on analyse l’évolution de ces observations depuis 2008, date à laquelle le réseau de suivi a commencé à être suffisamment dense pour se faire une idée globale du sujet, on observe une légère diminution de la proportion de points de mesures contaminés, malgré un nouveau pic très sensible en 2012. Cette évolution résulte sans doute des mesures d’interdiction portant sur certains produits et de l’évolution des pratiques agricoles, mais reste peu significative, d’autant que la consommation de pesticides en France ne cesse d’augmenter malgré toutes les mesures gouvernementales mises en place pour tenter de limiter leur usage.

Dans les eaux de surface, le produit phare, présent dans plus de 38 % des points de suivi est le glyphosate tandis que son produits de décomposition, l’AMPA, est retrouvé dans plus d’un point de suivi sur deux : merci Monsanto ! L’atrazine, interdite depuis 2003 est encore bien présente 11 ans plus tard, avec tout son cortège de produits de décomposition, tant dans les cours d’eau que dans les nappes. Dans ces dernières, on retrouve également de manière significative certains herbicides largement utilisés dans la culture du maïs, et l’on voit même apparaître depuis quelques années, dans nos milieux aquatiques, des résidus des fameux insecticides néonicotinoïdes de plus en plus utilisés.

Et voilà que France Nature Environnement s’empare de nouveau du dossier en lançant une pétition qui exige du gouvernement de revoir sa copie en matière de définition des zones de non traitement, tout en attaquant en parallèle plus de 40 arrêtés départementaux issus de cette évolution de la réglementation. L’affaire n’est pas des plus simples et mérite quelques éclaircissements. Cette notion de zones non traitées (ZNT) a été définie par un arrêté ministériel de septembre 2006 et vise à interdire l’usage de pesticides dans une bande de 20 à 50 m (mais pouvant aller jusqu’à 100 m) en bordure des cours d’eau, afin justement de limiter les risques de contamination par lessivage. La largeur de cette bande peut être réduite à 5 m sous réserve de respecter certaines conditions dont la présence d’une haie ou au moins d’une bande enherbée entre le champ et le milieu aquatique, ainsi que des pratiques d’application adaptées.

Bande enherbée le long d’un cours d’eau (source : Agence française pour la biodiversité)

Initialement, la liste des milieux aquatiques pour lesquels cette distance minimale de sécurité s’applique correspond à tous les cours d’eau, plans d’eau, fossés et points d’eau permanents ou intermittents figurant sur les cartes IGN au 1/25 000, mais elle peut aussi faire l’objet d’un arrêté préfectoral qui permet de prendre en compte les spécificités locales.

Car à l’usage, il n’est pas si évident qu’il n’y paraît de définir ce qu’est un cours d’eau et ce point fait l’objet depuis des années de multiples controverses avec la profession agricole. Le ruisseau qui draine le vallon de Carnoux en est un exemple parmi d’autres. Ce ru peut être considéré comme un oued qui draine toute la vallée, susceptible de faire transiter des débits conséquents en cas de forte pluie, débits qui se déversent directement dans le Merlançon (au rond point du pont des Barles) avant de rejoindre l’Huveaune plus en aval. Le reste du temps, ce cours d’eau est alimenté latéralement par les écoulements d’eaux souterraines qui s’infiltrent dans les coteaux de chaque côté du vallon. Avant l’urbanisation, cet oued était sec une partie de l’année. Depuis, il est alimenté de manière quasi permanente car il reçoit aussi tout ce que les Carnussiens déversent sans réfléchir dans le réseau pluvial : vidange de piscines, pompes d’exhaure, lavage de la voirie et déversements illicites dans les regards en bordure de chaussée, de colorants ou d’huiles usagées

Le ruisseau de Carnoux, un milieu aquatique de piètre qualité… (photo © CPC)

Ce ruisseau intermittent devenu quasiment pérenne est-il un cours d’eau pour autant ? Au vu de sa configuration et de son déversement direct dans le réseau hydrographique naturel en aval, oui. Pour autant, il n’est pas figuré comme tel sur les cartes IGN et le gestionnaire de la voirie départementale a manifestement tendance à le considérer plutôt comme un simple fossé routier largement bétonné, sans que personne ne se préoccupe de la qualité des eaux qui y transitent.

Du coup, les services de l’État se sont lancés depuis juin 2015 dans un vaste travail de cartographie afin de tenter de délimiter quels sont les cours d’eau, démarche qui a fait l’objet de discussions serrées avec nombre de gestionnaires et d’usagers dont la profession agricole. L’enjeu consistait, pour les agriculteurs notamment, à refuser le statut de cours d’eau au maximum possible d’axes d’écoulements, afin de ne pas être soumis à la loi sur l’eau qui réglemente les interventions dans les cours d’eau (enlèvement de sédiments, coupe de la végétation, remodelage de berge, etc.).

Ce travail n’était pas supposé avoir d’impact sur les zones de traitement phytosanitaire. Mais les services préfectoraux se sont engagés, suite à la parution d’un arrêté ministériel de mai 2017 qui modifie légèrement celui de 2006, dans l’élaboration de cartes permettant de définir les points d’eau à proximité desquels doivent être mises en œuvre les ZNT.

Carte des cours d’eau identifiés comme tels par la Police de l’Eau dans le département du Gard (en bleu). Les tronçons en rouge ne sont plus considérés comme des cours d’eau et les zones en violet ont un statut encore indéterminé, sujet à discussion (source : Ministère de l’écologie)

Et, surprise, ces cartes élaborées en lien étroit avec la profession agricole en parallèle de la cartographie des cours d’eau, aboutissent à réduire de manière très significative les tronçons du réseau hydrographique soumis à réglementation pour l’épandage de pesticides. Dans le Tarn-et-Garonne par exemple, c’est 30 % du réseau qui n’est ainsi plus soumis au principe des zones non traitées et même 43 % en Indre-et-Loire. Cette situation est d’autant plus ubuesque que les cartes ne sont pas cohérentes d’un département à l’autre, certains tronçons de cours d’eau étant protégés uniquement jusqu’à la frontière du département limitrophe, sans réelle cohérence puisque les écoulements se poursuivent bien sans se préocuper des limites administratives… La protection de l’eau, pourtant considéré en France comme faisant partie du « patrimoine commun de la Nation » est décidément un combat de tous les instants !

L.V. 

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Inondations : on a trouvé les coupables !

3 février 2018

Une nouvelle fois, la France vient de connaître une vague d’inondations spectaculaires. A Paris, le niveau de la Seine est monté la semaine dernière à 5,85 m et aurait selon toute vraisemblance dépassé les 6,40 m sans l’action des quatre lacs-réservoirs situés en amont du Bassin parisien. A un tel niveau, certes très inférieur à celui observé en janvier 1910, mais qui n’avait pas été atteint depuis 1955, les dégâts sur les réseaux et infrastructures auraient pu être considérables, en particulier sur le réseau de transports et notamment le RER C qui commence à être sérieusement menacé au-delà de 6,20 m.

Les bords de Seine à Paris le 22 janvier 2018 (photo © Stéphane de Sakutin / AFP)

Et comme toujours dans ces cas-là, on cherche les coupables… Ainsi que lors de chaque épisode de ce type, les rumeurs les plus absurdes courent, alimentées par la certitude, aussi irrationnelle que récurrente, selon laquelle : « ils nous ont inondés pour protéger Paris » (ou tout autre ville d’ailleurs, selon l’endroit où l’on se place…). Il est toujours difficile d’admettre que l’on a été inondé parce qu’il a beaucoup plu et que l’on est situé en zone inondable, dans le lit majeur d’un cours d’eau…

Et ceci malgré tous les dispositifs de protection contre les inondations qui ont pu être mis en place et qui ont souvent joué un rôle atténuateur très bénéfique comme cela a été le cas en janvier 2018 avec les lacs-réservoirs qui ont dérivé et stocké en amont du bassin versant des centaines de millions de mètres cube d’eau, réduisant d’autant les débits en aval.

Alors, puisque l’on a vraiment besoin de trouver un bouc émissaire, ne cherchez-plus. L’explication à ces inondations, exceptionnelles par leur ampleur et leur durée, est parfaitement claire sur la photo suivante, prise le 31 janvier 2018 sur la commune de Montesson, dans les Yvelines, et garantie sans trucage : c’est simplement un étourdi qui a oublié de fermer le robinet…

A Montesson, le 31 janvier 2018 (photo © Frédéric Gache / EPTB Seine Grands Lacs)

Et pour les Parisiens qui ont une dent contre la politique menée depuis des années par la Ville de Paris en faveur de la réduction de la voiture en ville et de la réappropriation des voies sur berges par les piétons, voici une seconde explication, tout aussi recevable…

Dessin de Lacombe publié dans Marianne le 2 février 2018

Lorsque les forces de la nature dépassent l’entendement, il est toujours rassurant de se raccrocher à des explications simples et pleines de bon sens !

L.V.  

USA : le sapin de Noël détrôné par le cannabis

10 janvier 2018

Voilà une nouvelle qui a fait le buzz juste avant les fêtes de Noël mais dont on ne se lasse pas tant elle est emblématique des circuits de la mondialisation ! Cette année, les producteurs canadiens de sapins de Noël se frottent les mains, eux qui exportent plus de la moitié de leurs sapins vers les États-Unis voisins. Leurs ventes vers les USA ont en effet connu un bond en avant spectaculaire : + 40 % par rapport à 2015 ! Cette année, selon le Journal du Québec, ce sont près de 1,5 million de conifères qui ont ainsi été exportés vers les USA, soit un marché de plus de 35 millions de dollars. Pour le Canada, c’est Noël avant l’heure…

La raison de ce succès commercial inespéré ne réside pas dans un engouement inhabituel des Américains pour une tradition festive ancrée de longue date dans les mœurs locales, mais traduit simplement une pénurie de sapins dans les États américains traditionnellement producteurs. Comme souvent, plusieurs facteurs viennent expliquer cette pénurie.

Plantation de sapin dans l’Oregon (source RFI ; photo © UIG via Getty Images)

La sécheresse qui a sévi dans l’État de Washington mais aussi les incendies qui ont ravagé la Californie à plusieurs reprises cette année ont quelque peu contribué à cette situation. En octobre dernier, celui qui s’était déclaré dans la région de Santa Rosa, détruisant près de 6000 bâtiments et causant la mort de 42 personnes, avait en effet réduit en cendres pas moins de 864 km2 de zones résidentielles et de forêts, dont quelques pépinières.

Mais c’est un autre phénomène, de nature plus prosaïque, qui explique pour l’essentiel cette pénurie de sapins de Noël dans l’Ouest américain. En fait, les producteurs se sont tout simplement tournés vers une activité nettement plus lucrative, à savoir la culture du cannabis. Ainsi, dans l’Oregon, petit État de 4 millions d’habitants qui fut longtemps l’un des grands producteurs de sapins de Noël mais où la production de marijuana est en train de prendre de l’ampleur, la production de sapins ne cesse de chuter : de 6,4 millions de plants en 2013, elle devrait passer sous les 5 millions cette année. Le nombre de producteurs aurait, selon le département de l’agriculture de l’Oregon, diminué de 30 % entre 2010 et 2015.

Plantation de cannabis aux USA (crédit photo © The Lane Report)

Aux États-Unis, ce sont les États de Washington et du Colorado qui ont adopté les premiers, dès novembre 2012, une législation légalisant l’usage récréatif du cannabis. Depuis le 1er janvier 2014, un utilisateur de cannabis du Colorado est ainsi autorisé à cultiver librement pour ses propres besoins. Depuis le mois de juin de la même année, il en est de même dans l’État de Washington où des producteurs de marijuana sont désormais habilités à cultiver à titre commercial. L’Alaska leur a emboîté le pas à partir de novembre 2014. En Oregon, la consommation à usage récréatif est devenue licite en juillet 2015 mais il a fallu attendre début 2016 pour que soient autorisées les premières plantations.

Depuis, le mouvement s’est accéléré. A partir du 1er janvier 2018, la Californie est ainsi devenue le huitième État américain à légaliser le cannabis à usage récréatif alors que son utilisation à but thérapeutique y est déjà licite depuis 1996, comme désormais dans une vingtaine d’autres États américains. La décision y avait été prise par référendum, en novembre 2016 : en même temps que les Américains choisissaient en la personne de Donald Trump leur 45ème président fédéral, les habitants de la Californie, mais aussi leurs voisins du Nevada ainsi que ceux du Maine et du Massachusetts, sur la côte Est des États-Unis, décidaient de rendre légale la consommation de cannabis. La cohérence entre ces deux décisions prises simultanément confirme, s’il en était besoin, que dans une démocratie les avis peuvent être multiples…

Carte de la situation selon les États américains (infographie © Le Figaro)

Toujours est-il que les enjeux économiques d’une telle décision ne sont pas anodins et risquent d’avoir des répercussions au-delà du seul marché des sapins de Noël canadiens… Ainsi, dans le Colorado où la marijuana est en vente légale depuis 2014, on considère que le marché du cannabis a créé 18 000 emplois à temps plein en trois ans, ce qui n’est pas si mal pour un État peuplé de 5 millions d’habitants. L’afflux touristique s’est considérablement accru et surtout les rentrées fiscales ont été telles qu’il a fallu reverser aux contribuables le trop-perçu. En effet, la constitution du Colorado fixe un plafond aux contributions fiscales de chaque citoyen. L’État ayant décidé de taxer à hauteur de 30 % les ventes de cannabis s’est ainsi retrouvé à la tête d’un pactole inattendu de 50 millions de dollars supplémentaires, soit 30 de trop par rapport au plafond autorisé par la constitution, si bien que chaque habitant s’est vu crédité d’un chèque de 7,63 $…

Projection des ventes de cannabis à usage récréatif et thérapeutique d’ici 2021 (source © Arcview market research)

En 2016, selon une étude du Arcview market research, les Américains auraient ainsi dépensé de l’ordre de 6,7 milliards de dollars pour l’achat de cannabis légal, soit une augmentation de 34 % depuis 2015. Et le mouvement ne fait sans doute que commencer puisque les projections estiment que ce marché devrait atteindre de l’ordre de 22 milliards d’ici 2021, la plus forte croissance étant liée à l’usage récréatif du cannabis, dont le marché pourrait passer de 1,9 milliards en 2016 à près de 15 milliards d’ici 2021.

Le principal bénéficiaire de cette croissance juteuse en sera probablement la Californie qui devrait s’adjuger une part importante de ce marché en pleine expansion. Les producteurs de cannabis y seront taxés à hauteur de 15 % et les ventes à hauteur de 10 %, auxquels s’ajouteront des taxes communales variant entre 2 et 10 %, soit de belles rentrées fiscales supplémentaires en perspectives. De quoi peut-être donner des idées à notre gouvernement dans sa volonté de réduire le déficit de l’État sans forcément trop rogner sur les dépenses publiques ?

L.V.  

Le déluge : mythe ou réalité ?

11 décembre 2017

Chacun a en mémoire le fameux récit biblique du déluge dans lequel il est écrit en substance que Dieu, mécontent de la conduite des hommes, déclencha une formidable inondation qui dura 40 jours et 40 nuits, et noya toute trace de vie sur terre à l’exception du brave Noé et de toute sa famille. Celui-ci avait été chargé de construire une solide arche, aux planches soigneusement calfatées de goudron et dans laquelle il avait mis à l’abri un couple de chacune des espèces animales, ce qui lui permit finalement de repartir sur de nouvelles bases, une fois l’inondation achevée et l’arche échouée.

L’arche de Noé sur le Mont Ararat (tableau de Simon de Myle, peint vers 1570)

Ce récit fondateur qui marque les esprits a longtemps servi de fil conducteur, y compris aux yeux de certains scientifiques qui s’appuyaient sur lui pour expliquer la présence de nombreux coquillages fossiles retrouvés jusque sur les sommets des montagnes alpines. On sait désormais, grâce à la compréhension des mouvements tectoniques et à une meilleure connaissance de la datation des couches sédimentaires, qu’il n’est nul besoin de faire appel à ce récit biblique pour expliquer de telles observations.

Onzième tablette racontant l’épopée de Gilgamesh et le récit du déluge (source © British Museum)

Et pourtant, paradoxalement, les connaissances historiques et géologiques récentes donnent du crédit à ce récit de l’Ancien Testament. L’affaire ne date pas d’hier puisque c’est en 1872 que George Smith, un des premiers à découvrir et à traduire les tablettes d’argile recouvertes d’écritures cunéiformes de Mésopotamie, gravées il y a plus de deux mille ans avant J.-C., a fait connaître au monde entier l’épopée de Gilgamesh.

Dans cette histoire, dont on a désormais retrouvé de nombreuses versions, les plus anciennes remontant à l’époque sumérienne, au 3ème millénaire avant J.-C., le héros Gilgamesh rencontre le supersage Atrahasis qui lui raconte que jadis les dieux en colère, lassés du vacarme incessant des humains, avaient décidé de s’en débarrasser en inondant la terre. Mais le dieu des eaux souterraines, un certain Ea, les trahit, avertit son ami Atrahasis du danger, et lui enjoint de fabriquer sans attendre un solide bateau aux planches calfatées de bitume, et d’y faire entrer un specimen de chaque espèce animale (d’autres versions, plus futuristes, évoquent plutôt « la semence de toutes les créatures vivantes »).

Les tablettes d’argile relatent une inondation plus courte (7 jours seulement) mais l’épilogue, qui consiste à lâcher une colombe pour vérifier si elle aperçoit signe de terre rappelle furieusement l’idée de Noé, même s’il fallut, dans la version sumérienne, doubler la tentative avec le lâcher d’une hirondelle puis d’un corbeau…

Le déluge, frontispice de la bible illustrée par Gustave Doré (1866)

Bref, les nombreuses similitudes entre ces récits indiquent avec une quasi certitude que l’histoire de Noé, probablement écrite vers le VIIe siècle avant J.-C., soit plusieurs millénaires sans doute après les premières versions assyriennes, fixée sur les rouleaux manuscrits de la Mer Morte puis recopiée de génération en génération, s’est très vraisemblablement inspiré du précédent, d’autant que le peuple juif a été longtemps placé sous domination assyrienne.

De nombreux chercheurs ont cherché d’autres filiations de ce type, tant les récits fondateurs qui évoquent des inondations cataclysmiques du même type se retrouvent dans le monde entier, en Inde comme parmi certaines civilisations amérindiennes, et même chez les aborigènes d’Australie où il se raconte l’histoire d’une grenouille qui aurait bu toute l’eau de la Terre, au point que les autres animaux assoiffés n’ont eu d’autre choix que de la faire rire, provoquant de la sorte une formidable inondation…

Certains de ces récits retiennent néanmoins l’attention, dont celui retracé dans les écrits mythologiques du pseudo Apollodore, datés du 1er siècle et qui évoquent un déluge qui aurait mis fin à l’âge du bronze, les seuls survivants étant le fils de Prométhée, un certain Deucalion et son épouse Pyrrha, dont la barque s’échoue sur le sommet des montagnes. Là aussi, les convergences avec le récit biblique sont étonnantes, ce qui tend à affermir l’idée d’une inondation exceptionnelle survenue en des temps très reculés dans cette région et dont la mémoire collective se serait transmise de génération en génération.

Les Américains William Ryan et Walter Pitman, auteurs en 1998 de l’ouvrage Noah’s Flood

Curieusement, plusieurs scientifiques pensent désormais disposer d’hypothèses assez solides qui pourraient expliquer l’origine de tels événements. En 1993, une expédition géologique américano-russe a ainsi en évidence, en analysant des sédiments déposés au fond de la Mer Noire, des indices montrant un passage assez brutal d’eau douce à de l’eau salée. Selon leurs observations, au cours de la dernière glaciation, celle du Würm, qui s’est étalé de -110 000 à -10 000 ans environ, la Mer Noire s’est retrouvée totalement déconnectée de la Méditerranée. Du fait de la glaciation, le niveau des océans avait baissé de plus de 130 m et les détroits du Bosphore et des Dardanelles étaient alors émergés.

Avec le réchauffement progressif, la fonte des glaces sur les plaines ukrainiennes a alimenté en eau la vaste dépression de la Mer Noire qui se transforma en un lac d’eau douce, toujours isolé de la Méditerranée et autour duquel se sont installées de nombreuses populations. Vers 7500 avant J.-C., la brutale remontée du niveau de la Méditerranée se serait traduite par un déversement brutal des eaux de cette dernière dans la Mer Noire dont le niveau se situe 200 m plus bas, provoquant la fuite des populations vers le Mont Ararat, seul point culminant situé à 300 km du rivage mais visible de très loin.

La Mer Noire (source © Google Earth)

Le géologue américain Robert Ballard

En 1999 et 2000, le géologue Robert Ballard, celui-là même qui retrouva l’épave du Titanic, avait également entrepris des investigations dans ce secteur et retrouvé des traces de l’ancien rivage côtier de la Mer Noire avec des vestiges d’érosion qu’il attribue à des flots se déversant sous forme de cataractes depuis la Méditerranée. Autant d’éléments qui accréditeraient cette hypothèse d’une inondation brutale et rapide des riveges de la Mer Noire, provoquant chez les survivants un traumatisme de nature à se transcrire de génération en génération sur un temps long. De nombreux chercheurs attribuent d’ailleurs cette ouverture brutale du détroit du Bosphore à un mouvement sismique de l’extrémité de la faille nord-anatolienne, ce qui aurait en effet pu provoquer un déversement cataclysmique des eaux de la Méditerranée dont le niveau était fortement remonté sous l’effet du réchauffement climatique.

Le chercheur français Guillaume Soulet, auteur d’une thèse intitulée Changements hydrologiques de la mer Noire au cours des 30 derniers millénaires et la dernière déglaciation en Europe centrale, sous la direction d’Edouard Bard et Gilles Lericolais

L’équipe d’Edouard Bard basée au CEREGE s’est également intéressée de près à ce sujet et a montré que la réalité était sans doute beaucoup plus complexe que ne l’avaient imaginé en 1997 les Américains Bill Ryan et Walt Pitman, dont l’ouvrage paru en 1998 sous le nom de Noah’s Flood avait eu alors une énorme retentissement. D’après Guillaume Soulet, qui a soutenu en 2011 une thèse sur le sujet, la connexion de la Mer Noire via le Bosphore est plus ancienne et daterait plutôt de 8 300 avant J.-C. Et il s’agirait plus vraisemblablement d’un phénomène se produisant par a-coups, suite à des épisodes de réchauffement successifs, étalés sur de longues périodes, ce qui laisse penser que les mouvements de population des rives de la Mer Noire vers les plaines plus fertiles de la Mésopotamie, survenus vers 7500 avant J.-C., pourraient avoir été induites au moins davantage par une évolution démographique inéluctable que par un phénomène d’inondation brutale.

Un scénario qui demande sans doute à être confirmé et vraisemblablement affiné mais qui laisse songeur quand à ce qui peut nous attendre du fait du réchauffement climatique actuellement à l’oeuvre et qui lui est d’une rapidité jamais rencontrée dans l’histoire de la Terre. Quand on sait que la fin de cette glaciation, qui s’est traduite par une élévation du niveau des mers d’environ 130 m, ne résulte finalement que d’une augmentation moyenne de 4 °C de la température du globe, soit une valeur tout à fait comparable à ce que prédisent les scénarios du GIEC pour les décennies à venir, voila qui ne devrait pas manquer de nous inquiéter…

L.V.  

Les inondations irriguent aussi la photographie

9 décembre 2017

Certains sujets semblent davantage que d’autres inspirer les artistes, à moins qu’il ne s’agisse d’effets de mode. Les peintres d’antan se délectaient de natures mortes et de batailles navales. Les photographes d’aujourd’hui s’inspirent beaucoup des inondations, certes devenues de plus en plus spectaculaires à force de construire toujours davantage en zone inondable…

Nous avions déjà cité ici le travail remarquable de Jérôme Knez qui avait eu l’idée de juxtaposer à des photos d’archives de la grande crue parisienne de janvier 1910 d’autres clichés pris exactement au même endroit pendant l’inondation de juin 2016. Il faut croire que ce dernier événement a frappé les imaginations. Bien que modeste par son impact sur Paris, il avait quand même occasionné pour environ 1,4 milliards d’euros de dommages selon les assureurs si on totalise l’ensemble des dégâts observés durant toute la durée de cet événement météorologique, plutôt rare pour la saison et qui s’était traduit sur certains cours d’eau dont le Loing par une crue au moins centennale. Un tel montant en fait d’ailleurs l’inondation la plus coûteuse depuis 35 ans qu’existe le dispositif d’indemnisation des catastrophes naturelles en France !

Le Grand Palais et le pont Alexandre III (photo © Benoît Lapray)

En tout cas, cet événement a inspiré d’autres artistes dont Benoit Lapray qui s’était déjà fait connaître notamment pour ces photos de superhéros « en quête d’absolu ». La série d’images intitulées « when te night falls » et qui est notamment consultable dans le magazine The Photo Academy, est constituée également de doublons de clichés, pris exactement au même endroit et selon un cadrage rigoureusement identique.

Les immeubles du quai André Citroën dans le 15e arrondissement (photo © Benoît Lapray)

Mais pour chacun des sites, les deux images sont le jour et la nuit. Tous les clichés nocturnes ont été pris de nuit, au plus fort de la crue de juin 2016. Quant à leurs équivalents diurnes, ils ont été pris sous un soleil radieux, un an plus tard, alors que la crue de 2016 n’était plus qu’un lointain souvenir.

Quai de la Rapée (photo © Benoît Lapray)

Du coup, le contraste est saisissant entre les clichés pris à la lueur des réverbères en juin 2016 alors que l’eau noire de la Seine submergeait les voies sur berges et venait lécher le tablier de certains ponts, et ceux pris en plein jour un an plus tard et pour lesquels on a bien du mal à imaginer que les promenades verdoyantes et les jardins publics en bordure de Seine puissent être recouverts par 1 m d’eau voire bien davantage.

Au pied du pont Alexandre III (photo © Benoît Lapray)

Une série de clichés en tout cas très pédagogique et qui incite les Parisiens à conserver en tête cette idée que le coeur de la capitale et notamment certains quartiers en bord de Seine sont particulièrement vulnérables en cas de crue majeur du fleuve qui les traverse.

Et ce photographe n’est pas le seul à mettre ainsi en scène l’impact des inondations sur notre quotidien. Citons aussi son collègue sud-africain Gideon Mendel dont les clichés ont fait le tour du monde et ont été repris par de très nombreux médias. Depuis 2007, cet artiste a sillonné le monde, de la Caroline du Sud au Pakistan, en passant par le Brésil, l’Allemagne ou le Nigéria, pour témoigner visuellement de la manière dont les habitants sont impactés dans leur intimité par des inondations.

Un cliché de la série Portraits submergés (photo © Gideon Mendel)

Il en a tiré quatre séries rassemblées sous le titre accrocheur « Un monde qui se noie » et qui ont été notamment exposées aux Rencontres d’Arles en septembre dernier. La première de ces séries, « Portraits submergés », peut-être la plus spectaculaire, met en scène de simples habitants, souvent des couples, qui posent sur le pas de leur porte ou dans leur salon envahi d’eau boueuse dans laquelle ils disparaissent parfois jusqu’à mi-corps voire jusqu’aux épaules.

Dans une maison inondée du Yorkshire (Royaume-Uni) en 2007 (photo © Gideon Mendel, extraite de la série Portaits submergés)

On lit dans le regard de ces victimes des intempéries un certain fatalisme, mais aussi beaucoup de désarroi et de désespoir devant la perte de leur propre habitat devenu totalement inutilisable du fait de l’eau boueuse qui s’est engouffrée partout. On repense au slogan choc qu’avait mis en avant l’établissement public Loire pour rappeler aux populations riveraines que le risque inondation est toujours présent même si les populations l’ont largement oublié depuis les fortes crues qui s’étaient succédé en 1846, 1856, 1866 et 1907 notamment : « parce que la Loire est mieux dans son lit que dans le vôtre… ».

Maison inondée au Royaume-Uni (photo © Gideon Mendel, extraite de la série Lignes de crue)

Sauf que pour ces victimes d’inondation, l’eau s’est bel et bien répandue dans leur salon et leur chambre à coucher, tranformant à jamais ce qui était leur cadre de vie quotidien en un milieu hostile dans lequel leurs effets personnels sont en train de pourrir lentement. La série de clichés intitulée « Ligne d’eau » insiste justement sur les marques laissées par l’eau dans un décor vide de ses habitants mais tout aussi poignant de désolation.

Photo délavée récupérée dans une maison au Bengladesh (photo © Gideon Mendel, extraite de la série Trace d’eau)

Quant à la série dénommée « Traces d’eau », le photographe Gideon Mendel montre des agrandissements des photos personnelles définitivement altérées par le séjour prolongé dans l’eau boueuse et que leurs propriétaires ont soigneusement repêchées pour tenter de conserver un peu des souvenirs de leur vie, gâchée à tout jamais par la catastrophe qui les a touchés. On y voit des visages à moitié effacés, révélateurs de la fragilité de tout ce qui fait notre vie quotidienne face à un risque naturel.

Un beau travail esthétique et pédagogique qui mérite d’être salué en espérant qu’il pourra aider certains à prendre conscience qu’il vaut mieux se préparer à toute éventualité quand on vit en zone inondable : le fait d’avoir conscience du risque permet en effet de réduire fortement sa propre vulnérabilité. Une crue n’est jamais qu’un événement naturel récurrent et il dépend largement de notre comportement et de notre niveau d’adaptation qu’il ne se transforme pas en un drame personnel. Une chose est sûre : faire l’autruche en se persuadant que cela n’arrive qu’aux autres n’est certainement pas la meilleure façon de s’y préparer…

L.V.  

Carnoux en noir et blanc…

3 décembre 2017

Il y a un peu plus de trois mois déjà, le 19 août 2017, la zone boisée située entre Aubagne et Carnoux s’embrasait. Il avait fallu alors une mobilisation exceptionnelle des services d’incendie et de secours pour parvenir in extremis à arrêter les flammes le long de l’avenue Jean Bart, sans pouvoir pour autant empêcher que plusieurs haies de thuyas ne se transforment en torches dans les jardins des propriétés les plus exposées. Une fois l’incendie maîtrisé, c’est un spectacle de désolation qui s’étend désormais sur tout le flanc nord de la commune, visible même depuis l’espace, et qui vient rappeler à chacun à quel point la ville est vulnérable face à ce type de risque naturel.

Les chutes de neige survenues hier et qui ont saupoudré quelques centimètres de poudreuse dans les rues de Carnoux ont tranformé en quelques heures ce paysage dévasté, noir et calciné, devenu comme par enchantement d’une blancheur éclatante.

Ce matin, sous le soleil revenu, le spectacle était saisissant de contraste entre le sol recouvert d’un mince manteau neigeux quasi continu et les branches sombres, tordues, comme torturées par l’incendie, qui se dressaient vers le ciel, d’un bleu intense. De quoi rappeler à chacun la triste réalité de ce feu de forêt qui a bien failli réduire la commune à l’état de cendre, comme bien d’autres villes dans le monde exposées elles-aussi à de terribles feux de forêt cet été et qui n’ont pas eu la possibilité d’être protégées.

L.V.  

Il neige sur Carnoux-en-Provence…

2 décembre 2017

C’est l’hiver et il neige. Malgré les effets du réchauffement climatique global, voilà qui n’a rien d’extraordinaire à cette saison. Mais quand même, ce n’est pas tous les jours, ni même tous les ans, que la ville de Carnoux-en-Provence, pas plus d’ailleurs que ses voisines Aubagne, Aix-en-Provence ou encore Marseille se réveillent recouvertes d’un blanc manteau neigeux comme c’est le cas depuis ce matin, samedi 2 décembre.

Notre-Dame d’Afrique sous la neige, le 2 décembre 2017

En ce jour anniversaire de la victoire napoléonienne d’Austerlitz contre les armées russes et autrichiennes, il neige donc depuis ce matin sur les Bouches-du-Rhône entre la région aixoise et l’étang de Berre. Dans le Var voisin, on signalait déjà 15 cm de neige ce matin au lever du jour et 3000 foyers étaient privés d’électricité du fait des ruptures de lignes aériennes.

A Carnoux, la couche de neige ne dépassait pas quelques cm au même moment mais il a continué à neiger toute la matinée et la ville s’est donc parée de ses habits d’hiver, pour quelques heures tout au plus car les chutes de neige devraient s’arrêter en milieu de journée selon les prévisions de Météo France, avec toutefois des risques de verglas possibles dans la nuit.

Quoi qu’il en soit, le spectacle de Carnoux sous la neige, même sans soleil, est suffisamment rare pour ne pas en profiter et jeter un œil par la fenêtre sur les pins saupoudrés de neige…

Un mail inhabituellement déserté dans la traversée de Carnoux

Une circulation devenue momentanément quelque peu périlleuse

Le Centre culturel sous la neige

Devant la médiathèque Albert Camus

Des pins largement saupoudrés de neige

La mairie éventrée, blanchie sous le harnais

Les cèdres devant l’hostellerie de la Crémaillère

Deux ours polaires en train de batifoler dans le parc Tony Garnier…

L.V.  

Ciel d’apocalypse en Bretagne et fournaise portugaise

18 octobre 2017

Le ciel au-dessus des toits de Rennes, lundi 16 octobre après-midi (photo © Marie Dufay / AFP)

Voilà encore de bien étranges manifestations du changement climatique global que l’on peut observer et dont les médias se sont largement fait l’écho. Ce lundi 16 octobre 2017, les Bretons ont eu la surprise d’observer un ciel plombé couleur jaune sépia plongeant leur quotidien dans une lumière crépusculaire et glauque alors que le thermomètre marquait 19 °C à Brest, à 8h du matin, et jusqu’à 25 °C dans la journée, des températures pour le moins inhabituelles à cette période de l’année.

Cette sinistre coloration jaunâtre du ciel, s’accompagnant d’une odeur prononcée de cendre, a plongé plusieurs villes bretonnes dans une ambiance quasi apocalyptique qui a beaucoup fait jaser sur les réseaux sociaux. Cette situation découle directement du flux d’air orienté du sud et correspondant au déplacement de l’ouragan Ophelia. Ces vents qui soufflaient lundi jusqu’à 130 km/h se sont chargés, lors de leur passage sur les côtes nord-africaines, de très nombreuses particules sableuses qu’ils ont charriés à travers toute la péninsule ibérique puis dans leur traversée du Golfe de Gascogne.

Ciel jaune et températures élevées pour la saison en Bretagne heures (photo © David Vincent / AP)

De nombreux records de chaleur ont été battus du fait de cette arrivée d’air subtropical poussé par la tempête Ophelia. On a ainsi relevé plus de 30 °C à Pau ou Mont-de-Marsan et même 31 °C à Vic-en-Bigorre dans les Hautes-Pyrénées. A Calais, le thermomètre a affiché jusqu’à 26 °C, soit 10 °C de plus que les normales saisonnières. A Uccle, près de Bruxelles, la station météo qui date de 1833 n’avait jamais enregistré un tel record de chaleur (25,7 °C) à une période aussi tardive de l’année…

Après la Bretagne, c’est le sud de l’Angleterre qui a été frappé par le même phénomène. Dans l’après-midi du 16 octobre, la ville de Londres elle-même a été plongée dans cette atmosphère irréelle et angoissante occasionnée par un ciel orangé.

En parallèle, la tempête s’est renforcée en poursuivant sa route vers les côtes irlandaises. A la mi-journée, des rafales soufflant à 190 km/h ont été enregistrées à la pointe sud de l’île. De nombreuses toitures se sont envolées et on déplore trois morts, pour la plupart écrasés suite à la chute d’arbres. Le soir, environ 360 000 foyers étaient privés d’électricité. Cette tempête est sans doute une des pires qu’ait connue l’Irlande depuis le passage de l’ouragan Debbie en 1961, qui avait fait 11 victimes.

Passage de l’ouragan Ophelia sur les côtes irlandaises

Mais en Bretagne comme en Angleterre, l’air n’était pas seulement chargé de particules sableuses d’origine saharienne. Il charriait aussi les cendres des gigantesques incendies qui ravagent actuellement le Portugal, attisés par ces vents violents qui balaient les côtes de la péninsule ibérique. Des centaines de départs de feu se sont ainsi déclarés dimanche 15 octobre dans le nord et le centre du Portugal, ainsi que dans la région espagnole voisine de Galice. Certains semblent d’origine criminelle mais la plupart sont liés à l’imprudence, et tous ont été attisés par les vents violents de l’ouragan Ophelia, se propageant rapidement du fait de l’extrême sécheresse de la végétation après des mois de déficit pluviométrique.

A ce jour, on estime à 350 000 hectares au moins la superficie qui est ainsi partie en fumée au Portugal lors de cet épisode, et le bilan humain est particulièrement lourd avec 4 morts en Espagne et 41 au Portugal. Plus de 3000 pompiers ont été mobilisés pour lutter contre les flammes, avec même l’aide de bombardiers d’eau italiens.

Feu de forêt dans la région de Leiria, le 18 juin 2017 (photo © Patricia De Melo Moreira / AFP)

Déjà, en juin dernier, le pays avait été victime d’un gigantesque incendie qui avait provoqué la mort de 64 personnes dans la région de Leiria. Provoqué par la foudre alors que les températures au sol dépassaient les 40 °C, le feu avait progressé à une vitesse phénoménale parmi les forêts de pins et d’eucalyptus, piégeant de nombreux habitants dans leur maison ou sur les routes. Un véritable désastre malgré la mobilisation de 2000 pompiers volontaires.

A côté de ces feux de forêts catastrophiques, l’incendie qui a menacé Carnoux cet été paraît bien anodin même s’il aurait pu avoir lui-aussi des conséquences dramatiques. Et bien d’autres se sont produit récemment à travers le monde. Ainsi, la Californie qui fait l’objet depuis le 8 octobre de violents incendies, les pires peut-être que cette région a connu depuis 1933, même si en septembre 2015 déjà, la Californie avait été ravagée par les flammes, déplorant alors la destruction de plus de 600 bâtiments dont de nombreuses maisons d’habitation.

Maison en flamme dans la région de Napa en Californie le 9 octobre 2017 (photo © AFP)

Depuis le début du mois d’octobre, 22 départs de feu ont été notés et le dernier bilan disponible à ce jour fait état de 86 000 hectares brûlés avec près de 5 000 maisons réduites en cendres. Plus de 600 000 personnes ont dû être évacuées en catastrophe et au moins 41 mort sont à déplorer, ainsi que 88 disparus. Un très lourd bilan donc et des images d’apocalypse là aussi comme le montrent les photos aériennes : des lotissements entiers ont été totalement rayés de la carte suite au passage des flammes.

Fourgon postal distribuant le courrier dans les ruines de Santa Rosa, Californie, le 10 octobre 2017 (capture video © Douglas Thron)

Le photographe Douglas Thron, filmant avec son drone les ruines de la ville de Santa Rosa, dans le nord de la Californie, a néanmoins eu la surprise d’y repérer une activité insolite, celle du fourgon de la Poste venant consciencieusement distribuer le courrier dans les boîtes aux lettres, seules vestiges non calcinés au milieu d’un champ de ruines. Contrairement à la Poste de Carnoux, qui n’est plus que l’ombre d’un service public bien chancelant, la Poste californienne fait preuve d’un niveau de résilience remarquable…

L.V.

Le feu de Carnoux vu de l’espace…

17 septembre 2017

Le 19 août dernier, l’incendie qui a ravagé le versant boisé situé entre Aubagne et Carnoux, menaçant gravement plusieurs maisons situées en limite nord de Carnoux, le long de l’avenue Jean Bart, a laissé de sinistres traces. Plusieurs centaines d’hectares d’espaces boisés et de garrigues sont partis en fumée, laissant un paysage noirci de cendres et d’arbres calcinés qui rappellera pour de longs mois le souvenir de cet événement. Trois semaines plus tard, lorsque les premières grosses pluies de la saison se sont abattues sur Carnoux, la forte odeur de brûlé a brutalement envahi toute la ville, comme un ultime rappel du sinistre qui a bien failli transformer toute la ville en un gigantesque brasier…

Zones brûlées sur les hauteurs de Carnoux (photo prise le 27 août 2017)

Il suffit de se promener sur les hauteurs de Carnoux comme chacun ou presque l’a fait depuis cette date pour observer les ravages du feu. Mais lorsqu’on prend un peu de hauteur, l’effet est d’autant plus saisissant. Un des outils permettant une telle observation est la famille de satellites Sentinel, qui constituent le volet spatial du programme Copernicus initié par l’Union européenne. Le déploiement de cette batterie de satellites européens, commencé il y a maintenant une dizaine d’années, est encore en cours mais plusieurs satellites sont d’ores et déjà opérationnels.

Le premier, Sentinel-1A, avait été lancé de Kourou le 3 avril 2014 et a bien failli exploser en vol avant même de pouvoir déployer ses capteurs, tout ça à cause d’un banal accident de la circulation. Heureusement, les opérateurs de l’agence spatial européenne avaient alors réussi, grâce à un léger coup d’accélérateur bien placé, à éviter de justesse le satellite américain Acrimsat, qui passait malencontreusement par là au mauvais moment. Les routes de l’espace sont plus dangereuses qu’on ne le croit…

Vue du satellite Sentinel 2 (source © ESA/ATG medialab)

Depuis, d’autres satellites ont été déployés : le petit frère, Sentinel-1B, en avril 2016, mais aussi les deux sœurs jumelles Sentinel-2A, lancé le 23 juin 2015 par Véga depuis Kourou et Sentinel-2B, qui vient de s’envoler depuis Baïkonour le 7 mars 2017, propulsé par le lanceur russe Rockot. Ce sont ces deux derniers satellites qui nous intéressent tout particulièrement car ils disposent de 13 bandes spectrales allant du visible au moyen infra-rouge et permettant de prendre des clichés avec une résolution de 10 à 60 m. A eux deux, ils permettent de couvrir la quasi totalité des terres émergées avec des prises de vues espacées de 5 jours seulement, ce qui en fait des mouchards particulièrement efficaces.

Les clichés pris dans l’infra-rouge sont surtout utiles pour analyser l’occupation des sols car cette technique permet notamment de mettre en évidence certaines distinctions qui n’apparaissent pas aussi clairement dans le spectre visible. Elle permet en particulier de détecter des différences de température mais aussi d’humidité des sols, de couvert végétal et bien d’autres éléments très utiles notamment dans l’agriculture et le suivi des catastrophes naturelles.

Vue satellite de l’incendie du 19 août entre Aubagne et Carnoux (7 septembre 2017 – source © Sentinel hub)

Une partie des données issues de ces observations satellitaires étant en libre accès sur l’application Sentinel hub, il est assez aisé de rechercher, via un outil de visualisation ouvert à tous, des images d’archives prises par Sentinel 2. Celle du 7 septembre 2107 ne manque pas d’intérêt puisque prise quelques jours seulement après l’incendie qui est venu lécher la commune de Carnoux. Le cliché est assez spectaculaire car la restitution via l’exploitation de plusieurs canaux infrarouges met parfaitement en évidence les surfaces brûlées. On y décèle clairement le point de départ de l’incendie et sa propagation jusqu’aux portes de Carnoux, ainsi que les coupe-feux qui ont permis aux pompiers d’en stopper la progression.

Les plus curieux (et bien entendu les Varois) seront naturellement enclins à déplacer le curseur vers la droite de la carte, ce qui permet de mettre en évidence les foyers qui se sont déclarés cet été dans le département voisin qui a, cette année, payé un très lourd tribut avec 3 660 hectares de forêts ravagées par le feu en juillet-août 2017.

Vue satellite des deux incendies du 25 juillet et du 2 septembre aux alentours de La Londe-les-Maures, dans le Var (14 septembre 2017 – source © Sentinel hub)

 On y repère notamment les trois plus importants d’entre eux qui ont eu lieu le 24 juillet à la Croix-Valmer (518 ha) et à Artigues (1 704 ha) et le 25 juillet entre La Londe–les-Maures et Bormes-les-Mimosas (1 418 ha), suivi d’un autre qui s’est déclaré le 2 septembre entre Hyères et La Londe (460 ha). On est loin des chiffres de l’année 2003 où près de 19 000 hectares étaient partis en fumée dans le seul département du Var, causant la mort de 3 pompiers et de 4 autres personnes, mais ce nouvel été meurtier vient rappeler, si besoin était, à quel point les espaces méditerranéens sont vulnérables aux feux de forêt.

Vue satellite de l’incendie du 11 août dans le Cap Corse (30 août 2017 – source © Sentinel hub)

Et si l’on prend la peine de se décaler un peu vers le sud-est jusqu’aux rivages corses, la photo satellite met en évidence d’autres zones calcinées, en particulier au droit du cap Corse. Une tâche noirâtre barre entre Pietracorbara et Sisco toute la largeur de ce que certains irrévérencieux ont comparé à un doigt d’honneur tendu vers la métropole : c’est la signature de l’incendie qui s’est déclenché près de Nonza, sur la côte ouest, dans la nuit du 10 au 11 août 2017 et qui a traversé le cap Corse dans toute sa largeur, brûlant au passage plus de 2000 ha de forêts et de maquis, et obligeant à évacuer pas moins d’un millier de personnes.

Un autre incendie est particulièrement visible sur ces images satellite et montre à quel point les habitations situés en lisière de zone boisée peuvent être exposées : il s’agit de celui d’Olmeta-di-Tuda qui a parcouru de l’ordre de 2200 ha entre le 24 et le 29 juillet et a été arrêté in extremis en bordure des lotissements de la zone très urbanisée de Biguglia, au sud de Bastia.

Vue satellite de l’incendie du 24 juillet au sud de Bastia (30 août 2017 – source © Sentinel hub)

De nombreuses autres images tout aussi spectaculaires sont visibles sur ce site, envoyées depuis l’espace par les satellites Sentinel, dont celles des récents cyclones qui ont ravagé les Antilles et le sud des États-Unis, venant opportunément nous rappeler à quel point les aménagements faits par l’Homme sont vulnérables face aux éléments naturels…

L.V.  

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Au Texas, Houston sous les eaux

30 août 2017

Le sud du Texas est en train de connaître une des pires inondations de son histoire récente. En cause, l’ouragan Harvey, né à la mi-août d’une onde tropicale en Afrique de l’Ouest, et dont les météorologues ont suivi l’évolution à travers tout l’Océan atlantique jusqu’aux côtes vénézuéliennes.


L’ouragan Harvey a tout balayé sur son passage dans les zones côtières (photo © Gabe Hernandez / AP)

Arrivé sur le golfe du Mexique, l’ouragan s’est brusquement intensifié au-dessus des eaux chaudes et a abordé la côte texane vendredi 25 août, classé en catégorie 4 avant de se transformer en simple tempête tropicale à partir du samedi après-midi. Depuis, du fait de l’absence de vent en altitude, la tempête Harvey fait quasiment du sur-place et se déplace très lentement vers l’Est tout en se rechargeant en permanence avec les eaux chaudes du Golfe du Mexique tout proche.

Carte de situation publiée dans Le Monde (source NOAA, New York Times), montrant les cumuls de précipitation et la trajectoire de la tempête au 30 août 2017

Le résultat est assez effrayant puisque on comptabilise désormais en 5 jours un cumul de précipitations tout à fait inhabituel qui pourrait atteindre localement, d’ici jeudi, 1270 mm, bien davantage que ce qui peut tomber sur Marseille en une année entière ! La ville littorale de Corpus Christi, qui compte 300 000 habitants, a été une des premières dévastées par l’ouragan Harvey avec des vents soufflant en pointe à 215 km/h, et à partir du dimanche 27 août c’est la ville de Houston, quatrième plus grande ville des Etats-Unis avec 2,3 millions d’habitants, qui a été à son tour noyée sous des trombes d’eau continues.

Maisons d’habitation ravagées par l’ouragan Harvey à Rockport (photo © Mark Ralston / AFP)

De nombreux axes routiers ont été inondés parfois sous plusieurs mètres d’eau et on a vu des habitants attraper à main nue des poissons passant devant leur porte tandis que les épaves de voitures partent à la dérive dans une eau boueuse qui envahit peu à peu toute la ville.

Au moins 10 personnes ont déjà trouvé la mort depuis le déclenchement de ces inondations, dont une personne qui est décédée dans l’incendie de sa maison à Rockport tandis qu’une femme s’est noyée à Houston en sortant de sa voiture dans une zone où la vitesse d’écoulement était rapide. L’état de catastrophe naturelle a été déclaré dès vendredi et la population est invitée à rester confinée chez elle pour limiter les risques de noyades dans des rues totalement submergées par les eaux.

A Corpus Christi comme en plusieurs autres endroits, des consignes d’évacuation volontaires ont été données, tandis que 4500 prisonniers du centre de détention de la ville de Rosharon, au sud de Houston, ont dû être évacués en catastrophe. Au moins 230 000 foyers étaient privés d’électricité dès dimanche et la situation ne fait qu’empirer depuis. Quant aux deux aéroports de Houston dont les pistes étaient sous les eaux, ils ont dû fermer l’un après l’autre.

Autoroute submergée à Houston dimanche 27 août 2017 (photo © Richard Carson / Reuters)

Le niveau de la mer s’est élevé de près de 4 m au plus fort de la tempête, alors même que la côte texane accueille près d’un tiers des capacités de raffinerie de pétrole des Etats-Unis et le Golfe du Mexique 20 % de la production américaine. Au moins 112 plateformes ont été évacuées, représentant environ un quart de la production quotidienne de brut et de gaz, et de nombreuses installations à terre ont fermé. Il est encore trop tôt pour évaluer le coût de cette catastrophe d’autant que la tempête se déplace désormais vers la Louisiane voisine, encore sous le traumatisme du cyclone Katrina qui avait provoqué en 2005 la rupture de plusieurs digues, ravageant des quartiers entiers de La Nouvelle Orléans, provoquant plus de 1800 morts et laissant une ardoise estimée à 118 milliards de dollars. A ce jour, les estimations pour la tempête Harvey font état d’un bilan qui pourrait néanmoins s’élever autour de 42 milliards de dollars, ce qui est tout à fait considérable et s’explique largement par l’importance économique du Texas dont le PIB dépasse celui d’un pays comme le Canada.

Le Bayou Buffalo en crue dans la traversée de Houston (photo © Carole Enarn / Reuters)

Le président Donald Trump ne s’y est d’ailleurs pas trompé. Contrairement à son prédécesseur Georges W. Bush qui avait été accusé d’indifférence en ne se rendant que tardivement à la Nouvelle Orléans où il s’était contenté d’un rapide survol en hélicoptère, le Président s’est rendu dès mardi 29 août sur place, accompagné de son épouse dont les talons aiguilles n’étaient pas des plus adaptés pour une telle visite de terrain…

A Houston, le maire a décrété le couvre-feu dès mardi pour tenter de sauvegarder la ville des risques de pillage car beaucoup d’habitants ont fui pour se mettre à l’abri, et le gouverneur du Texas a fini par mobiliser l’ensemble des 12 000 soldats de la Garde nationale texane. Mardi, 10 000 habitants étaient déjà hébergés dans le Centre des conventions de Houston et le flux de réfugiés continuait à enfler. Les autorités les dirigeaient alors vers d’autres villes de l’intérieur, moins exposées, dont Dallas, située à 400 km de là et dont les 3 centres d’accueil ont été rapidement saturés.

Evacuation de sinistrés à Houston (photo © Texas Military Department)

A Houston, une des plus grosses inquiétudes a trait à l’état de deux vastes réservoirs endigués construits dans les années 1930 à l’ouest de la ville, précisément pour la protéger contre les inondations, et qui approchent depuis mardi de leur niveau de saturation. Dès la création de la ville en 1836, à la confluence entre deux rivières, le bayou Buffalo et le bayou du Chêne blanc, il est apparu en effet que le site était particulièrement vulnérable au risque d’inondation. En un siècle, la ville a connu 16 inondations majeures, avec parfois jusqu’à 12 m d’eau dans les points bas de la ville !

Après la crue de 1935, particulièrement dévastatrice et qui avait fait 7 morts, une structure spécifique a été mise en place pour développer la prévention du risque inondation, ce qui n’empêche pas qu’on dénombre 30 crues importantes depuis, dont celle liée au passage de la tempête tropicale Allison, le 5 juin 2001, qui a causé 22 victimes et endommagé 95 000 véhicules et 73 000 habitations dans cette région texane.

Les deux réservoirs Addicks et Barker, dont l’état inquiète au plus haut point les ingénieurs de l’US Army Corps of Engineers en charge de leur exploitation, ont été mis en service en 1938 et font l’objet d’un programme de confortement entamé en 2014 mais dont l’achèvement n’est prévu qu’en 2019. Ces vastes cuvettes, dont la capacité de stockage cumulée atteint 510 millions de m3, soit près de la moitié du barrage de Serre-Ponçon, sont fermées par des digues en terre dont la hauteur maximale atteint respectivement 34 et 37 m. Ils interceptent plusieurs affluents en amont du bassin versant du Bayou Buffalo qui ensuite traverse toute l’agglomération de Houston. Ces cuvettes, aménagées en parcs urbains et espaces verts récréatifs, ne servent à retenir l’eau qu’en cas de crue, afin de protéger les zones urbanisées en aval.

Zones résidentielles inondées par les lâchers d’eau du réservoir Addicks, mardi 29 août 2017 (photo © David J. Phillip)

Mais les deux vastes réservoirs ont atteint leur cote maximale autorisée de remplissage dès le lundi 28 août au matin. Il a donc fallu alors commencé à délester avant que le niveau de l’eau ne monte trop haut et ne menace la stabilité des digues elles-mêmes. C’est en effet le point faible de ce type d’ouvrage qui, en cas de submersion peut se rompre, provoquant alors une onde qui se propage très rapidement en aval, dévastant tout sur son passage. C’est donc pour éviter ce risque que les autorités ont préféré ouvrir les vannes, inondant de ce fait l’ensemble des quartiers situés en contrebas, et venant rappeler à tous qu’une protection contre les inondations est toujours dimensionnée pour un niveau de crue donné : au-delà, il faut bien que l’eau s’écoule et reprenne son chemin naturel, en l’occurrence la vaste plaine alluviale dans laquelle les hommes ont choisi, peut-être un peu imprudemment, de bâtir une ville de 2,3 millions d’habitants !

Vue aérienne du réservoir d’Addicts lors d’une inondation récente (photo © US Army Corps of Engineers)

L’histoire n’est certes pas terminée et l’heure des comptes n’est pas encore arrivée. Après le passage de Katrina à la Nouvelle-Orléans, ce sont environ 1 million d’habitants qui ont dû faire appel aux services sociaux de l’Agence fédérale de gestion des situations d’urgence et on estime déjà que ce nombre pourrait avoisiner les 450 000 après le passage de la tempête Harvey, de nombreux Américains n’étant pas assurés contre ce type de risque naturel. La seule bonne nouvelle, si l’on peut dire, c’est que les assureurs ne sont pas inquiets puisque leur secteur dégage un bénéfice confortable évalué actuellement à 700 milliards de dollars, de quoi largement voir venir…

L.V. 

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Quand sort la recluse et que se mélangent réalité et fiction…

24 août 2017

Les amateurs de Fred Vargas se sont naturellement tous précipités sur son dernier roman, au titre énigmatique, publié par les éditions Flammarion et intitulé « Quand sort la recluse ». Le commissaire Adamsberg s’y trouve confronté à une histoire bien étrange et dont il est bien entendu hors de question de révéler le moindre indice pour ne pas gâcher par avance le plaisir du lecteur. Qu’il sache cependant que cette notion de « recluse » est à double sens comme souvent dans les romans foisonnants de celle qui fit jadis sa thèse de doctorat en histoire sur la peste au Moyen-Age mais qui fut aussi employée par le CNRS comme spécialiste en archéozoologie.

Fred Vargas (photo © Visual)

On ne sera donc pas étonné qu’il soit notamment question dans cette histoire de ces femmes pénitentes qui se faisaient enfermer autrefois jusqu’à ce que mort s’ensuive dans un reclusoir, minuscule cellule dont l’entrée était définitivement murée et qui survivaient tant bien que mal grâce aux quelques aumônes de nourriture que les passants leur déposaient via la fenestrelle, petit orifice souvent placé très en hauteur et seul lien avec le reste du monde.

Mais l’on y apprend aussi que la recluse est une petite araignée très discrète, qui ne tisse pas de toile, mais se tapit au fond d’une anfractuosité pour y guetter sa proie. On ne l’aperçoit que très rarement, et pourtant tout le roman est bâti autour d’elle et de ses morsures redoutables, susceptibles de provoquer de terribles nécroses.

L’araignée violon Loxosceles rufescens (photo © 2011 Mark Fox)

De son vrai nom Loxosceles rufescens ou araignée violoniste à cause de la forme de son céphalothorax, cette minuscule araignée brune de la famille des Sicariidae et que l’on trouve notamment dans le sud de la France, a été décrite dès 1820. Sa taille ne dépasse guère 1 cm et elle n’est absolument pas agressive pour l’homme mais elle peut néanmoins piquer lorsqu’elle se retrouve malencontreusement prisonnière d’un vêtement, après s’être cachée au fond d’un placard à l’abri de la lumière.

La quantité de venin qu’elle injecte est faible et sa morsure est donc infiniment moins redoutable que celle de sa cousine américaine Loxosceles reclusa, l’authentique recluse, dont la morsure provoque des nécroses cutanées parfois spectaculaires conduisant dans certains cas jusqu’à la mort.

La cousine américaine Loxosceles reclusa

Or régulièrement les médias se font échos de patients atteints par des morsures de ce type dans le sud de la France alors que la présence de la recluse américaine n’est pas attestée sur le territoire national. On trouve ainsi sur internet la trace d’un reportage de France 3, paru en juillet 2015, qui évoque les cas de trois personnes hospitalisées à Nîmes et à Montpellier en quelques mois, trois patientes qui ont dû subir des interventions chirurgicales après avoir développé des nécroses spectaculaires à la cuisse et au bras suite à des morsures attribuées à la fameuse araignée violon Loxosceles rufescens.

Un médecin du Centre anti-poison de Marseille indique d’ailleurs avoir déjà eu connaissance de deux autres cas sévères du même type survenus à Nîmes en 2009 et pense que la toxicité exceptionnelle du venin de la petite araignée s’expliquerait par les fortes chaleurs.

Exemple de nécrose sur une plaie

Un autre article de La Dépêche, daté de la même période, fait lui état de deux femmes habitant respectivement dans l’Hérault et dans le Gard et cite leur témoignage, toutes les deux ayant été piquées alors qu’elles enfilaient leur pantalon. Dans les deux cas il a fallu recourir à des opérations de chirurgie esthétique pour supprimer les parties nécrosées qui s’étendaient sur une large surface d’une dizaine de cm malgré un traitement antibiotique administré très rapidement. Mais contrairement au précédent article, les morsures sont attribuées non pas à Loxosceles rufescens mais à sa cousine américaine, la recluse qui, selon certaines sources, serait présente en France depuis le début des années 2000.

Ceux qui liront le dernier opus de Fred Vargas retrouveront dans ces quelques faits divers une matière qui a manifestement inspiré la romancière : polémique qui enfle sur la toile suite à plusieurs cas graves de morsures attribuées à l’araignée violon en début de période estivale précisément dans le Gard, débats sans fin sur l’hypothèse selon laquelle le venin de l’araignée deviendrait plus virulent en période de forte chaleur, supputations sur l’influence du changement climatique comme facteur déclenchant, etc. Nul doute que l’archéozoologue à l’imagination fertile a puisé dans ces dépêches d’agence et dans les forums de discussion qu’elles suscitent inévitablement de quoi alimenter son histoire.

Mais le plus cocasse est que l’histoire se répète. Alors que le livre de Fred Vargas a été édité en mai 2017, voilà que l’on voit fleurir de nouvelles alertes rendues publiques initialement par France Bleu Roussillon puis reprises par de nombreux médias, sans curieusement qu’il y soit fait allusion au roman qui vient de paraître… Il s’agirait cette fois d’au moins quatre cas de patients traités à la clinique Saint-Pierre de Perpignan. Tous se plaignent de fortes brûlures et de démangeaisons accompagnées dans certains cas de fièvre suite à des piqûres d’insectes qui se sont infectées, avec parfois une plaque nécrosée noire au centre de la rougeur.

La magnifique araignée-paon, nettement moins discrète que la recluse

A Perpignan, les médecins ont conclu à des morsures de la cousine américaine Loxosceles reclusa. Mais les arachnologues restent sceptiques, eux qui affirment n’avoir encore jamais repéré la recluse sur le territoire national, alors qu’il existe 44 000 espèces d’araignées connues et que l’on en découvre fréquemment de nouvelles, la plus insolite étant peut-être la très exotique araignée-paon, une espèce endémique d’Australie..

Une chose est sûre, le sujet n’a certainement pas fini de faire gamberger. Pour peu que le roman policier de Fred Vargas ait autant de succès que ses ouvrages précédents, les habitants du sud-est de la France n’ont pas fini d’incriminer, à chaque piqûre d’insecte, la petite araignée violon, que manifestement bien peu peuvent se vanter d’avoir jamais vu mais qui pourrait bien faire le buzz sur la toile…

L.V.

Carnoux-en-Provence de nouveau menacé par les flammes

20 août 2017

Carnoux envahi par les fumées de l’incendie, samedi 19 août 2017 vers 19h

La ville de Carnoux, entourée de massifs forestiers dont celui de la Marcouline, fait partie de ces communes provençales particulièrement exposées au risque de feu de forêt. Prescrit en 2011, le plan de prévention des risques liés aux feux de forêts (PPRIF) a été approuvé par arrêté préfectoral en date du 28 janvier 2014 et impose certaines obligations liées en particulier au débroussaillement mais aussi aux constructions et activités dans les secteurs les plus exposés. Il recense plus de 50 départs de feu qui ont impacté le territoire communal depuis 1973, date de création de la base de données Prométhée, le dernier en date étant celui du 4 août 2005.

Ce jour-là, deux foyers avaient été allumés dont l’un près du cimetière des Fenestrelles à Aubagne, et ils avaient consummé près de 200 ha en direction de Carnoux, menaçant fortement les habitations situées en limite nord de Carnoux et nécessitant l’évacuation du centre de vacances alors dénommé Shangri-La. Les deux lignes haute tension les plus menacées avaient été coupées à titre préventif, privant momentanément d’électricité plus de 15 000 foyers, tandis que le trafic ferroviaire était totalement interrompu entre Aubagne et Cassis à partir du début de l’après-midi et jusqu’après minuit. Trois pompiers avaient même été légèrement blessés dans le tunnel ferroviaire sous la colline de Carnoux.

A l’époque, plus de 600 pompiers avaient été engagés pour sauver les habitations de Carnoux d’une destruction sinon inévitable. Les moyens aériens mobilisés avaient été également importants, malgré l’impossibilité de faire voler les Canadairs alors cloués au sol dans l’attente d’une enquête suite à l’accident survenu quelques jours avant en Corse.

Hier, la commune de Carnoux a connu un nouvel épisode très comparable et qui a de nouveau menacé le même secteur qu’en 2005, ce qui vient confirmer pour ceux qui auraient tendance à l’oublier la réalité de cette menace saisonnière. Alors que la végétation était particulièrement sèche après l’épisode de canicule survenu fin juillet et que le mistral soufflait en moyenne à 45 km/h avec des rafales à 70 voire 80 km/h, plusieurs départs de feu se seraient produits vers 17h30 dans le quartier de la Pérusonne à Aubagne, une zone résidentielle de villas à proximité de la clinique de la Casamance.

Vue de l’incendie sur l’avenue Jean Bart samedi 19 août 2017 vers 19h

Attisé par le vent, l’incendie s’est rapidement propagé vers le sud et est arrivé jusqu’en bordure de l’avenue Jean Bart à Carnoux où il menaçait les premières maisons vers 18h30. Comme en 2005 et pour les mêmes raisons, les deux lignes à haute tension RTE 17 et 19 ont été coupées, le trafic ferroviaire entre Aubagne et Cassis a été interrompu dès 19h, l’accès à Carnoux depuis l’autoroute A50 a été fermé et la circulation sur la RD 41 a été arrêtée.

La mobilisation des services de lutte contre l’incendie a été remarquable, comme en 2005, avec plus de 600 pompiers mobilisés très rapidement, aidés par d’importants moyens aériens : deux hélicoptères bombardiers d’eau, deux tracker, quatre Canadair et un Dash ! Les moyens engagés au sol ont également été considérables, y compris avec un bulldozer permettant de frayer un chemin à travers le massif boisé.

Canadair en train de larguer le long de l’avenue Jean Bart, samedi 19 août 2017 vers 19h

Les rotations des Canadairs ont été particulièrement nombreuses hier en fin d’après-midi et à nouveau ce matin dès 6h30 pour assurer l’absence de tout risque de reprise, alors que les bordures de la zone calcinées fumaient encore de manière sporadique. Les pompiers ont lutté toute la nuit contre l’incendie mais dès 23 h il était considéré comme maîtrisé. Les habitants des zones les plus exposées ont été d’abord confinées chez elles, ainsi que les pensionnaires de la maison de retraite située en contrebas. En revanche, il a fallu, comme en 2005, procéder à l’évacuation des vacanciers du centre de vacance Odalys, particulièrement exposés, mais aussi à une partie des chiens du chenil en lisière de forêt, et finalement de certains des habitants dont les maisons ont été léchées par le feu. La superficie dévorée par les flammes est évaluée à environ 250 hectares selon les dernières estimations.

Vue de l’incendie depuis l’avenue Jean Bart, samedi 19 août 2017 vers 19h

Le gymnase du Mont-Fleuri a été mis à disposition pour l’accueil des vacanciers d’Odalyse et une cinquantaine d’entre eux a préféré y passer toute la nuit plutôt que de regagner le centre lorsqu’ils ont eu la possibilité de le faire, à partir de 23 h, une fois le plus gros du danger enfin écarté. Les voyageurs des trains circulant entre Marseille et Nice ont eu moins de chance et près de 4000 d’entre eux ont dû passer la nuit à bord des trains ou dans les gares de Nice, Toulon ou Marseille. Ce n’est qu’aujourd’hui dans la matinée que le trafic a pu commencer à reprendre, mais il reste encore fortement perturbé…

Au sud de l’avenue Jean Bart, certaines maisons ont été léchées par les flammes

L’action des pompiers a été particulièrement efficace sur ce nouvel incendie dont les conséquences auraient pu être dramatiques pour la petite ville de Carnoux, où l’habitat est très dense et la végétation de pins et de thuyas est très développée, facilitant à outrance la propagation du feu d’un jardin à un autre. Seuls des arbres ont effectivement brûlé au sud de l’avenue Jean Bart, endommageant au passage quelques cabanons de jardin, mais toutes les maisons ont pu être épargnées et aucune victime n’est à déplorer.

Forêt calcinée le long de l’avenue Jean Bart

Il n’en demeure pas moins que le spectacle de désolation qu’offrent les pinèdes calcinées en bordure de l’avenue Jean Bart, entre le centre de vacance d’Odalys et le petit bassin de rétention d’eau à l’entrée du chemin forestier, vient rappeler une fois encore et pour de longues années, à quel point notre commune, nichée dans un écrin de forêt méridionnale, est exposée à ce risque de feu de forêt…

L.V.  

Feu de brousse au Groenland : où va t-on ?

16 août 2017

Décidément, les effets du réchauffement climatique sont de plus en plus manifestes, n’en déplaise aux climato-sceptiques et autres responsables politiques attardés. Une des conséquences attendues du réchauffement climatique global est l’augmentation du risque de feux de forêt, et de ce point de vue, le cru 2017 fait honneur aux prévisions…

Canadair en action sur un feu de forêt

Alors que plus de 11 000 hectares de forêts ont déjà brûlé en France depuis le début de l’été 2017, notamment dans le Var et en Haute-Corse, chiffres malheureusement encore très provisoires, issus de la base de données Prométhée, et que déjà 360 000 hectares sont partis en fumée sur l’ensemble de l’Europe, principalement autour du bassin méditerranéen, selon EFFIS, le système européen d’information sur les feux de forêts, voila maintenant que l’on signale des feux de brousse au Groenland !

En matière de lutte contre le changement climatique, il n’y a pas le feu au lac, comme persistent à s’en convaincre les plus sceptiques. Certes, mais il y a quand même déjà le feu à la calotte glaciaire…

Rattaché administrativement au Danemark, le Groenland est la deuxième plus grande île du monde, avec une superficie totale de plus de 2 millions de km², soit quatre fois l’étendue du territoire métropolitain français. Situé entre le Canada et l’Islande et bordé au nord par l’Océan glacial arctique, le pays est recouvert à 80 % par une calotte glaciaire, un vaste inlandsis dont l’épaisseur de glace dépasse localement 3 km. Seules les bordures ouest et sud du territoire sont recouvertes de végétation, une toundra constituée de mousses, de lichens et de plantes herbeuses, ainsi que de bouleaux nains ne dépassant pas quelques dizaines de centimètres de hauteur.

Paysage de toundra au Groenland

On est donc loin de la végétation du maquis corse et de celle de la garrigue méditerranéenne avec ses pins d’Alep qui s’enflamment comme des torches à la moindre étincelle. Et pourtant, même dans ce paysage semi-glaciaire où la température peut descendre jusqu’à -66 °C et où le cumul annuel de précipitation peut atteindre 2,5 m dans le sud, voila que l’on signale des feux de brousse récurrents…

Le phénomène était considéré comme extrêmement rare à ces latitudes jusqu’à présent, car les conditions de climat et de végétation sont beaucoup moins propices que dans le nord-ouest canadien, davantage boisé, où le risque tend à se multiplier, comme on l’a vu en mai 2016, lorsqu’un gigantesque incendie avait ravagé plus de 100 000 hectares de forêt autour de Fort-Murray au Canada, nécessitant l’évacuation préventive de 80 000 personnes.

Carte de la zone touchée (infographie © Audrey Dufour / La Croix)

En 2015 et 2016, plusieurs incendies avaient déjà été signalés sur les rivages du Groenland, mais dans le sud du pays. Cette année, le phénomène s’est déclenché dans une zone cotière située dans l’ouest, plutôt en altitude, dans un secteur habituellement recouvert de neige. Le départ de feu a été repéré par un survol aérien le 31 juillet 2017, à environ 150 kilomètres au nord-est de Sisimiut, une localité de 5 500 habitants (soit un dixième de la population totale de tout le Groenland !), et confirmé ensuite par plusieurs images satellites, début août, qui donnent une idée de l’extension du phénomène. On estime à environ 15 km², soit 1500 ha, la surface de toundra ainsi partie en fumée en quelques jours, dans un pays qui n’est pas équipé pour lutter contre ce type de risque naturel. Et un deuxième foyer d’incendie a été repéré quelques jours plus tard, plus au sud, confirmant la réalité de ce risque alors que la température estivale est exceptionnellement élevée avec des pointes dépassant allègrement les 20 °C…

Image satellite de l’incendie le 3 août 2017 obtenue par le satellite Copernicus et retraitée par Pierre Markuse

Ces observations sont particulièrement inquiétantes aux yeux des climatologues car les régions polaires sont les plus affectées par le réchauffement climatique, avec une augmentation moyenne de la température qui y est deux à trois fois plus élevée que sur le reste du globe. A leurs yeux, ces incendies inédits, quelle qu’en soit leur cause (qui n’est pas connue à ce jour), sont la conséquence directe du recul de la calotte glaciaire qui met à jour des étendues végétalisées de plus en plus vaste, dont le sol tourbeux est riche en matière organique, sujet à une combustion lente mais très difficile à combattre.

Vue satellite du feu le 3 août 2017 (photo Landsat USGS © NASA)

Ces incendies sont d’autant plus dangereux que leurs effets indirects contribuent largement à accélérer le réchauffement climatique lui-même. La combustion provoque naturellement de fortes émissions de gaz carbonique, mais aussi de méthane, contenu en quantité dans les sols tourbeux habituellement gelés, deux gaz à effet de serre ainsi libérés en grande quantité dans l’atmosphère. De plus, la suie issue de la combustion se dépose sur les étendues enneigées aux alentours, limitant fortement le pouvoir réflecteur de cette dernière et accélérant ainsi sa fonte.

Inlandsis du Goenland (photo © Halorache / expédition A Carré 2009)

Voilà en tout cas un nouveau facteur aggravant dont nous n’avions pas vraiment besoin et qui risque d’accélérer encore les impacts négatifs du réchauffement climatique dans une des régions qui y est le plus vulnérable. On savait déjà que la fonte de l’ensemble de la calotte glaciaire du Groenland pouvait se traduire par une élévation totale de 7 m du niveau de la mer, avec les conséquences catastrophiques qui en résultent pour de très nombreuses régions côtières. On avait aussi estimé que un tiers de l’élévation actuelle du niveau des océans (qui est depuis plusieurs années déjà de l’ordre de 3 mm/an en moyenne) était d’ores et déjà due au recul de cette calotte glaciaire et à l’augmentation de débit des cours d’eau côtiers issus de cette fonte.

Mais voila que l’on commence à apercevoir d’autres risques liés à ces pertubations climatiques dans les zones arctiques. Les feux de brousse en sont un de ces aspects inédits. La fonte du permafrost, sol gelé en permanence en profondeur et qui s’étend sur des millions de km², dans le nord de l’Europe, le Canada et la Sibérie, pourrait constituer un autre facteur aggravant particulièrement explosif. Les conséquences déjà observées ne se limitent en effet pas aux seuls impacts sur les fondations des infrastructures édifiées sur ce type de sol !

La fonte du pergélisol libère des quantités énormes de carbone organique que les bactéries peuvent transformer en gaz carbonique et en méthane, ce qui rique d’accélérer considérablement l’impact du réchauffement climatique, avec un effet d’emballement incontrôlable. Une véritable bombe climatique en perspective !

Inspection vétérinaire d’un troupeau de rennes dans la péninsule de Yamal, dans le Grand Nord russe (photo © AFP / publiée dans Science et avenir)

Et ne parlons pas des risques sanitaires que certains redoutent. En 2016, sur la péninsule de Yamal, à 2500 km au nord-est de Moscou, un enfant est décédé et 23 personnes ont été infectées par l’anthrax, la redoutable maladie du charbon, transmise par un virus, disparu de la région depuis au moins 75 ans mais qui se trouvait à l’état de latence dans un cadavre de renne qui avait dégelé suite aux températures exceptionnellement chaudes (jusqu’à 35 °C !) de l’été 2016. On craint désormais que ce type de risque se multiplie, réveillant d’autres virus dont celui de la variole, officiellement éradiquée et contre laquelle on ne se protège plus, avec même des scénarios catastrophes impliquant certains virus géants et totalement inconnus repérés dans des cadavres de mamouths congelés. Bienvenu dans le nouveau monde du réchauffement climatique…

L.V.  

Comment lutter contre les moustiques ?

17 juin 2017

Le moustique tigre, Aedes albopictus

Avec le retour des beaux jours et l’arrivée des cigales, ce sont aussi les moustiques qui s’en donnent à coeur joie, et parmi eux le redoutable moustique tigre, Aedes albopictus, potentiel vecteur de la dengue, du chikungunya et du Zika ! Arrivé en France en 2004, en provenance de l’Asie du sud-est, le moustique tigre est désormais implanté durablement dans une trentaine de départements français et son expansion se poursuit grâce à son excellente adaptation aux milieux urbains et à la capacité de ses œufs à résister aux périodes de froid hivernal.

Pour autant, le moustique tigre n’est que l’une des 3500 espèces de moustiques recensées dans le monde, dont 64 en France métropolitaine (et 238 en Guyane !). Seules environ 200 de ces espèces s’attaquent à l’homme, parmi lesquelles le moustique ordinaire, Culex pipiens, encore très répandu en France mais qui commence à se faire rare à Carnoux où il a été largement supplanté par son cousin asiatique nettement mieux adapté à l’environnement local.

Le classique, Culex pipiens (photo Stephen Doggett, NSW Health Pathology)

La lutte contre les moustiques s’est développée au tout début du XXème siècle, après que le médecin militaire Alphonse Laveran, alors en poste à Alger, a découvert en 1880 que le paludisme était provoqué par un hématozoaire, Plasmodium falciparum, puis a compris le rôle des moustiques de type anophèles dans la transmission de ce parasite. Jusque là, on se contentait de lutter contre la malaria en tentant d’assécher les zones humides. A partir de cette période, les actions sont devenues plus ciblées, et moins impactantes pour ces zones humides qui jouent par ailleurs un rôle majeur pour la biodiversité mais également pour la régulation du cycle de l’eau : diffusion des moustiquaires, introduction massive de gambusies, poissons dont les larves se nourrissent de moustiques et qui se sont révélés particulièrement invasifs, mais aussi campagnes de désinsectisation à coup de produits chimiques peu ragoûtants…

Epandage de DDT sur une plage dans les années 1950

C’est ainsi que dès 1943 et avec l’aide des troupes américaines de débarquement, des campagnes s’organisent pour pulvériser, à l’intérieur même des habitations de certains régions de Corse, un mélange à base de pétrole et de DDT… Dans les années 1960, ce sont les zones côtières du Languedoc qui sont aspergées de DDT par voie aérienne pour les assainir avant d’y développer le tourisme de masse.

La mise en évidence des risques liés à l’utilisation massive de cet insecticide, révélés notamment par le livre de la biologiste américaine Rachel Carson, Printemps silencieux, publié en 1962, mettra progressivement un terme à de telles pratiques. En 1976, la découverte du Bti, Bacillus thuringiensis israelensis, insecticide biologique très sélectif et peu toxique pour les autres espèces, permet de lancer la démoustication dans des zones comme la Camargue qui jusque là avaient été relativement épargnées par ces campagnes du fait de son statut de zone naturelle protégée, et ceci bien qu’elle ait été le théâtre de la dernière épidémie de paludisme connue sur le territoire métropolitain en 1943.

En Camargue, comme sur toute la frange littorale des Pyrénées-Orientales jusqu’aux Bouches-du-Rhône, c’est un établissement public créé en 1958, l’Entente interdépartementale pour la démoustication (IED) qui est chargé de la lutte contre la prolifération des moustiques et principalement des espèces les plus nuisibles pour l’homme que sont Aedes caspius et Aedes detrius, dont les larves se développent en milieu humide. La stratégie adoptée depuis août 2006 en Camargue consiste à identifier les gîtes larvaires qui font l’objet d’une surveillance permettant de déclencher à bon escient les traitements (principalement par voie aérienne) à base du larvicide Bti, qui n’est toxique (par ingestion) que pour les larves de nématodes (dont font partie les moustiques) mais pas pour les autres organismes aquatiques.

Epandage de Bti en Camargue (source Actu environnement)

Ces pratiques sont fortement encadrées et accompagnées d’une démarche de suivi environnemental pour évaluer l’impact de ces interventions sur le milieu naturel. Le Parc naturel de Camargue impose en effet que 10 % de l’enveloppe consacrée à la démoustication soit affectée à un suivi de son impact écologique et sociologique. Or ces études ont mis en évidence que l’effet de ces traitements est loin d’être négligeable et se répercute sur toute la chaîne alimentaire : la destruction des larves de moustiques et de chironomes provoque une diminution de moitié des populations d’odonates (libellules et autres agrions) et de 60 % des araignées, ce qui se traduit déjà par une diminution d’un tiers des passereaux, confirmant s’il en était encore besoin, que tout équilibre écologique est par nature fragile…

Du coup, les recherches s’orientent désormais vers la mise en œuvre de stratégies encore plus ciblées qui visent à réguler les populations de moustiques uniquement là où elles constituent une véritable gêne pour les populations, donc dans les lieux habités. Il s’agit pour cela de mettre en place des pièges à moustiques pour constituer des barrières autour des zones urbanisées.

Schéma de principe d’un piège à moustique artisanal (source : espacebuzz)

L’idée du piège à moustique individuelle est vieille comme le monde et il suffit de regarder sur internet d’excellentes vidéo qui expliquent en détail comment constituer un piège à moustique en coupant en deux une bouteille en plastique au fond de laquelle on dispose un mélange de sucre roux, d’eau et de levure de boulanger, avant de refermer le récipient avec la partie conique renversée : les moustiques attirés par le produit sucré rentrent dans la bouteille mais n’arrivent plus à en ressortir. Le système est efficace mais doit être renouvelé régulièrement.

Les inventeurs de la borne anti-moustiques (source : Qista)

Pour être utilisé à une échelle plus industrielle, d’autres dispositifs existent dont un breveté en 2013 et désormais produit par la société Qista, basée à Aix-en-Provence. Ces BAM, ou bornes anti-moustiques, attirent les moustiques en reproduisant la respiration humaine au repos (par expirations saccadées de gaz carbonique) et en diffusant des composés chimiques à base d’acide lactique proches de la sueur humaine. Les moustiques sont aspirés par un ventilateur dès qu’ils s’approchent du piège et sont retenus dans un filet. Le dispositif a été testé dans un hameau d’Arles en 2015 et s’est avéré particulièrement efficace pour un coût relativement modique tout en se montrant particulièrement sélectif : sur plus de 250 000 insectes capturés, 99,7 % appartiennent à 9 espèces de moustiques ciblées ! En 2016, 15 pièges de ce type ont été mis en place et l’expérience pourrait encore s’étendre.

Piège contre le moustique tigre développé par l’IED (source © France3 Languedoc-Roussillon)

Vis à vis du moustique tigre, des démarches similaires se développent également. La particularité de cette espèce est que les femelles pratiquent une ponte fractionnée en répartissant leurs œufs dans différents endroits jugés propices mais dispersés et peu aisés à détecter. L’idée consiste donc à les attirer dans des gîtes très attractifs mais rendus inaccessibles par une moustiquaire munie d’une chambre de contamination où le moustique s’enduit les pattes d’un peu d’insecticide. Ne réussissant pas à y déposer ses œufs, la femelle ira pondre ailleurs mais en disséminant l’insecticide sur tous ses lieux successifs de ponte, ce qui le rend du coup très opérant sur les futures larves.

Bref, l’ingéniosité humaine dans la lutte contre son ennemi séculaire, le moustique, n’a pas de limite…

L.V.  

La plupart des informations de cet article sont issues du n° 92-93 de l’excellente revue Zones Humides infos publiée par la SNPN (Société nationale de protection de la nature)

Après les eaux usées, Marseille s’attaque au pluvial !

3 mai 2017

Baignade interdite au Prado après un orage (photo © P. Laurenson / AFP)

A Marseille, comme chacun sait, mieux vaut ne pas se baigner sur la plage du Prado après un orage. Rappelons que ce parc balnéaire qui s’étend sur 3,5 km de littoral et couvre près de 26 ha, a été aménagé de manière complètement artificielle à la fin des années 1970, sous la mandature du Gaston Deferre, pour permettre avant tout de se débarrasser à moindre frais des millions de m³ de déblais issus des chantiers de construction des lignes de métro. A l’époque, on ne prenait guère de gants avec l’environnement y compris dans une zone littorale située comme celle-ci à l’embouchure de l’Huveaune, dans un milieu naturel qui a dû jadis être un haut-lieu de la biodiversité…

Plages du Prado avec au centre l’embouchure de l’Huveaune

Il faut dire aussi que, dans les années 1970, l’Huveaune, à son arrivée en mer, n’était qu’un vaste égout malodorant charriant les effluves des nombreuses industries qui bordaient ses berges, et servant d’exutoire en mer aux eaux usées d’une partie de Marseille et des communes de l’amont, dont Carnoux.

Le réseau souterrain servant à canaliser les eaux usées s’était construit progressivement au cours du XIXe siècle, sous forme unitaire au centre ville, sous forme séparative (les eaux pluviales de ruissellement étant collectées à part) dans les quartiers plus récents et les communes voisines.

Vue du Grand émissaire de Marseille (photo © SERAMM)

Mais jusqu’en 1987, tout était rejeté directement en mer, sans le moindre traitement, via un grand émissaire construit en 1896 et aboutissant dans l’anse isolée et peu accessible de Cortiou, en plein coeur du massif des calanques, où un vaste fleuve de déchets boueux se jette dans la mer, en attendant qu’un jour peut-être, la collectivité finisse par le prolonger plus au large pour diminuer l’incidence de ces rejets sur les fonds côtiers les plus fragiles.

Rejet en mer dans la calanque de Cortiou (source)

En 1979, alors que la plage du Prado est aménagée, il n’est plus question d’y déverser les eaux fortement pollués et toxiques de l’Huveaune. Une dérivation est donc créée, qui renvoie ces eaux directement dans l’émissaire de Cortiou où elles sont ensuite rejetées en mer, ni vu ni connu. En période de fortes pluies cependant, lorsque l’émissaire est saturé, un déversoir d’orage permet aux eaux de l’Huveaune en crue de rejoindre leur lit naturel et de se rejeter en mer le long de la plage du Prado, qu’elles polluent alors allègrement en jonchant la plage des multiples déchets qu’elles charrient.

Vue en surface de la station de traitement des eaux usées Géolide

Dans les années 1970, sous la pression de certains naturalistes et des plongeurs qui s’alarment de la disparition des herbiers de posidonies et de l’appauvrissement de la faune marine au large des côtes marseillaises totalement ravagées jusqu’à plus de 40 km du rivage par ce flux incessant d’eaux polluées, la ville se décide enfin à mettre en oeuvre une station d’épuration physico-chimique, destinée au traitement des eaux usées de Marseille et de 15 communes environnantes, dont Carnoux. Le chantier commence en 1984, en bordure de l’Huveaune. La station, enterrée sous le stade Vélodrome, est mise en service en 1987.

Mais le renforcement de la réglementation en matière de traitement des eaux usées, avec notamment l’adoption en 1991 de la directive européenne sur les eaux résiduaires urbaines, rend très vite cette station insuffisante. En 2008, elle est donc complétée par l’adjonction d’un dispositif de traitement biologique, dit Biostyr, installé sous l’esplanade Ganay. La nouvelle station, dénommée Géolide, constitue la plus grande usine enterrée de traitement des eaux usées du monde et traite 70 millions de m³ d’eau usée par an.

Schéma de la station Géolide (source)

L’eau y est injectée dans 34 bassins de 1500 m³ chacun, remplis de billes de polystyrène sur 3,50 m d’épaisseur. Les bactéries fixées à la surface de ces billes fixent une partie de la pollution au passage. Pour éviter le colmatage des billes, celles-ci sont lavées chaque jour et l’eau de lavage subit un traitement physico-chimique par coagulation et floculation, suivi d’une décantation lamellaire afin d’agglomérer, concentrer et piéger les bactéries sous forme de boues. Ces boues sont alors acheminées vers une usine de traitement, située à 6 km de là, dans l’ancienne carrière de la Cayolle qui surplombe la calanque de Sormiou. Les boues y sont épaissies et séchées avant d’être valorisées sous forme de compost qui sert actuellement à réhabiliter l’ancienne décharge d’ordures ménagères d’Entressen.

Vue de la station de traitement de la Cayolle (photo © Lakko Marseille)

Cependant, en cas de forte pluie, le système d’assainissement n’est pas en mesure de traiter l’ensemble des effluents collectés car les eaux de ruissellement viennent alors grossir les flux habituels d’eaux usées, provoquant rapidement la saturation des capacités de traitement. Pour éviter que la ville ne soit noyée sous un flot d’eaux polluées et nauséabondes, tout l’excédent est alors rejeté directement en mer, principalement par l’émissaire de Cortiou mais aussi en partie via l’ancien exutoire de l’Huveaune, donc directement sur la plage du Prado !

Ce problème récurrent commençant à déprécier sérieusement l’attrait touristique de la ville, l’ancienne Communauté urbaine Marseille Provence Métropole s’est engagée en 2010 dans un projet de contrat de baie, désormais opérationnel depuis juin 2015 pour une durée de 6 ans avec, à la clé, un budget de 265 millions d’euros, dont 185 millions engagés via le Contrat d’agglomération de traitement des eaux usées signé l’année d’avant avec l’Agence de l’Eau Rhône-Méditerranée, et 25 millions mobilisés dans le cadre du contrat de rivière de l’Huveaune, signé en octobre 2015 à Aubagne.

Inondations rue de Rome à Marseille en septembre 2000 (photo © Bataillon des marins-pompiers de Marseille)

Une des actions phares de ce contrat de baie consiste précisément à s’attaquer enfin au problème des eaux pluviales qui rendent inopérant le traitement des eaux usées de l’agglomération marseillaise en période de fortes pluies. L’objectif affiché, qui peut paraître modeste, est de réduire de 50 % les rejets d’eaux usées non traitées vers la calanque de Cortiou au cœur du Parc National des Calanques, et ceci en réponse à un arrêté préfectoral de janvier 2004 qui impose à la collectivité de réaliser d’ici fin 2018 une capacité de rétention des eaux usées de 90 000 m³.

Un premier ouvrage a ainsi été réalisé dès 2007 à l’occasion des travaux de requalification de la rue de la République dans le cadre de la prolongation du tramway. Gigantesque cylindre de 49 m de long situé à 15 m sous terre, ce bassin permet de stocker 14 500 m³ collecté en centre ville. Les gros déchets y sont récupérés et la partie claire de l’eau décantée est rejetée en mer une fois l’orage passé, tandis que les eaux polluées sont envoyées à la station de traitement dès que celle-ci est de nouveau en capacité de les traiter. Quatre autres basins sont prévus sur le périmètre de l’agglomération marseillaise : un de 12 000 m³ achevé en septembre 2015 place Jules Guesde à la Porte d’Aix, un de 15 000 m³ dans l’emprise du tunnel ferroviaire désaffecté Lajout près de la nouvelle station de métro boulevard Capitaine Gèze, un autre de même capacité cours Pierre Pujet, et enfin un plus vaste de 33 000 m³ à Saint-Mauront, près des Docks.

Vue intérieure du bassin Ganay lors de son inauguration (photo publiée par GoMet)

Un sixième ouvrage profond de 30 m pour un diamètre de 56 m et une capacité de 50 000 m³, a été construit à partir de 2014 sous le stade Ganay. Désormais achevé et inauguré en avril 2017, ce gigantesque bassin enterré, pour lequel il a fallu mobiliser pas moins de 80 000 tonnes de béton, doit être relié d’une part à la station de traitement Géolide et d’autre part au réseau unitaire. Pour cela, il a notamment fallu creuser une galerie de 3 m de diamètre et 300 m de longueur, à 10 m de profondeur. Un tunnelier a été mobilisé dans ce but, pendant près de 6 mois, jusqu’à ressortir près du boulevard Michelet en décembre 2016, une fois sa tâche accomplie.

Sortie du tunnelier (photo © N. Vallauri pour La Provence)

Vue en coupe du bassin Ganay (source)

En surface, on ne verra du bassin Ganay qu’un modeste bâtiment de service au forme de simple pavillon et il reste encore à reconstruire le nouveau stade Ganay au dessus du réservoir enterré dont les Marseillais seront bien en peine d’imaginer l’existence une fois le chantier achevé. C’est d’ailleurs le risque de ce type de démarche qui consiste à masquer de la vue du citoyen les aménagements pourtant indispensables au fonctionnement de la ville : à force d’oublier que la gestion des eaux fait partie intégrante de la vie urbaine, comment peut-on s’en approprier les enjeux pourtant essentiels ?

L.V.