Posts Tagged ‘Risques naturels’

Système d’alerte SAIP : l’État jette l’éponge

1 juin 2018

Alerter les populations en cas de péril grave et imminent, voilà qui relève pleinement du rôle régalien de l’État. Après les cornes de brume, la sonnerie du tocsin puis les sirènes installées sur le toit de l’école ou de la mairie, il est apparu nécessaire de moderniser et de rendre plus efficace les dispositifs d’alerte, pour faire face à des menaces qui ne se limitent plus à l’état de guerre et aux éventuelles attaques aériennes mais qui englobent aussi les risques d’attentat, de catastrophe naturelle ou d’accident technologique.

C’est ainsi qu’a été initié en 2009 le dispositif SAIP, un acronyme comme le Ministère de l’Intérieur les adore, et qui signifie « système d’alerte et d’information des populations ». Ce système est en fait destiné à remplacer le « Réseau national d’alerte », mis en place après la dernière guerre et qui s’appuyait sur un réseau de 4500 sirènes, testées tous les mercredis, mais qui n’avaient quasiment jamais été actionnées pour déclencher l’alerte en 50 ans d’existence et dont la maintenance devenait de plus en plus problématique du fait de l’obsolescence du dispositif.

Le nouveau SAIP continue néanmoins à s’appuyer sur ce réseau de sirènes qui a été complété et surtout modernisé à grands frais. Il vise à permettre aux acteurs de la gestion de crise de lancer l’alerte dans une zone géographique donnée en une unique opération sur différents vecteurs simultanément : sirènes, téléphones mobiles, mais aussi via Radio France, France Télévision et même sur les panneaux à message variable des gestionnaires d’infrastructures et des collectivités territoriales.

Remplacement des sirènes d’alerte sur le toit de la mairie de Fréjus (source © Ville de Fréjus)

Testé dans 3 départements en 2009, le dispositif a été étendu à la France entière et prévoyait le lancement de SMS d’alerte via les opérateurs de téléphonie mobile. Contrairement aux sirènes qui ne font qu’alerter, la diffusion de messages d’alerte sur les téléphones mobiles permet en effet de diffuser des messages plus complets et plus ciblés qui informent chacun quant au meilleur comportement à adopter en fonction de la nature effective du danger.

Dans ce domaine, il existe différentes technologies comme l’explique un rapport sénatorial très pédagogique (et plutôt critique) déposé en 2017 par le sénateur LR de la Sarthe, Jean-Pierre Vogel. La plus adaptée, utilisée notamment aux Pays-Bas depuis 2012, mais aussi au Japon depuis 2007 et aux États-Unis, dite de diffusion cellulaire (cell broadcast) permet d’envoyer, via le réseau de téléphonie mobile un même message à tous les utilisateurs présents dans une zone géographique donnée (correspondant à une ou plusieurs cellules du réseau). Ce système est particulièrement adapté car il ne crée pas de surcharge sur le réseau, les messages étant transmis par des canaux de contrôle spécifiques, et ne nécessite pas de connaître les numéros de téléphone des destinataires, mais il ne permet pas de savoir qui a effectivement reçu le message.

Une autre possibilité consiste à diffuser des SMS ciblés aux seuls usagers présents dans le secteur géographique concerné, en s’appuyant sur la géolocalisation de leur téléphone, un dispositif qui peut néanmoins conduire à saturer rapidement le réseau et qui ne permet pas de distinguer les SMS d’alerte de tous les autres. Ces deux pistes ont été explorées en 2011 mais abandonnées par le Ministère de l’Intérieur du fait de la mauvaise volonté des opérateurs de téléphonie mobile et des coûts envisagés.

C’est la raison pour laquelle l’État a choisi plutôt une troisième voie qui consiste à développer une application spécifique pour smartphones, permettant d’envoyer des messages d’alerte aux usagers. Ce choix était acté depuis 2011, mais il a fallu attendre fin 2015, au lendemain des attentats du 13 novembre, pour que le Ministère se décide à rédiger le cahier des charges et lancer la consultation, dans l’urgence puisque l’objectif était que le dispositif soit opérationnel pour l’Euro de football prévu en France depuis 2010 et qui devait débuter en juin 2016 !

Ecran d’alerte de l’application défunte SAIP

Le marché a été notifié le 27 mai 2016 à la société Deveryware, spécialisée dans les services s’appuyant sur la géolocalisation en temps réel et qui a dû développer en catastrophe un dispositif particulièrement sophistiqué puisqu’il s’agissait d’identifier tous les abonnés effectivement présents dans une zone géographique donnée à un instant t, sans toutefois que la liste de ces destinataires ne soit répertoriée sur un serveur central, ceci pour se conformer aux exigences de respect de la vie privée de chacun.

Le camion qui a provoqué la mort de 84 personnes à Nice le 14 juillet 2016 (photo © Eric Gaillard / Reuters)

Cette précipitation dans l’élaboration du dispositif explique en partie sa faiblesse puisque le système a été actionné dès le 14 juillet 2016, à l’occasion de l’attentat sur la Promenade des Anglais à Nice. Et pour ce premier test en vraie grandeur, le dispositif ne s’est guère montré performant puisqu’il a fallu 3 heures pour que l’alerte soit effectivement transmise aux personnes présentes sur place, alors que tout danger était écarté depuis bien longtemps, et plus d’un mois pour que les personnes présentes à Nice reçoivent le message de fin d’alerte…

Depuis, le système a gagné en efficacité mais il reste dépendant des services préfectoraux en charge de déclencher l’alerte, ce qui explique que l’application est restée étrangement muette à l’occasion de la prise d’otage au Super U de Trèbes en mars 2018 ou lorsqu’un militaire a été attaqué au Louvre l’été dernier, tandis qu’il ne manquait pas en revanche de relayer en 2016 un supposé attentat dans une église parisienne alors qu’il s’agissait d’un simple canular.

Deux ans après la mise en service de cette application, le Ministère de l’Intérieur vient d’annoncer que le contrat le liant à la société Deveyware ne sera pas reconduit et que le dispositif était purement et simplement abandonné. Les services de l’État reconnaissent, comme le relaie Le Monde, avoir fait fausse route avec cette application qui exigeait d’être téléchargée au préalable, ce qu’ont fait seulement 900 000 personnes (alors que plus de 30 millions de Français sont inscrits sur Facebook…), et qui, pour être fonctionnelle, nécessitait d’être ouverte en permanence, ce qui peut être rédhibitoire selon les forfaits et selon l’état des batteries de téléphone !

Humour noir signé Delucq : « Pas de bras, pas d’appli »

Un échec cuisant donc et qui nécessite de revoir complètement la stratégie d’alerte des populations. Pour cela, le Ministère prévoit désormais de faire allégeance à Google, Facebook et Twitter qui ont donc définitivement gagné la bataille… Google promet ainsi de mettre en avant les messages du Ministère de l’Intérieur pour les internautes recherchant des informations sur un attentat ou une catastrophe, tandis que Facebook et Twitter relaieront ces mêmes messages en cas d’alerte, au même titre que la RATP, Vinci Autoroutes ou encore Radio France.

Une preuve de plus que les multinationales de l’internet sont incontournables, même pour une mission aussi fondamentale par laquelle l’État cherche à informer sa population d’un danger imminent : dure leçon pour un État régalien aux abois !

L.V.

Publicités

La Russie joue les apprentis sorciers…

30 mai 2018

Le climat de la planète se réchauffe chaque jour davantage, mais c’est le cadet des soucis de la plupart des responsables politiques. Ceci est vrai aux États-Unis où Donald Trump relance à tout va l’exploitation des gaz de schiste et du charbon, tout en renonçant officiellement aux engagements pourtant minimalistes pris lors de la COP 21, mais aussi dans bien d’autres pays guère plus vertueux.

Plate-forme pétrolière au large de l’île de Sakhaline, exploitée dans le cadre d’une coopération russo-japonaise (photo © NGC Videsh LTD. / Bloomberg)

C’est le cas notamment de la Russie pourtant située dans un des secteurs les plus directement menacés par le changement climatique global, avec notamment des risques de fonte massive du permafrost aux conséquences potentiellement dévastatrices. Mais les Russes n’ont pas froid aux yeux et sont prêts à tout pour augmenter encore leur production d’hydrocarbures qui représente plus de 25 % du PIB national et couvrait en 2014 plus de la moitié du budget de l’État.

Les réserves de gaz et de pétrole situées majoritairement en Oural et dans le sud de la Sibérie étant en voie d’épuisement, c’est désormais vers le nord que se tournent les Russes qui profitent justement du réchauffement climatique global pour développer l’exploitation au nord de la Sibérie, dans les eaux arctiques, un secteur jusque-là relativement préservé du fait de la rigueur des conditions climatiques mais qui attire de plus en plus les convoitises du fait de la fonte rapide de la banquise.

Les Russes ne sont d’ailleurs pas les seuls sur le coup. Donald Trump a ainsi annoncé en début d’année, le 4 janvier 2018, l’ouverture de l’ensemble des eaux littorales américaines à l’exploitation d’hydrocarbures, en particulier au large de l’Alaska, une zone que Barak Obama avait pourtant tenté de sanctuariser. Les Norvégiens s’activent également et viennent coup sur coup de régler un vieux conflit frontalier avec la Russie pour le partage des ressources en mer de Barents, tout en se débarrassant devant les tribunaux d’une série de recours déposés par un groupe d’ONG mené par Greenpeace. Le géant pétrolier norvégien Statoil lance ainsi un projet de 5 milliards d’euros pour l’exploitation de ce nouveau champ pétrolier en mer de Barents.

Nettoyage des côtes de l’Alaska suite au naufrage de l’Exxon Valdez en 1989 (photo © Natalie Fobes / Corbis)

Même Total, pourtant réticent à se lancer dans l’exploitation pétrolière dans ces zones écologiquement très vulnérables, où le naufrage de l’Exxon Valdez en 1989, au large de l’Alaska, a laissé des traces indélébiles sur l’écosystème, n’a pas hésité à investir 20 % du projet russe gigantesque de 23 milliards d’euros, lancé en 2017 sur la presqu’île de Yamal pour l’exploitation de gaz, transporté par méthaniers brise-glace. Le projet est titanesque et a nécessité de mobiliser des dizaines de milliers d’ouvriers pour construire un port, un aéroport, une usine et des réservoirs, malgré un froid extrême. A partir de 2019, il devrait livrer 16,5 millions de tonnes de méthane par an et devrait être prolongé à partir de 2022 par un second site d’exploitation du nom d’Arctique 2.

Usine en construction sur le site de la péninsule de Yamal en Sibérie (photo © Novatek)

La fonte des glaces dans l’océan arctique rend en effet de plus en plus accessible cette route maritime du nord-est par laquelle la Russie peut désormais exporter une partie croissante de sa production directement vers la Chine et l’Asie du sud-est, n’hésitant pas à rouvrir d’anciennes bases militaires désaffectées pour sécuriser ce trafic maritime croissant tandis que la Chine voit d’un très bon œil le développement de cette nouvelle voie plus courte vers ses clients et fournisseurs : une des nouvelles routes de la soie passe désormais par le pôle nord…

Capture d’écran d’une vidéo diffusée par Greenpeace alertant sur la fonte record de la banquise en Arctique (source © Goddard Space Flight Center/NASA)

Mais l’Extrême-Orient russe est aussi une zone de forte convoitise pour l’exploitation d’hydrocarbures et, là encore, les Russes ne reculent devant rien pour aller y développer leurs forages pétroliers. On a vu ainsi tout récemment, le 19 mai 2018, s’amarrer dans le port de Moumansk, une gigantesque barge flottante de 144 m de long et 30 m de large, de couleur marron et moutarde, l’Akademik Lomonossov, remorquée depuis le port de Saint-Petersbourg où elle avait été construite.

La centrale nucléaire flottante amarrée dans le port de Mourmansk (photo © Alexander Nemenov / AFP)

Cet immense bloc flottant qui pèse pas moins de 21 000 tonnes, n’est en fait rien d’autre qu’une centrale nucléaire destinée à être guidée en 2019 jusque dans le port de Pevek, dans le district autonome de Tchoukotka, à 350 km au nord du cercle arctique, justement pour approvisionner en énergie, non seulement la petite ville elle-même et ses 5000 habitants, mais surtout les nombreuses plates-formes pétrolières installées au large.

Les pays riverains s’étaient opposés à ce que la centrale flottante soit chargée en combustible radioactif sur son lieu de construction mais le chargement est bel et bien prévu à Mourmansk, et c’est donc bien une centrale nucléaire flottante en activité qui va ainsi être remorquée sur des milliers de kilomètres dans un écosystème particulièrement fragile et dans des conditions de navigation difficiles.

Route maritime entre Mourmansk (à l’ouest) et Pevek (à l’est) au nord de la Sibérie (source © William Dunlap / Université de Durham)

Le conglomérat public nucléaire russe Rosatom, qui a construit cette centrale comportant deux réacteurs nucléaires de 35 MW chacun, se vante d’avoir réalisé une première mondiale et considère que cette technologie des centrales nucléaires mobiles, à laquelle s’intéressent également les Chinois, est appelée à se développer. A écouter la propagande officielle de Rosatom, « cette installation dispose des systèmes de sécurité les plus modernes et devrait être l’une des installations nucléaires les plus sûres au monde ». Elle devrait même permettre d’économiser près de 50 000 tonnes de CO2 chaque année, en évitant d’avoir recours aux hydrocarbures voire au charbon pour assurer cette alimentation en énergie.

Une véritable prouesse technologie donc, qui laisse en effet sans voix, à l’exception de quelques militants associatifs de Greenpeace, toujours soupçonneux, qui voient dans cette centrale nucléaire hors-normes – allez savoir pourquoi ? – un « Titanic nucléaire » voire un « Tchernobyl sur glace ». Certains ont vraiment l’esprit mal tourné…

L.V. 

Sous les ponts d’Ispahan coule…plus rien !

11 avril 2018

Vue de la ville d’Ispahan et de la rivière Zayandeh

La ville d’Ispahan, troisième d’Iran par sa population, avec plus de 2 millions d’habitants, fait partie de ces grandes métropoles urbaines qui se sont développées autour d’un cours d’eau, en l’occurrence le Zayandeh Rud, « le fleuve qui donne la vie » en persan. Prenant sa source dans les Monts Zagros, ce cours d’eau, l’un des rares permanents du pays, parcourt plus de 400 km avant de se jeter dans le lac Gavkhuni, un grand lac salé saisonnier perdu dans le désert.

Le madi Farshadi, canal d’irrigation destiné à répartir l’eau du Zayandeh

Située à plus de 1500 m d’altitude sur le plateau iranien aride, la ville est une oasis où la vie n’est possible que grâce au fleuve et aux multiples canaux d’irrigation, les madis, aménagés dès le 17e siècle qui distribuent l’eau à travers toute la ville et ses environs, y compris dans chaque maison organisée traditionnellement autour d’un patio intérieur cultivé et arboré. Avec une pluviométrie moyenne de 130 mm par an alors que l’évapotranspiration potentielle y atteint 1500 mm, aucune culture n’est en effet possible dans un tel contexte climatique sans irrigation.

C’est donc la rivière Zayandeh qui a permis à cette ville de se développer, au moins depuis le 4e siècle de notre ère puisque elle était un des centres urbains de l’empire sassanide avant la conquête musulmane, et de prospérer. C’est Malik Chah, un sultan seldjoukide qui en fait sa capitale après son accession au pouvoir en 1072.

La place meydān-e Naghsh-e Jahān au coeur de la ville d’Ispahan

Mise à sac par les troupes de Tamerlan en 1387, la ville redevient capitale à partir de 1597, à l’instigation de Chah Abbas, fondateur de la dynastie des Safavides, lequel transforme en profondeur la cité, aménageant notamment une grande place de 510 m de longueur, meydān-e Naghsh-e Jahān, une des plus grandes du monde, d’ailleurs classée au patrimoine mondial de l’humanité par l’UNESCO depuis 1979.

C’est de cette époque que date également la construction des grands ponts d’Ispahan, qui sont aujourd’hui au nombre de 11, permettant de franchir la rivière Zayandeh. Le plus ancien d’entre eux est probablement le pont Sharestan, dont les piles datent précisément de cette période sassanide entre le 3e et le 7e siècle après J.-C., mais dont les arches actuelles ont été reconstruites sous la dynastie des Seldjoukides aux alentours du 11e siècle.

Au pied du Si-o-Se Pol, l’un des plus célèbres ponts d’Ispahan, en 2002 (photo © Behrouz Mehri / AFP)

Le Si-o-Seh Pol, ou pont aux trente-trois arches, porte aussi le nom de son commanditaire Allahverdi Khan, un ministre de Chah Abbas, d’origine géorgienne, qui le fit construire vers 1608. Cet ouvrage sert non seulement pour le franchissement du cours d’eau mais a aussi une fonction de seuil, permettant de rehausser le niveau de l’eau à l’amont, pour permettre d’alimenter des prises d’eau qui irriguent les jardins de part et d’autre.

Le pont Khadju à Ispahan (photo © Kelly Cheng Travel Photography /Getty Images)

Comme le précédent, le pont Khadju, édifié cinquante ans plus tard sur les fondations d’un ouvrage préexistant, remplit également ce double office de pont et de barrage et sa structure est comparable, avec deux niveaux superposés, le second étant destiné à la promenade avec une allée centrale pour le passage des chevaux et des charrettes, et des allées latérales voûtées pour les piétons, mais aussi des cafés et des loggias permettant d’admirer le paysage. Pourvu de 23 arches, il présente une longueur totale de 133 m, pour une largeur de 12 m, ce qui en fait un ouvrage d’art remarquable pour cette période.

Ces ponts d’Ispahan, très prisés comme lieux de promenade, constituent un attrait touristique majeur. Sauf que la belle carte postale de l’eau coulant majestueusement entre les arches, formant au passage de joyeuses cascades, relève désormais du passé. Périodiquement asséchée au plus fort de l’été, la rivière Zayandeh a en effet purement et simplement disparu du paysage, ne laissant aux yeux du visiteur ébahi qu’un paysage aride de sable et de gravier ! A se demander même pourquoi l’empire perse a dépensé une telle énergie pour édifier de pareils ouvrages d’art alors que le lit de la rivière se traverse désormais à pied sec quasiment toute l’année…

Le pont Khadju dans son état actuel (source © Le site de Madeleine et Pascal)

La disparition du cours d’eau qui alimente depuis toujours la ville d’Ispahan date du début des années 2000. A l’époque, chacun accusait la sécheresse qui bien sûr n’est pas totalement étrangère au phénomène. Mais la vérité est que l’essentiel de l’eau du Zayandeh Rud est, depuis cette date, détournée en amont vers la région de Yadz qui se trouve être la ville natale de l’ancien président Mohammad Khatami.

Musée antique de l’eau à Yadz

Une ville oasis également, sans doute une des plus anciennes cités du monde puisque fondée aux alentours du troisième millénaire avant J.-C., située dans l’ancien empire des Mèdes, un des foyers de la religion zoroastrienne, puis une étape caravanière sur la Route de la Soie. Le canal qui détourne l’eau du Zarendeh vers cette zone désertique alimente d’ailleurs aussi la ville de Kerman, région natale d’un autre président, Hachemi Rafsandjani, lequel possède des champs de pistache qui en font un des premiers exportateurs du pays et pour lesquels les besoins d’irrigation sont prioritaires.

Cette disparition du fleuve détourné au profit d’autres régions alimente la colère des habitants d’Ispahan et surtout des agriculteurs de la région qui se désespèrent de voir leurs récoltes se dessécher sur pied. Plusieurs émeutes ont ainsi éclaté, les dernières datant de février 2013 selon Le Monde : les habitants du village de Varzaneh ont alors détruit les installations d’eau dans leur village, amenant les prêcheurs publics de la ville à les traiter d’« opportunistes égarés » et à les accuser de « collaboration avec l’ennemi ». La police n’a pas hésité à tirer, blessant trois manifestants avec des balles en caoutchouc, mais les habitants ont du moins obtenu, suite à ces incidents, la reconnaissance, par le procureur du tribunal révolutionnaire d’Ispahan, de la mauvaise gestion de certains anciens responsables du ministère de l’énergie dans la répartition de l’eau.

Manifestation d’agriculteurs devant le pont Khadju au centre d’Ispahan, le 7 avril 2018 (source : France Mojahedin)

De nouvelles émeutes se sont encore produites tout récemment, depuis le 16 février 2018, selon un communiqué du Conseil national de la résistance iranienne, les habitants de plusieurs quartiers périphériques d’Ispahan défilant en scandant « Rohani le menteur, où est notre rivière ? ». Le 18 mars dernier, un camion transportant des munitions a d’ailleurs pris feu alors qu’il venait ravitailler les forces spéciales anti-émeutes de la police à Varzaneh, de nouveau engagées contre les manifestations d’agriculteurs en colère.

Encore un exemple qui prouve à quel point les batailles de l’eau deviennent un enjeu majeur, surtout dans des régions en forte croissance démographique et confrontées à un climat aride pour lequel les effets du réchauffement climatique global ne vont certainement pas arranger les choses…

L.V.  

A Bangalore, il y a le feu au lac !

6 avril 2018

La ville de Bangalore, créée au 16ème siècle sur les plateaux du Dekkan, au sud de l’Inde, a longtemps gardé sa réputation de cité-jardin, plutôt verdoyante, baignée par pas moins de 285 lacs qui lui ont toujours fourni de l’eau en abondance. Devenue en 1956 capitale du nouvel État de Karnataka, la ville ne comptait alors que 800 000 habitants. Mais à partir des années 1990, Bangalore est devenu le pôle indien des nouvelles technologies, la Silicon Valley locale, et sa population a littéralement explosé sous l’effet d’un boom démographique peu courant puisqu’elle est passée de 3 millions d’habitants en 1991 à 10 millions actuellement.

Centre d’affaire UB City à Bangalore, mégapole de 10 millions d’habitants

Bien évidemment, cet afflux de population s’est traduit par une urbanisation foudroyante. De nombreux lacs ont été comblés et les espaces naturels bétonnés pour laisser place aux immeubles de bureaux et d’habitation, si bien qu’on ne compte plus que 192 plans d’eau désormais, mais qui sont devenus de véritables cloaques, réceptacles des eaux usées insuffisamment traitées et des déchets de toutes sortes.

A la surface du lac Bellandur, le plus grand de la ville, dont la surface est partiellement masquée par les plantes invasives qui s’y développent, et sur les canaux qui l’alimente, flotte régulièrement une espèce de mousse blanchâtre, issue d’un mélange entre les eaux usées qui se déversent directement dans le milieu naturel, et des produits toxiques provenant des usines chimiques proches de la ville. Lorsque le vent se lève, cette mousse se désagrège et vient retomber sur les habitants de Bangalore, comme une neige toxique qui irrite la peau et les bronches des plus fragiles.

Piétons sur un pont traversant le chenal d’entrée du Lac Bellandur recouvert de mousse en 2015 (photo © Manjunath Kiran/AFP/Getty Images)

Les autorités ont bien essayé de se prémunir de ce phénomène en posant des filets destinés à empêcher les envols de mousse, et en arrosant périodiquement la surface des eaux polluées pour disperser la mousse toxique, mais l’effet de ces mesures reste limité.

Le 19 janvier dernier, alors que la température ambiante dépassait allègrement les 30 °C, cette mousse a purement et simplement pris feu, dégageant une épaisse fumée blanche peu rassurante qui se répand au milieu des immeubles d’habitation tout proches. Les pompiers ont mis plusieurs heures pour éteindre cet incendie inhabituel se propageant à la surface du lac.

Incendie à la surface du lac Bellandur près de Bangalore, le 16 février 2017 (photo © Aaditya Sood / The Gardian)

Et cet incendie n’est que le quatrième en trois ans ! Un article très documenté publié dans The Guardian en mars 2017 rapporte en effet qu’un phénomène similaire s’était déjà produit le 16 février 2017, toujours sur le même lac Bellandur, les pompiers ayant alors mis plus de 12 heures pour en venir à bout. Ce même article rapporte qu’un autre incendie du même type avait aussi été observé en mai 2015.

D’après certains chercheurs qui observent depuis plus de 20 ans l’évolution des lacs Bellandur et Varthur, ce sont de l’ordre de 400 à 600 millions de litres d’eaux usées non traitées qui se déversent chaque jour dans ces lacs, entretenant un milieu particulièrement enrichi en matière organique. La surface des lacs étant recouverte par une épaisse couche de jacinthes d’eau qui empêche l’oxygénation des eaux, du méthane se développe dans les couches superficielles du lac, ce qui explique l’inflammabilité de ce dernier, le feu étant ensuite alimenté par la présence de pétrole et de phosphore flottant sur l’eau au milieu des nombreux déchets.

Poissons morts à la surface d’un lac de Bangalore en mars 2016 (source © L’Express)

De tels incendies à la surface de lacs lourdement pollués étaient d’ailleurs monnaie courante dans les années 1960 aux États-Unis, comme le rappelle Yann Quero sur son blog. Ce phénomène avait notamment été observé à plusieurs reprises à Cleveland (Ohio) dans la rivière Cuyahoga qui traverse la ville avant de se jeter dans le lac Érié. Dans ce cours d’eau, la concentration en produits chimiques a provoqué au moins une douzaine d’incendies et d’explosions, les plus graves ayant eu lieu en 1952 et en 1969.

A l’époque, cela avait amené les Américains à mettre en place, dans les années 1970, des normes plus sévères destinées à limiter la pollution des milieux aquatiques. Mais c’est aussi un des facteurs qui a poussé les Américains comme d’ailleurs les Européens à délocaliser leurs industries polluantes et dangereuses vers les pays du Sud, notamment en Inde et en Chine, qui ont connu à leur tour le spectacle pittoresque de la neige en été et des lacs qui prennent feu spontanément…

A Bangalore, cette pollution des eaux est d’autant plus inquiétante qu’elle concerne désormais non seulement les eaux superficielles où l’on ne compte plus les mortalités piscicoles, mais aussi les nappes souterraines dans lesquelles la ville s’approvisionne en eau potable. Science et Avenir relevait ainsi en mars dernier que près de la moitié de l’agglomération doit désormais être approvisionnée par des milliers de camions citernes qui transportent de l’eau pour les besoins quotidiens de la ville.

Camions citernes fournissant de l’eau à des logements de Bangalore, le 27 février 2018 (photo © Manjunath Kiran / AFP)

Il y a un mois, la Cour suprême a même dû intervenir pour arbitrer un accord de partage des eaux de la rivière Cauvery entre le Karnataka, région de Bangalore, et l’État voisin du Tamil Nadu. Ce cours d’eau qui traverse le Karnataka puis le Tamil Nadu avant de s’écouler dans le golfe du Bengale est en effet un enjeu majeur, âprement disputé entre les besoins de la ville de Bangalore et ceux des agriculteurs voisins. Il y a deux ans, une décision judiciaire ordonnant au Karnataka de lâcher de l’eau pour pallier une sécheresse qui menaçait les cultures du TamilNadu avait déclenché des émeutes mortelles à Bangalore et provoqué une situation de troubles quasi insurrectionnels.

C’est dire à quel point la bataille de l’eau a déjà commencé à cet endroit comme en de nombreux autres points du globe… La ville de Bangalore, dont la survie à moyen terme est désormais menacée du fait de ces difficultés d’approvisionnement en eau, n’est assurément pas la seule agglomération menacée ainsi de pénurie. Reste à savoir si ses habitants arriveront à réagir et à reconstituer des milieux aquatiques plus sains avant qu’il ne soit trop tard…

L.V. 

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

Changement climatique : pourquoi personne ne bouge ?

22 février 2018

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Inondations : on a trouvé les coupables !

3 février 2018

Une nouvelle fois, la France vient de connaître une vague d’inondations spectaculaires. A Paris, le niveau de la Seine est monté la semaine dernière à 5,85 m et aurait selon toute vraisemblance dépassé les 6,40 m sans l’action des quatre lacs-réservoirs situés en amont du Bassin parisien. A un tel niveau, certes très inférieur à celui observé en janvier 1910, mais qui n’avait pas été atteint depuis 1955, les dégâts sur les réseaux et infrastructures auraient pu être considérables, en particulier sur le réseau de transports et notamment le RER C qui commence à être sérieusement menacé au-delà de 6,20 m.

Les bords de Seine à Paris le 22 janvier 2018 (photo © Stéphane de Sakutin / AFP)

Et comme toujours dans ces cas-là, on cherche les coupables… Ainsi que lors de chaque épisode de ce type, les rumeurs les plus absurdes courent, alimentées par la certitude, aussi irrationnelle que récurrente, selon laquelle : « ils nous ont inondés pour protéger Paris » (ou tout autre ville d’ailleurs, selon l’endroit où l’on se place…). Il est toujours difficile d’admettre que l’on a été inondé parce qu’il a beaucoup plu et que l’on est situé en zone inondable, dans le lit majeur d’un cours d’eau…

Et ceci malgré tous les dispositifs de protection contre les inondations qui ont pu être mis en place et qui ont souvent joué un rôle atténuateur très bénéfique comme cela a été le cas en janvier 2018 avec les lacs-réservoirs qui ont dérivé et stocké en amont du bassin versant des centaines de millions de mètres cube d’eau, réduisant d’autant les débits en aval.

Alors, puisque l’on a vraiment besoin de trouver un bouc émissaire, ne cherchez-plus. L’explication à ces inondations, exceptionnelles par leur ampleur et leur durée, est parfaitement claire sur la photo suivante, prise le 31 janvier 2018 sur la commune de Montesson, dans les Yvelines, et garantie sans trucage : c’est simplement un étourdi qui a oublié de fermer le robinet…

A Montesson, le 31 janvier 2018 (photo © Frédéric Gache / EPTB Seine Grands Lacs)

Et pour les Parisiens qui ont une dent contre la politique menée depuis des années par la Ville de Paris en faveur de la réduction de la voiture en ville et de la réappropriation des voies sur berges par les piétons, voici une seconde explication, tout aussi recevable…

Dessin de Lacombe publié dans Marianne le 2 février 2018

Lorsque les forces de la nature dépassent l’entendement, il est toujours rassurant de se raccrocher à des explications simples et pleines de bon sens !

L.V.  

USA : le sapin de Noël détrôné par le cannabis

10 janvier 2018

Voilà une nouvelle qui a fait le buzz juste avant les fêtes de Noël mais dont on ne se lasse pas tant elle est emblématique des circuits de la mondialisation ! Cette année, les producteurs canadiens de sapins de Noël se frottent les mains, eux qui exportent plus de la moitié de leurs sapins vers les États-Unis voisins. Leurs ventes vers les USA ont en effet connu un bond en avant spectaculaire : + 40 % par rapport à 2015 ! Cette année, selon le Journal du Québec, ce sont près de 1,5 million de conifères qui ont ainsi été exportés vers les USA, soit un marché de plus de 35 millions de dollars. Pour le Canada, c’est Noël avant l’heure…

La raison de ce succès commercial inespéré ne réside pas dans un engouement inhabituel des Américains pour une tradition festive ancrée de longue date dans les mœurs locales, mais traduit simplement une pénurie de sapins dans les États américains traditionnellement producteurs. Comme souvent, plusieurs facteurs viennent expliquer cette pénurie.

Plantation de sapin dans l’Oregon (source RFI ; photo © UIG via Getty Images)

La sécheresse qui a sévi dans l’État de Washington mais aussi les incendies qui ont ravagé la Californie à plusieurs reprises cette année ont quelque peu contribué à cette situation. En octobre dernier, celui qui s’était déclaré dans la région de Santa Rosa, détruisant près de 6000 bâtiments et causant la mort de 42 personnes, avait en effet réduit en cendres pas moins de 864 km2 de zones résidentielles et de forêts, dont quelques pépinières.

Mais c’est un autre phénomène, de nature plus prosaïque, qui explique pour l’essentiel cette pénurie de sapins de Noël dans l’Ouest américain. En fait, les producteurs se sont tout simplement tournés vers une activité nettement plus lucrative, à savoir la culture du cannabis. Ainsi, dans l’Oregon, petit État de 4 millions d’habitants qui fut longtemps l’un des grands producteurs de sapins de Noël mais où la production de marijuana est en train de prendre de l’ampleur, la production de sapins ne cesse de chuter : de 6,4 millions de plants en 2013, elle devrait passer sous les 5 millions cette année. Le nombre de producteurs aurait, selon le département de l’agriculture de l’Oregon, diminué de 30 % entre 2010 et 2015.

Plantation de cannabis aux USA (crédit photo © The Lane Report)

Aux États-Unis, ce sont les États de Washington et du Colorado qui ont adopté les premiers, dès novembre 2012, une législation légalisant l’usage récréatif du cannabis. Depuis le 1er janvier 2014, un utilisateur de cannabis du Colorado est ainsi autorisé à cultiver librement pour ses propres besoins. Depuis le mois de juin de la même année, il en est de même dans l’État de Washington où des producteurs de marijuana sont désormais habilités à cultiver à titre commercial. L’Alaska leur a emboîté le pas à partir de novembre 2014. En Oregon, la consommation à usage récréatif est devenue licite en juillet 2015 mais il a fallu attendre début 2016 pour que soient autorisées les premières plantations.

Depuis, le mouvement s’est accéléré. A partir du 1er janvier 2018, la Californie est ainsi devenue le huitième État américain à légaliser le cannabis à usage récréatif alors que son utilisation à but thérapeutique y est déjà licite depuis 1996, comme désormais dans une vingtaine d’autres États américains. La décision y avait été prise par référendum, en novembre 2016 : en même temps que les Américains choisissaient en la personne de Donald Trump leur 45ème président fédéral, les habitants de la Californie, mais aussi leurs voisins du Nevada ainsi que ceux du Maine et du Massachusetts, sur la côte Est des États-Unis, décidaient de rendre légale la consommation de cannabis. La cohérence entre ces deux décisions prises simultanément confirme, s’il en était besoin, que dans une démocratie les avis peuvent être multiples…

Carte de la situation selon les États américains (infographie © Le Figaro)

Toujours est-il que les enjeux économiques d’une telle décision ne sont pas anodins et risquent d’avoir des répercussions au-delà du seul marché des sapins de Noël canadiens… Ainsi, dans le Colorado où la marijuana est en vente légale depuis 2014, on considère que le marché du cannabis a créé 18 000 emplois à temps plein en trois ans, ce qui n’est pas si mal pour un État peuplé de 5 millions d’habitants. L’afflux touristique s’est considérablement accru et surtout les rentrées fiscales ont été telles qu’il a fallu reverser aux contribuables le trop-perçu. En effet, la constitution du Colorado fixe un plafond aux contributions fiscales de chaque citoyen. L’État ayant décidé de taxer à hauteur de 30 % les ventes de cannabis s’est ainsi retrouvé à la tête d’un pactole inattendu de 50 millions de dollars supplémentaires, soit 30 de trop par rapport au plafond autorisé par la constitution, si bien que chaque habitant s’est vu crédité d’un chèque de 7,63 $…

Projection des ventes de cannabis à usage récréatif et thérapeutique d’ici 2021 (source © Arcview market research)

En 2016, selon une étude du Arcview market research, les Américains auraient ainsi dépensé de l’ordre de 6,7 milliards de dollars pour l’achat de cannabis légal, soit une augmentation de 34 % depuis 2015. Et le mouvement ne fait sans doute que commencer puisque les projections estiment que ce marché devrait atteindre de l’ordre de 22 milliards d’ici 2021, la plus forte croissance étant liée à l’usage récréatif du cannabis, dont le marché pourrait passer de 1,9 milliards en 2016 à près de 15 milliards d’ici 2021.

Le principal bénéficiaire de cette croissance juteuse en sera probablement la Californie qui devrait s’adjuger une part importante de ce marché en pleine expansion. Les producteurs de cannabis y seront taxés à hauteur de 15 % et les ventes à hauteur de 10 %, auxquels s’ajouteront des taxes communales variant entre 2 et 10 %, soit de belles rentrées fiscales supplémentaires en perspectives. De quoi peut-être donner des idées à notre gouvernement dans sa volonté de réduire le déficit de l’État sans forcément trop rogner sur les dépenses publiques ?

L.V.  

Le déluge : mythe ou réalité ?

11 décembre 2017

Chacun a en mémoire le fameux récit biblique du déluge dans lequel il est écrit en substance que Dieu, mécontent de la conduite des hommes, déclencha une formidable inondation qui dura 40 jours et 40 nuits, et noya toute trace de vie sur terre à l’exception du brave Noé et de toute sa famille. Celui-ci avait été chargé de construire une solide arche, aux planches soigneusement calfatées de goudron et dans laquelle il avait mis à l’abri un couple de chacune des espèces animales, ce qui lui permit finalement de repartir sur de nouvelles bases, une fois l’inondation achevée et l’arche échouée.

L’arche de Noé sur le Mont Ararat (tableau de Simon de Myle, peint vers 1570)

Ce récit fondateur qui marque les esprits a longtemps servi de fil conducteur, y compris aux yeux de certains scientifiques qui s’appuyaient sur lui pour expliquer la présence de nombreux coquillages fossiles retrouvés jusque sur les sommets des montagnes alpines. On sait désormais, grâce à la compréhension des mouvements tectoniques et à une meilleure connaissance de la datation des couches sédimentaires, qu’il n’est nul besoin de faire appel à ce récit biblique pour expliquer de telles observations.

Onzième tablette racontant l’épopée de Gilgamesh et le récit du déluge (source © British Museum)

Et pourtant, paradoxalement, les connaissances historiques et géologiques récentes donnent du crédit à ce récit de l’Ancien Testament. L’affaire ne date pas d’hier puisque c’est en 1872 que George Smith, un des premiers à découvrir et à traduire les tablettes d’argile recouvertes d’écritures cunéiformes de Mésopotamie, gravées il y a plus de deux mille ans avant J.-C., a fait connaître au monde entier l’épopée de Gilgamesh.

Dans cette histoire, dont on a désormais retrouvé de nombreuses versions, les plus anciennes remontant à l’époque sumérienne, au 3ème millénaire avant J.-C., le héros Gilgamesh rencontre le supersage Atrahasis qui lui raconte que jadis les dieux en colère, lassés du vacarme incessant des humains, avaient décidé de s’en débarrasser en inondant la terre. Mais le dieu des eaux souterraines, un certain Ea, les trahit, avertit son ami Atrahasis du danger, et lui enjoint de fabriquer sans attendre un solide bateau aux planches calfatées de bitume, et d’y faire entrer un specimen de chaque espèce animale (d’autres versions, plus futuristes, évoquent plutôt « la semence de toutes les créatures vivantes »).

Les tablettes d’argile relatent une inondation plus courte (7 jours seulement) mais l’épilogue, qui consiste à lâcher une colombe pour vérifier si elle aperçoit signe de terre rappelle furieusement l’idée de Noé, même s’il fallut, dans la version sumérienne, doubler la tentative avec le lâcher d’une hirondelle puis d’un corbeau…

Le déluge, frontispice de la bible illustrée par Gustave Doré (1866)

Bref, les nombreuses similitudes entre ces récits indiquent avec une quasi certitude que l’histoire de Noé, probablement écrite vers le VIIe siècle avant J.-C., soit plusieurs millénaires sans doute après les premières versions assyriennes, fixée sur les rouleaux manuscrits de la Mer Morte puis recopiée de génération en génération, s’est très vraisemblablement inspiré du précédent, d’autant que le peuple juif a été longtemps placé sous domination assyrienne.

De nombreux chercheurs ont cherché d’autres filiations de ce type, tant les récits fondateurs qui évoquent des inondations cataclysmiques du même type se retrouvent dans le monde entier, en Inde comme parmi certaines civilisations amérindiennes, et même chez les aborigènes d’Australie où il se raconte l’histoire d’une grenouille qui aurait bu toute l’eau de la Terre, au point que les autres animaux assoiffés n’ont eu d’autre choix que de la faire rire, provoquant de la sorte une formidable inondation…

Certains de ces récits retiennent néanmoins l’attention, dont celui retracé dans les écrits mythologiques du pseudo Apollodore, datés du 1er siècle et qui évoquent un déluge qui aurait mis fin à l’âge du bronze, les seuls survivants étant le fils de Prométhée, un certain Deucalion et son épouse Pyrrha, dont la barque s’échoue sur le sommet des montagnes. Là aussi, les convergences avec le récit biblique sont étonnantes, ce qui tend à affermir l’idée d’une inondation exceptionnelle survenue en des temps très reculés dans cette région et dont la mémoire collective se serait transmise de génération en génération.

Les Américains William Ryan et Walter Pitman, auteurs en 1998 de l’ouvrage Noah’s Flood

Curieusement, plusieurs scientifiques pensent désormais disposer d’hypothèses assez solides qui pourraient expliquer l’origine de tels événements. En 1993, une expédition géologique américano-russe a ainsi en évidence, en analysant des sédiments déposés au fond de la Mer Noire, des indices montrant un passage assez brutal d’eau douce à de l’eau salée. Selon leurs observations, au cours de la dernière glaciation, celle du Würm, qui s’est étalé de -110 000 à -10 000 ans environ, la Mer Noire s’est retrouvée totalement déconnectée de la Méditerranée. Du fait de la glaciation, le niveau des océans avait baissé de plus de 130 m et les détroits du Bosphore et des Dardanelles étaient alors émergés.

Avec le réchauffement progressif, la fonte des glaces sur les plaines ukrainiennes a alimenté en eau la vaste dépression de la Mer Noire qui se transforma en un lac d’eau douce, toujours isolé de la Méditerranée et autour duquel se sont installées de nombreuses populations. Vers 7500 avant J.-C., la brutale remontée du niveau de la Méditerranée se serait traduite par un déversement brutal des eaux de cette dernière dans la Mer Noire dont le niveau se situe 200 m plus bas, provoquant la fuite des populations vers le Mont Ararat, seul point culminant situé à 300 km du rivage mais visible de très loin.

La Mer Noire (source © Google Earth)

Le géologue américain Robert Ballard

En 1999 et 2000, le géologue Robert Ballard, celui-là même qui retrouva l’épave du Titanic, avait également entrepris des investigations dans ce secteur et retrouvé des traces de l’ancien rivage côtier de la Mer Noire avec des vestiges d’érosion qu’il attribue à des flots se déversant sous forme de cataractes depuis la Méditerranée. Autant d’éléments qui accréditeraient cette hypothèse d’une inondation brutale et rapide des riveges de la Mer Noire, provoquant chez les survivants un traumatisme de nature à se transcrire de génération en génération sur un temps long. De nombreux chercheurs attribuent d’ailleurs cette ouverture brutale du détroit du Bosphore à un mouvement sismique de l’extrémité de la faille nord-anatolienne, ce qui aurait en effet pu provoquer un déversement cataclysmique des eaux de la Méditerranée dont le niveau était fortement remonté sous l’effet du réchauffement climatique.

Le chercheur français Guillaume Soulet, auteur d’une thèse intitulée Changements hydrologiques de la mer Noire au cours des 30 derniers millénaires et la dernière déglaciation en Europe centrale, sous la direction d’Edouard Bard et Gilles Lericolais

L’équipe d’Edouard Bard basée au CEREGE s’est également intéressée de près à ce sujet et a montré que la réalité était sans doute beaucoup plus complexe que ne l’avaient imaginé en 1997 les Américains Bill Ryan et Walt Pitman, dont l’ouvrage paru en 1998 sous le nom de Noah’s Flood avait eu alors une énorme retentissement. D’après Guillaume Soulet, qui a soutenu en 2011 une thèse sur le sujet, la connexion de la Mer Noire via le Bosphore est plus ancienne et daterait plutôt de 8 300 avant J.-C. Et il s’agirait plus vraisemblablement d’un phénomène se produisant par a-coups, suite à des épisodes de réchauffement successifs, étalés sur de longues périodes, ce qui laisse penser que les mouvements de population des rives de la Mer Noire vers les plaines plus fertiles de la Mésopotamie, survenus vers 7500 avant J.-C., pourraient avoir été induites au moins davantage par une évolution démographique inéluctable que par un phénomène d’inondation brutale.

Un scénario qui demande sans doute à être confirmé et vraisemblablement affiné mais qui laisse songeur quand à ce qui peut nous attendre du fait du réchauffement climatique actuellement à l’oeuvre et qui lui est d’une rapidité jamais rencontrée dans l’histoire de la Terre. Quand on sait que la fin de cette glaciation, qui s’est traduite par une élévation du niveau des mers d’environ 130 m, ne résulte finalement que d’une augmentation moyenne de 4 °C de la température du globe, soit une valeur tout à fait comparable à ce que prédisent les scénarios du GIEC pour les décennies à venir, voila qui ne devrait pas manquer de nous inquiéter…

L.V.  

Les inondations irriguent aussi la photographie

9 décembre 2017

Certains sujets semblent davantage que d’autres inspirer les artistes, à moins qu’il ne s’agisse d’effets de mode. Les peintres d’antan se délectaient de natures mortes et de batailles navales. Les photographes d’aujourd’hui s’inspirent beaucoup des inondations, certes devenues de plus en plus spectaculaires à force de construire toujours davantage en zone inondable…

Nous avions déjà cité ici le travail remarquable de Jérôme Knez qui avait eu l’idée de juxtaposer à des photos d’archives de la grande crue parisienne de janvier 1910 d’autres clichés pris exactement au même endroit pendant l’inondation de juin 2016. Il faut croire que ce dernier événement a frappé les imaginations. Bien que modeste par son impact sur Paris, il avait quand même occasionné pour environ 1,4 milliards d’euros de dommages selon les assureurs si on totalise l’ensemble des dégâts observés durant toute la durée de cet événement météorologique, plutôt rare pour la saison et qui s’était traduit sur certains cours d’eau dont le Loing par une crue au moins centennale. Un tel montant en fait d’ailleurs l’inondation la plus coûteuse depuis 35 ans qu’existe le dispositif d’indemnisation des catastrophes naturelles en France !

Le Grand Palais et le pont Alexandre III (photo © Benoît Lapray)

En tout cas, cet événement a inspiré d’autres artistes dont Benoit Lapray qui s’était déjà fait connaître notamment pour ces photos de superhéros « en quête d’absolu ». La série d’images intitulées « when te night falls » et qui est notamment consultable dans le magazine The Photo Academy, est constituée également de doublons de clichés, pris exactement au même endroit et selon un cadrage rigoureusement identique.

Les immeubles du quai André Citroën dans le 15e arrondissement (photo © Benoît Lapray)

Mais pour chacun des sites, les deux images sont le jour et la nuit. Tous les clichés nocturnes ont été pris de nuit, au plus fort de la crue de juin 2016. Quant à leurs équivalents diurnes, ils ont été pris sous un soleil radieux, un an plus tard, alors que la crue de 2016 n’était plus qu’un lointain souvenir.

Quai de la Rapée (photo © Benoît Lapray)

Du coup, le contraste est saisissant entre les clichés pris à la lueur des réverbères en juin 2016 alors que l’eau noire de la Seine submergeait les voies sur berges et venait lécher le tablier de certains ponts, et ceux pris en plein jour un an plus tard et pour lesquels on a bien du mal à imaginer que les promenades verdoyantes et les jardins publics en bordure de Seine puissent être recouverts par 1 m d’eau voire bien davantage.

Au pied du pont Alexandre III (photo © Benoît Lapray)

Une série de clichés en tout cas très pédagogique et qui incite les Parisiens à conserver en tête cette idée que le coeur de la capitale et notamment certains quartiers en bord de Seine sont particulièrement vulnérables en cas de crue majeur du fleuve qui les traverse.

Et ce photographe n’est pas le seul à mettre ainsi en scène l’impact des inondations sur notre quotidien. Citons aussi son collègue sud-africain Gideon Mendel dont les clichés ont fait le tour du monde et ont été repris par de très nombreux médias. Depuis 2007, cet artiste a sillonné le monde, de la Caroline du Sud au Pakistan, en passant par le Brésil, l’Allemagne ou le Nigéria, pour témoigner visuellement de la manière dont les habitants sont impactés dans leur intimité par des inondations.

Un cliché de la série Portraits submergés (photo © Gideon Mendel)

Il en a tiré quatre séries rassemblées sous le titre accrocheur « Un monde qui se noie » et qui ont été notamment exposées aux Rencontres d’Arles en septembre dernier. La première de ces séries, « Portraits submergés », peut-être la plus spectaculaire, met en scène de simples habitants, souvent des couples, qui posent sur le pas de leur porte ou dans leur salon envahi d’eau boueuse dans laquelle ils disparaissent parfois jusqu’à mi-corps voire jusqu’aux épaules.

Dans une maison inondée du Yorkshire (Royaume-Uni) en 2007 (photo © Gideon Mendel, extraite de la série Portaits submergés)

On lit dans le regard de ces victimes des intempéries un certain fatalisme, mais aussi beaucoup de désarroi et de désespoir devant la perte de leur propre habitat devenu totalement inutilisable du fait de l’eau boueuse qui s’est engouffrée partout. On repense au slogan choc qu’avait mis en avant l’établissement public Loire pour rappeler aux populations riveraines que le risque inondation est toujours présent même si les populations l’ont largement oublié depuis les fortes crues qui s’étaient succédé en 1846, 1856, 1866 et 1907 notamment : « parce que la Loire est mieux dans son lit que dans le vôtre… ».

Maison inondée au Royaume-Uni (photo © Gideon Mendel, extraite de la série Lignes de crue)

Sauf que pour ces victimes d’inondation, l’eau s’est bel et bien répandue dans leur salon et leur chambre à coucher, tranformant à jamais ce qui était leur cadre de vie quotidien en un milieu hostile dans lequel leurs effets personnels sont en train de pourrir lentement. La série de clichés intitulée « Ligne d’eau » insiste justement sur les marques laissées par l’eau dans un décor vide de ses habitants mais tout aussi poignant de désolation.

Photo délavée récupérée dans une maison au Bengladesh (photo © Gideon Mendel, extraite de la série Trace d’eau)

Quant à la série dénommée « Traces d’eau », le photographe Gideon Mendel montre des agrandissements des photos personnelles définitivement altérées par le séjour prolongé dans l’eau boueuse et que leurs propriétaires ont soigneusement repêchées pour tenter de conserver un peu des souvenirs de leur vie, gâchée à tout jamais par la catastrophe qui les a touchés. On y voit des visages à moitié effacés, révélateurs de la fragilité de tout ce qui fait notre vie quotidienne face à un risque naturel.

Un beau travail esthétique et pédagogique qui mérite d’être salué en espérant qu’il pourra aider certains à prendre conscience qu’il vaut mieux se préparer à toute éventualité quand on vit en zone inondable : le fait d’avoir conscience du risque permet en effet de réduire fortement sa propre vulnérabilité. Une crue n’est jamais qu’un événement naturel récurrent et il dépend largement de notre comportement et de notre niveau d’adaptation qu’il ne se transforme pas en un drame personnel. Une chose est sûre : faire l’autruche en se persuadant que cela n’arrive qu’aux autres n’est certainement pas la meilleure façon de s’y préparer…

L.V.  

Carnoux en noir et blanc…

3 décembre 2017

Il y a un peu plus de trois mois déjà, le 19 août 2017, la zone boisée située entre Aubagne et Carnoux s’embrasait. Il avait fallu alors une mobilisation exceptionnelle des services d’incendie et de secours pour parvenir in extremis à arrêter les flammes le long de l’avenue Jean Bart, sans pouvoir pour autant empêcher que plusieurs haies de thuyas ne se transforment en torches dans les jardins des propriétés les plus exposées. Une fois l’incendie maîtrisé, c’est un spectacle de désolation qui s’étend désormais sur tout le flanc nord de la commune, visible même depuis l’espace, et qui vient rappeler à chacun à quel point la ville est vulnérable face à ce type de risque naturel.

Les chutes de neige survenues hier et qui ont saupoudré quelques centimètres de poudreuse dans les rues de Carnoux ont tranformé en quelques heures ce paysage dévasté, noir et calciné, devenu comme par enchantement d’une blancheur éclatante.

Ce matin, sous le soleil revenu, le spectacle était saisissant de contraste entre le sol recouvert d’un mince manteau neigeux quasi continu et les branches sombres, tordues, comme torturées par l’incendie, qui se dressaient vers le ciel, d’un bleu intense. De quoi rappeler à chacun la triste réalité de ce feu de forêt qui a bien failli réduire la commune à l’état de cendre, comme bien d’autres villes dans le monde exposées elles-aussi à de terribles feux de forêt cet été et qui n’ont pas eu la possibilité d’être protégées.

L.V.  

Il neige sur Carnoux-en-Provence…

2 décembre 2017

C’est l’hiver et il neige. Malgré les effets du réchauffement climatique global, voilà qui n’a rien d’extraordinaire à cette saison. Mais quand même, ce n’est pas tous les jours, ni même tous les ans, que la ville de Carnoux-en-Provence, pas plus d’ailleurs que ses voisines Aubagne, Aix-en-Provence ou encore Marseille se réveillent recouvertes d’un blanc manteau neigeux comme c’est le cas depuis ce matin, samedi 2 décembre.

Notre-Dame d’Afrique sous la neige, le 2 décembre 2017

En ce jour anniversaire de la victoire napoléonienne d’Austerlitz contre les armées russes et autrichiennes, il neige donc depuis ce matin sur les Bouches-du-Rhône entre la région aixoise et l’étang de Berre. Dans le Var voisin, on signalait déjà 15 cm de neige ce matin au lever du jour et 3000 foyers étaient privés d’électricité du fait des ruptures de lignes aériennes.

A Carnoux, la couche de neige ne dépassait pas quelques cm au même moment mais il a continué à neiger toute la matinée et la ville s’est donc parée de ses habits d’hiver, pour quelques heures tout au plus car les chutes de neige devraient s’arrêter en milieu de journée selon les prévisions de Météo France, avec toutefois des risques de verglas possibles dans la nuit.

Quoi qu’il en soit, le spectacle de Carnoux sous la neige, même sans soleil, est suffisamment rare pour ne pas en profiter et jeter un œil par la fenêtre sur les pins saupoudrés de neige…

Un mail inhabituellement déserté dans la traversée de Carnoux

Une circulation devenue momentanément quelque peu périlleuse

Le Centre culturel sous la neige

Devant la médiathèque Albert Camus

Des pins largement saupoudrés de neige

La mairie éventrée, blanchie sous le harnais

Les cèdres devant l’hostellerie de la Crémaillère

Deux ours polaires en train de batifoler dans le parc Tony Garnier…

L.V.  

Les derniers rebuts de Thulé

18 novembre 2017

Au printemps 1948, à l’issue de ses études à l’Institut de Géographie de l’Université de Paris, le jeune Jean Malaurie, embarque à 26 ans pour participer à la première expédition polaire conduite par Paul-Emile Victor au Groenland. Il renouvellera l’expérience l’année suivante mais se détourne très vite de ce programme d’exploration scientifique qui ne s’intéresse nullement à la vie des habitants du cru, les Inuits.

Jean Malaurie en avril 1951 (photo © Collection personnelle Jean Malaurie)

En juillet 1950, Jean Malaurie repart donc seul au Groenland pour y conduire, pour le compte du CNRS, la première expédition polaire française à visée à la fois géographique et ethnographique. Il ne s’intéresse pas seulement à la géomorphologie des terres arctiques qui sera le sujet de sa thèse, mais aussi et surtout aux hommes qui y vivent. Il établit ainsi des liens d’amitiés avec le groupe de chasseurs de phoques de Thulé avec qui il passe un hiver entier, dressant pour la première fois et sur quatre générations, l’arbre généalogique de la petite communauté isolée dans des conditions extrèmes.

Avec l’Inuit Kutsikitsoq et deux traineaux à chiens, sans radio ni boussole (inexploitable à ces latitudes), ils seront ainsi les deux premiers hommes au monde à atteindre le pôle nord magnétique, le 29 mai 1951.

Le 16 juin 1951, il découvre fortuitement à Thulé, une base militaire américaine construite secrètement pour accueillir des bombardiers nucléaires. Il observe avec consternation, de ses yeux d’ethnologue, le choc culturel auquel sont confrontés les Inuits dont la civilisation relève alors quasiment de l’âge de la pierre, et qui se retrouvent brutalement face à une débauche de moyens matériels déversés par la puissance militaire américaine. Le choc est brutal et Jean Malaurie saisit rapidement les enjeux culturels et politiques de cette rencontre, au point qu’il décide de prendre publiquement position contre l’implantation de cette base.

C’est cette découverte qui sera une des principales motivations de la publication de son livre intitulé Les derniers rois de Thulé, un best seller qui paraît en 1955 aux éditions Plon, et qui inaugure une nouvelle collection, baptisée Terre humaine, que dirigera désormais Jean Malaurie, une collection prestigieuse qui éditera notamment Tristes Tropiques de Claude Lévi-Strauss, Le cheval d’orgueil de Pierre Jakez Hélias, ou encore Pour l’Afrique, j’accuse de René Dumont. Élu en 1957, sur recommandation de Fernand Braudel et de Claude Lévi-Strauss, à la première chaire de géographie polaire de l’histoire de l’Université française, créée pour l’occasion à l’École pratique des hautes études, Jean Malaurie fonde en 1958 le Centre d’études arctiques, et lance, en 1960, Inter-Nord, la grande revue arctique du CNRS.

Cette base militaire américaine de Thulé, dont les premières installations datent de 1941, a subi une importante extension en 1951, avec l’accord des autorités danoises et dans le cadre de l’OTAN, mais sans la moindre consultation des populations autochtones. Pire, en 1953, les 187 Inuits qui vivaient à proximité ont été purement et simplement expulsés et contraints en quelques jours seulement d’abandonner leurs campements et leurs territoires de pêche et de chasse qu’ils occupaient depuis des millénaires, pour s’exiler 150 km plus au nord, à Qaanaaq. Il leur faudra attendre 1999 pour qu’ils reçoivent enfin un dédommagement pour cet exil forcé !

Inuits déménagés à Qaanaaq après la construction de la base de Thulé (photo de presse source Yonder)

Avion de chasse américain à Thulé en 1960 (source © United States Air Force)

C’est que la base américaine de Thulé est devenue hautement stratégique puisqu’elle accueille dans le plus grand secret des bombardiers stratégiques et un personnel militaire pléthorique allant jusqu’à 10 000 personnes. C’est depuis cette base que durant l’hiver 1956-57, en pleine guerre froide, des Boeing B-47 Stratojet effectuèrent des vols de reconnaissance pour aller inspecter les défenses soviétiques. En 1954, l’armée US y procède à l’édification de la Globecom Tower, un mât radio d’une hauteur de 378 mètres qui, lors de sa construction, constituait la troisième plus haute construction humaine sur terre…

Vue aérienne de la base de Thulé

Le 21 janvier 1968, alors que l’activité de la base a connu un certain ralentissement mais abrite encore près de 4 000 agents, un bombardier B-52 Stratofortress s’abîme dans l’océan Arctique, près du Groenland. Ce bombardier transportait quatre bombes nucléaires, dont trois ont été pluvérisées sur la banquise et en mer, la quatrième n’ayant jamais pu été repêchée. De nombreux Inuits, réquisitionnés pour participer aux opérations de nettoyage après la catastrophe, ont développé des maladies du fait des radiations auxquelles ils ont été exposés et ont eu toutes les peines du monde à obtenir des indemnisations après des années de combat juridique.

En 1959, c’est depuis la base de Thulé qu’a été entreprise, toujours dans le plus grand secret, la construction d’une autre base militaire, dénommée Camp Century et située au nord du Groenland, à 240 km de la côte. Il s’agissait officiellement d’une simple base de recherche, constituée de tunnels creusés sous la calotte glaciaire, de laboratoires scientifiques et d’un hôpital alimenté en électricité par un petit réacteur nucléaire acheminé sur place en pièces détachées et mis en service en octobre 1960. C’est d’ailleurs depuis cette base qu’ont été extraites les carottes de glace à partir desquelles le géophysicien danois Willi Dansgaard a réalisé les premières études sur l’évolution du climat depuis 100 000 ans.

Tunnel en construction à Camp Century (source © Frank J. Leskovitz)

Mais Camp Century abritait aussi une base militaire top secret construite dans le cadre du projet Iceworm (« ver de glacier ») et dont l’objectif était d’installer 600 missiles balistiques capable de frapper l’URSS. Pas moins de 21 tunnels ont ainsi été creusés sous la glace et jusqu’à 200 personnes travaillaient sur place en période estivale. Mais en 1964, les mouvements de la banquise se sont révélés tels qu’il a bien fallu se rendre à l’évidence et abandonner le projet. Le réacteur nucléaire a été démantelé et la base est tombée à l’abandon. Faute d’entretien, les tunnels se sont effondrés les uns après les autres et la base a été peu à peu ensevelie. Il a d’ailleurs fallu attendre janvier 1997 pour que le projet soit rendu public, lorsque l’Institut danois de la politique étrangère publia un rapport, à la demande du Parlement danois, concernant l’histoire des armes nucléaires au Groenland. Ce rapport provoqua un véritable scandale, puisqu’il montrait qu’à l’époque le gouvernement danois avait autorisé tacitement le transport d’armes nucléaires au Groenland, en violation avec la déclaration officielle du Premier ministre, Hans Christian Hansen, qui affirmait en 1957 que le Danemark était une zone totalement exempte d’armes nucléaires.

Etat de la base lors d’une inspection en 1969 (source © Frank J. Leskovitz)

Le problème est que, 50 ans après l’abandon du projet, le réchauffement climatique qui touche particulièrement les hautes latitudes terrestres et provoque désormais des feux de brousse jusqu’au Groenland, menace la stabilité de ces vestiges qui à l’époque étaient enfouis sous 30 m de neige et qui s’étendent sur 55 hectares. Si la fonte de la glace se poursuit au rythme actuel, elle ne sera bientôt plus compensée par les chutes de neige, et les vestiges enterrés vont peu à peu être exhumés. Or il reste encore sur place plus de 200 000 l de fuel stocké dans des cuves sans doute percées depuis belle lurette par la rouille, ainsi de 20 000 l de produits chimiques divers et variés, 240 000 l d’eaux usées jamais traitées et 9 200 t de déchets de nature diverses, ainsi que des générateurs et transformateurs contenant des PCB, sans compter l’enceinte de confinement du réacteur nucléaire, toujours radioactive…

Voilà, s’il en était besoin, un exemple supplémentaire des conséquences potentielles de certaines des idées géniales qui ont germé un jour dans l’esprit de nos dirigeants et de nos élites militaires empreintes de la plus grande confiance dans leur toute puissance technologique, mais peu regardantes sur les risques que leurs élucubrations hasardeuses pouvaient faire courir aux générations futures…

L.V.  

Ciel d’apocalypse en Bretagne et fournaise portugaise

18 octobre 2017

Le ciel au-dessus des toits de Rennes, lundi 16 octobre après-midi (photo © Marie Dufay / AFP)

Voilà encore de bien étranges manifestations du changement climatique global que l’on peut observer et dont les médias se sont largement fait l’écho. Ce lundi 16 octobre 2017, les Bretons ont eu la surprise d’observer un ciel plombé couleur jaune sépia plongeant leur quotidien dans une lumière crépusculaire et glauque alors que le thermomètre marquait 19 °C à Brest, à 8h du matin, et jusqu’à 25 °C dans la journée, des températures pour le moins inhabituelles à cette période de l’année.

Cette sinistre coloration jaunâtre du ciel, s’accompagnant d’une odeur prononcée de cendre, a plongé plusieurs villes bretonnes dans une ambiance quasi apocalyptique qui a beaucoup fait jaser sur les réseaux sociaux. Cette situation découle directement du flux d’air orienté du sud et correspondant au déplacement de l’ouragan Ophelia. Ces vents qui soufflaient lundi jusqu’à 130 km/h se sont chargés, lors de leur passage sur les côtes nord-africaines, de très nombreuses particules sableuses qu’ils ont charriés à travers toute la péninsule ibérique puis dans leur traversée du Golfe de Gascogne.

Ciel jaune et températures élevées pour la saison en Bretagne heures (photo © David Vincent / AP)

De nombreux records de chaleur ont été battus du fait de cette arrivée d’air subtropical poussé par la tempête Ophelia. On a ainsi relevé plus de 30 °C à Pau ou Mont-de-Marsan et même 31 °C à Vic-en-Bigorre dans les Hautes-Pyrénées. A Calais, le thermomètre a affiché jusqu’à 26 °C, soit 10 °C de plus que les normales saisonnières. A Uccle, près de Bruxelles, la station météo qui date de 1833 n’avait jamais enregistré un tel record de chaleur (25,7 °C) à une période aussi tardive de l’année…

Après la Bretagne, c’est le sud de l’Angleterre qui a été frappé par le même phénomène. Dans l’après-midi du 16 octobre, la ville de Londres elle-même a été plongée dans cette atmosphère irréelle et angoissante occasionnée par un ciel orangé.

En parallèle, la tempête s’est renforcée en poursuivant sa route vers les côtes irlandaises. A la mi-journée, des rafales soufflant à 190 km/h ont été enregistrées à la pointe sud de l’île. De nombreuses toitures se sont envolées et on déplore trois morts, pour la plupart écrasés suite à la chute d’arbres. Le soir, environ 360 000 foyers étaient privés d’électricité. Cette tempête est sans doute une des pires qu’ait connue l’Irlande depuis le passage de l’ouragan Debbie en 1961, qui avait fait 11 victimes.

Passage de l’ouragan Ophelia sur les côtes irlandaises

Mais en Bretagne comme en Angleterre, l’air n’était pas seulement chargé de particules sableuses d’origine saharienne. Il charriait aussi les cendres des gigantesques incendies qui ravagent actuellement le Portugal, attisés par ces vents violents qui balaient les côtes de la péninsule ibérique. Des centaines de départs de feu se sont ainsi déclarés dimanche 15 octobre dans le nord et le centre du Portugal, ainsi que dans la région espagnole voisine de Galice. Certains semblent d’origine criminelle mais la plupart sont liés à l’imprudence, et tous ont été attisés par les vents violents de l’ouragan Ophelia, se propageant rapidement du fait de l’extrême sécheresse de la végétation après des mois de déficit pluviométrique.

A ce jour, on estime à 350 000 hectares au moins la superficie qui est ainsi partie en fumée au Portugal lors de cet épisode, et le bilan humain est particulièrement lourd avec 4 morts en Espagne et 41 au Portugal. Plus de 3000 pompiers ont été mobilisés pour lutter contre les flammes, avec même l’aide de bombardiers d’eau italiens.

Feu de forêt dans la région de Leiria, le 18 juin 2017 (photo © Patricia De Melo Moreira / AFP)

Déjà, en juin dernier, le pays avait été victime d’un gigantesque incendie qui avait provoqué la mort de 64 personnes dans la région de Leiria. Provoqué par la foudre alors que les températures au sol dépassaient les 40 °C, le feu avait progressé à une vitesse phénoménale parmi les forêts de pins et d’eucalyptus, piégeant de nombreux habitants dans leur maison ou sur les routes. Un véritable désastre malgré la mobilisation de 2000 pompiers volontaires.

A côté de ces feux de forêts catastrophiques, l’incendie qui a menacé Carnoux cet été paraît bien anodin même s’il aurait pu avoir lui-aussi des conséquences dramatiques. Et bien d’autres se sont produit récemment à travers le monde. Ainsi, la Californie qui fait l’objet depuis le 8 octobre de violents incendies, les pires peut-être que cette région a connu depuis 1933, même si en septembre 2015 déjà, la Californie avait été ravagée par les flammes, déplorant alors la destruction de plus de 600 bâtiments dont de nombreuses maisons d’habitation.

Maison en flamme dans la région de Napa en Californie le 9 octobre 2017 (photo © AFP)

Depuis le début du mois d’octobre, 22 départs de feu ont été notés et le dernier bilan disponible à ce jour fait état de 86 000 hectares brûlés avec près de 5 000 maisons réduites en cendres. Plus de 600 000 personnes ont dû être évacuées en catastrophe et au moins 41 mort sont à déplorer, ainsi que 88 disparus. Un très lourd bilan donc et des images d’apocalypse là aussi comme le montrent les photos aériennes : des lotissements entiers ont été totalement rayés de la carte suite au passage des flammes.

Fourgon postal distribuant le courrier dans les ruines de Santa Rosa, Californie, le 10 octobre 2017 (capture video © Douglas Thron)

Le photographe Douglas Thron, filmant avec son drone les ruines de la ville de Santa Rosa, dans le nord de la Californie, a néanmoins eu la surprise d’y repérer une activité insolite, celle du fourgon de la Poste venant consciencieusement distribuer le courrier dans les boîtes aux lettres, seules vestiges non calcinés au milieu d’un champ de ruines. Contrairement à la Poste de Carnoux, qui n’est plus que l’ombre d’un service public bien chancelant, la Poste californienne fait preuve d’un niveau de résilience remarquable…

L.V.

Le feu de Carnoux vu de l’espace…

17 septembre 2017

Le 19 août dernier, l’incendie qui a ravagé le versant boisé situé entre Aubagne et Carnoux, menaçant gravement plusieurs maisons situées en limite nord de Carnoux, le long de l’avenue Jean Bart, a laissé de sinistres traces. Plusieurs centaines d’hectares d’espaces boisés et de garrigues sont partis en fumée, laissant un paysage noirci de cendres et d’arbres calcinés qui rappellera pour de longs mois le souvenir de cet événement. Trois semaines plus tard, lorsque les premières grosses pluies de la saison se sont abattues sur Carnoux, la forte odeur de brûlé a brutalement envahi toute la ville, comme un ultime rappel du sinistre qui a bien failli transformer toute la ville en un gigantesque brasier…

Zones brûlées sur les hauteurs de Carnoux (photo prise le 27 août 2017)

Il suffit de se promener sur les hauteurs de Carnoux comme chacun ou presque l’a fait depuis cette date pour observer les ravages du feu. Mais lorsqu’on prend un peu de hauteur, l’effet est d’autant plus saisissant. Un des outils permettant une telle observation est la famille de satellites Sentinel, qui constituent le volet spatial du programme Copernicus initié par l’Union européenne. Le déploiement de cette batterie de satellites européens, commencé il y a maintenant une dizaine d’années, est encore en cours mais plusieurs satellites sont d’ores et déjà opérationnels.

Le premier, Sentinel-1A, avait été lancé de Kourou le 3 avril 2014 et a bien failli exploser en vol avant même de pouvoir déployer ses capteurs, tout ça à cause d’un banal accident de la circulation. Heureusement, les opérateurs de l’agence spatial européenne avaient alors réussi, grâce à un léger coup d’accélérateur bien placé, à éviter de justesse le satellite américain Acrimsat, qui passait malencontreusement par là au mauvais moment. Les routes de l’espace sont plus dangereuses qu’on ne le croit…

Vue du satellite Sentinel 2 (source © ESA/ATG medialab)

Depuis, d’autres satellites ont été déployés : le petit frère, Sentinel-1B, en avril 2016, mais aussi les deux sœurs jumelles Sentinel-2A, lancé le 23 juin 2015 par Véga depuis Kourou et Sentinel-2B, qui vient de s’envoler depuis Baïkonour le 7 mars 2017, propulsé par le lanceur russe Rockot. Ce sont ces deux derniers satellites qui nous intéressent tout particulièrement car ils disposent de 13 bandes spectrales allant du visible au moyen infra-rouge et permettant de prendre des clichés avec une résolution de 10 à 60 m. A eux deux, ils permettent de couvrir la quasi totalité des terres émergées avec des prises de vues espacées de 5 jours seulement, ce qui en fait des mouchards particulièrement efficaces.

Les clichés pris dans l’infra-rouge sont surtout utiles pour analyser l’occupation des sols car cette technique permet notamment de mettre en évidence certaines distinctions qui n’apparaissent pas aussi clairement dans le spectre visible. Elle permet en particulier de détecter des différences de température mais aussi d’humidité des sols, de couvert végétal et bien d’autres éléments très utiles notamment dans l’agriculture et le suivi des catastrophes naturelles.

Vue satellite de l’incendie du 19 août entre Aubagne et Carnoux (7 septembre 2017 – source © Sentinel hub)

Une partie des données issues de ces observations satellitaires étant en libre accès sur l’application Sentinel hub, il est assez aisé de rechercher, via un outil de visualisation ouvert à tous, des images d’archives prises par Sentinel 2. Celle du 7 septembre 2107 ne manque pas d’intérêt puisque prise quelques jours seulement après l’incendie qui est venu lécher la commune de Carnoux. Le cliché est assez spectaculaire car la restitution via l’exploitation de plusieurs canaux infrarouges met parfaitement en évidence les surfaces brûlées. On y décèle clairement le point de départ de l’incendie et sa propagation jusqu’aux portes de Carnoux, ainsi que les coupe-feux qui ont permis aux pompiers d’en stopper la progression.

Les plus curieux (et bien entendu les Varois) seront naturellement enclins à déplacer le curseur vers la droite de la carte, ce qui permet de mettre en évidence les foyers qui se sont déclarés cet été dans le département voisin qui a, cette année, payé un très lourd tribut avec 3 660 hectares de forêts ravagées par le feu en juillet-août 2017.

Vue satellite des deux incendies du 25 juillet et du 2 septembre aux alentours de La Londe-les-Maures, dans le Var (14 septembre 2017 – source © Sentinel hub)

 On y repère notamment les trois plus importants d’entre eux qui ont eu lieu le 24 juillet à la Croix-Valmer (518 ha) et à Artigues (1 704 ha) et le 25 juillet entre La Londe–les-Maures et Bormes-les-Mimosas (1 418 ha), suivi d’un autre qui s’est déclaré le 2 septembre entre Hyères et La Londe (460 ha). On est loin des chiffres de l’année 2003 où près de 19 000 hectares étaient partis en fumée dans le seul département du Var, causant la mort de 3 pompiers et de 4 autres personnes, mais ce nouvel été meurtier vient rappeler, si besoin était, à quel point les espaces méditerranéens sont vulnérables aux feux de forêt.

Vue satellite de l’incendie du 11 août dans le Cap Corse (30 août 2017 – source © Sentinel hub)

Et si l’on prend la peine de se décaler un peu vers le sud-est jusqu’aux rivages corses, la photo satellite met en évidence d’autres zones calcinées, en particulier au droit du cap Corse. Une tâche noirâtre barre entre Pietracorbara et Sisco toute la largeur de ce que certains irrévérencieux ont comparé à un doigt d’honneur tendu vers la métropole : c’est la signature de l’incendie qui s’est déclenché près de Nonza, sur la côte ouest, dans la nuit du 10 au 11 août 2017 et qui a traversé le cap Corse dans toute sa largeur, brûlant au passage plus de 2000 ha de forêts et de maquis, et obligeant à évacuer pas moins d’un millier de personnes.

Un autre incendie est particulièrement visible sur ces images satellite et montre à quel point les habitations situés en lisière de zone boisée peuvent être exposées : il s’agit de celui d’Olmeta-di-Tuda qui a parcouru de l’ordre de 2200 ha entre le 24 et le 29 juillet et a été arrêté in extremis en bordure des lotissements de la zone très urbanisée de Biguglia, au sud de Bastia.

Vue satellite de l’incendie du 24 juillet au sud de Bastia (30 août 2017 – source © Sentinel hub)

De nombreuses autres images tout aussi spectaculaires sont visibles sur ce site, envoyées depuis l’espace par les satellites Sentinel, dont celles des récents cyclones qui ont ravagé les Antilles et le sud des États-Unis, venant opportunément nous rappeler à quel point les aménagements faits par l’Homme sont vulnérables face aux éléments naturels…

L.V.  

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Au Texas, Houston sous les eaux

30 août 2017

Le sud du Texas est en train de connaître une des pires inondations de son histoire récente. En cause, l’ouragan Harvey, né à la mi-août d’une onde tropicale en Afrique de l’Ouest, et dont les météorologues ont suivi l’évolution à travers tout l’Océan atlantique jusqu’aux côtes vénézuéliennes.


L’ouragan Harvey a tout balayé sur son passage dans les zones côtières (photo © Gabe Hernandez / AP)

Arrivé sur le golfe du Mexique, l’ouragan s’est brusquement intensifié au-dessus des eaux chaudes et a abordé la côte texane vendredi 25 août, classé en catégorie 4 avant de se transformer en simple tempête tropicale à partir du samedi après-midi. Depuis, du fait de l’absence de vent en altitude, la tempête Harvey fait quasiment du sur-place et se déplace très lentement vers l’Est tout en se rechargeant en permanence avec les eaux chaudes du Golfe du Mexique tout proche.

Carte de situation publiée dans Le Monde (source NOAA, New York Times), montrant les cumuls de précipitation et la trajectoire de la tempête au 30 août 2017

Le résultat est assez effrayant puisque on comptabilise désormais en 5 jours un cumul de précipitations tout à fait inhabituel qui pourrait atteindre localement, d’ici jeudi, 1270 mm, bien davantage que ce qui peut tomber sur Marseille en une année entière ! La ville littorale de Corpus Christi, qui compte 300 000 habitants, a été une des premières dévastées par l’ouragan Harvey avec des vents soufflant en pointe à 215 km/h, et à partir du dimanche 27 août c’est la ville de Houston, quatrième plus grande ville des Etats-Unis avec 2,3 millions d’habitants, qui a été à son tour noyée sous des trombes d’eau continues.

Maisons d’habitation ravagées par l’ouragan Harvey à Rockport (photo © Mark Ralston / AFP)

De nombreux axes routiers ont été inondés parfois sous plusieurs mètres d’eau et on a vu des habitants attraper à main nue des poissons passant devant leur porte tandis que les épaves de voitures partent à la dérive dans une eau boueuse qui envahit peu à peu toute la ville.

Au moins 10 personnes ont déjà trouvé la mort depuis le déclenchement de ces inondations, dont une personne qui est décédée dans l’incendie de sa maison à Rockport tandis qu’une femme s’est noyée à Houston en sortant de sa voiture dans une zone où la vitesse d’écoulement était rapide. L’état de catastrophe naturelle a été déclaré dès vendredi et la population est invitée à rester confinée chez elle pour limiter les risques de noyades dans des rues totalement submergées par les eaux.

A Corpus Christi comme en plusieurs autres endroits, des consignes d’évacuation volontaires ont été données, tandis que 4500 prisonniers du centre de détention de la ville de Rosharon, au sud de Houston, ont dû être évacués en catastrophe. Au moins 230 000 foyers étaient privés d’électricité dès dimanche et la situation ne fait qu’empirer depuis. Quant aux deux aéroports de Houston dont les pistes étaient sous les eaux, ils ont dû fermer l’un après l’autre.

Autoroute submergée à Houston dimanche 27 août 2017 (photo © Richard Carson / Reuters)

Le niveau de la mer s’est élevé de près de 4 m au plus fort de la tempête, alors même que la côte texane accueille près d’un tiers des capacités de raffinerie de pétrole des Etats-Unis et le Golfe du Mexique 20 % de la production américaine. Au moins 112 plateformes ont été évacuées, représentant environ un quart de la production quotidienne de brut et de gaz, et de nombreuses installations à terre ont fermé. Il est encore trop tôt pour évaluer le coût de cette catastrophe d’autant que la tempête se déplace désormais vers la Louisiane voisine, encore sous le traumatisme du cyclone Katrina qui avait provoqué en 2005 la rupture de plusieurs digues, ravageant des quartiers entiers de La Nouvelle Orléans, provoquant plus de 1800 morts et laissant une ardoise estimée à 118 milliards de dollars. A ce jour, les estimations pour la tempête Harvey font état d’un bilan qui pourrait néanmoins s’élever autour de 42 milliards de dollars, ce qui est tout à fait considérable et s’explique largement par l’importance économique du Texas dont le PIB dépasse celui d’un pays comme le Canada.

Le Bayou Buffalo en crue dans la traversée de Houston (photo © Carole Enarn / Reuters)

Le président Donald Trump ne s’y est d’ailleurs pas trompé. Contrairement à son prédécesseur Georges W. Bush qui avait été accusé d’indifférence en ne se rendant que tardivement à la Nouvelle Orléans où il s’était contenté d’un rapide survol en hélicoptère, le Président s’est rendu dès mardi 29 août sur place, accompagné de son épouse dont les talons aiguilles n’étaient pas des plus adaptés pour une telle visite de terrain…

A Houston, le maire a décrété le couvre-feu dès mardi pour tenter de sauvegarder la ville des risques de pillage car beaucoup d’habitants ont fui pour se mettre à l’abri, et le gouverneur du Texas a fini par mobiliser l’ensemble des 12 000 soldats de la Garde nationale texane. Mardi, 10 000 habitants étaient déjà hébergés dans le Centre des conventions de Houston et le flux de réfugiés continuait à enfler. Les autorités les dirigeaient alors vers d’autres villes de l’intérieur, moins exposées, dont Dallas, située à 400 km de là et dont les 3 centres d’accueil ont été rapidement saturés.

Evacuation de sinistrés à Houston (photo © Texas Military Department)

A Houston, une des plus grosses inquiétudes a trait à l’état de deux vastes réservoirs endigués construits dans les années 1930 à l’ouest de la ville, précisément pour la protéger contre les inondations, et qui approchent depuis mardi de leur niveau de saturation. Dès la création de la ville en 1836, à la confluence entre deux rivières, le bayou Buffalo et le bayou du Chêne blanc, il est apparu en effet que le site était particulièrement vulnérable au risque d’inondation. En un siècle, la ville a connu 16 inondations majeures, avec parfois jusqu’à 12 m d’eau dans les points bas de la ville !

Après la crue de 1935, particulièrement dévastatrice et qui avait fait 7 morts, une structure spécifique a été mise en place pour développer la prévention du risque inondation, ce qui n’empêche pas qu’on dénombre 30 crues importantes depuis, dont celle liée au passage de la tempête tropicale Allison, le 5 juin 2001, qui a causé 22 victimes et endommagé 95 000 véhicules et 73 000 habitations dans cette région texane.

Les deux réservoirs Addicks et Barker, dont l’état inquiète au plus haut point les ingénieurs de l’US Army Corps of Engineers en charge de leur exploitation, ont été mis en service en 1938 et font l’objet d’un programme de confortement entamé en 2014 mais dont l’achèvement n’est prévu qu’en 2019. Ces vastes cuvettes, dont la capacité de stockage cumulée atteint 510 millions de m3, soit près de la moitié du barrage de Serre-Ponçon, sont fermées par des digues en terre dont la hauteur maximale atteint respectivement 34 et 37 m. Ils interceptent plusieurs affluents en amont du bassin versant du Bayou Buffalo qui ensuite traverse toute l’agglomération de Houston. Ces cuvettes, aménagées en parcs urbains et espaces verts récréatifs, ne servent à retenir l’eau qu’en cas de crue, afin de protéger les zones urbanisées en aval.

Zones résidentielles inondées par les lâchers d’eau du réservoir Addicks, mardi 29 août 2017 (photo © David J. Phillip)

Mais les deux vastes réservoirs ont atteint leur cote maximale autorisée de remplissage dès le lundi 28 août au matin. Il a donc fallu alors commencé à délester avant que le niveau de l’eau ne monte trop haut et ne menace la stabilité des digues elles-mêmes. C’est en effet le point faible de ce type d’ouvrage qui, en cas de submersion peut se rompre, provoquant alors une onde qui se propage très rapidement en aval, dévastant tout sur son passage. C’est donc pour éviter ce risque que les autorités ont préféré ouvrir les vannes, inondant de ce fait l’ensemble des quartiers situés en contrebas, et venant rappeler à tous qu’une protection contre les inondations est toujours dimensionnée pour un niveau de crue donné : au-delà, il faut bien que l’eau s’écoule et reprenne son chemin naturel, en l’occurrence la vaste plaine alluviale dans laquelle les hommes ont choisi, peut-être un peu imprudemment, de bâtir une ville de 2,3 millions d’habitants !

Vue aérienne du réservoir d’Addicts lors d’une inondation récente (photo © US Army Corps of Engineers)

L’histoire n’est certes pas terminée et l’heure des comptes n’est pas encore arrivée. Après le passage de Katrina à la Nouvelle-Orléans, ce sont environ 1 million d’habitants qui ont dû faire appel aux services sociaux de l’Agence fédérale de gestion des situations d’urgence et on estime déjà que ce nombre pourrait avoisiner les 450 000 après le passage de la tempête Harvey, de nombreux Américains n’étant pas assurés contre ce type de risque naturel. La seule bonne nouvelle, si l’on peut dire, c’est que les assureurs ne sont pas inquiets puisque leur secteur dégage un bénéfice confortable évalué actuellement à 700 milliards de dollars, de quoi largement voir venir…

L.V. 

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Quand sort la recluse et que se mélangent réalité et fiction…

24 août 2017

Les amateurs de Fred Vargas se sont naturellement tous précipités sur son dernier roman, au titre énigmatique, publié par les éditions Flammarion et intitulé « Quand sort la recluse ». Le commissaire Adamsberg s’y trouve confronté à une histoire bien étrange et dont il est bien entendu hors de question de révéler le moindre indice pour ne pas gâcher par avance le plaisir du lecteur. Qu’il sache cependant que cette notion de « recluse » est à double sens comme souvent dans les romans foisonnants de celle qui fit jadis sa thèse de doctorat en histoire sur la peste au Moyen-Age mais qui fut aussi employée par le CNRS comme spécialiste en archéozoologie.

Fred Vargas (photo © Visual)

On ne sera donc pas étonné qu’il soit notamment question dans cette histoire de ces femmes pénitentes qui se faisaient enfermer autrefois jusqu’à ce que mort s’ensuive dans un reclusoir, minuscule cellule dont l’entrée était définitivement murée et qui survivaient tant bien que mal grâce aux quelques aumônes de nourriture que les passants leur déposaient via la fenestrelle, petit orifice souvent placé très en hauteur et seul lien avec le reste du monde.

Mais l’on y apprend aussi que la recluse est une petite araignée très discrète, qui ne tisse pas de toile, mais se tapit au fond d’une anfractuosité pour y guetter sa proie. On ne l’aperçoit que très rarement, et pourtant tout le roman est bâti autour d’elle et de ses morsures redoutables, susceptibles de provoquer de terribles nécroses.

L’araignée violon Loxosceles rufescens (photo © 2011 Mark Fox)

De son vrai nom Loxosceles rufescens ou araignée violoniste à cause de la forme de son céphalothorax, cette minuscule araignée brune de la famille des Sicariidae et que l’on trouve notamment dans le sud de la France, a été décrite dès 1820. Sa taille ne dépasse guère 1 cm et elle n’est absolument pas agressive pour l’homme mais elle peut néanmoins piquer lorsqu’elle se retrouve malencontreusement prisonnière d’un vêtement, après s’être cachée au fond d’un placard à l’abri de la lumière.

La quantité de venin qu’elle injecte est faible et sa morsure est donc infiniment moins redoutable que celle de sa cousine américaine Loxosceles reclusa, l’authentique recluse, dont la morsure provoque des nécroses cutanées parfois spectaculaires conduisant dans certains cas jusqu’à la mort.

La cousine américaine Loxosceles reclusa

Or régulièrement les médias se font échos de patients atteints par des morsures de ce type dans le sud de la France alors que la présence de la recluse américaine n’est pas attestée sur le territoire national. On trouve ainsi sur internet la trace d’un reportage de France 3, paru en juillet 2015, qui évoque les cas de trois personnes hospitalisées à Nîmes et à Montpellier en quelques mois, trois patientes qui ont dû subir des interventions chirurgicales après avoir développé des nécroses spectaculaires à la cuisse et au bras suite à des morsures attribuées à la fameuse araignée violon Loxosceles rufescens.

Un médecin du Centre anti-poison de Marseille indique d’ailleurs avoir déjà eu connaissance de deux autres cas sévères du même type survenus à Nîmes en 2009 et pense que la toxicité exceptionnelle du venin de la petite araignée s’expliquerait par les fortes chaleurs.

Exemple de nécrose sur une plaie

Un autre article de La Dépêche, daté de la même période, fait lui état de deux femmes habitant respectivement dans l’Hérault et dans le Gard et cite leur témoignage, toutes les deux ayant été piquées alors qu’elles enfilaient leur pantalon. Dans les deux cas il a fallu recourir à des opérations de chirurgie esthétique pour supprimer les parties nécrosées qui s’étendaient sur une large surface d’une dizaine de cm malgré un traitement antibiotique administré très rapidement. Mais contrairement au précédent article, les morsures sont attribuées non pas à Loxosceles rufescens mais à sa cousine américaine, la recluse qui, selon certaines sources, serait présente en France depuis le début des années 2000.

Ceux qui liront le dernier opus de Fred Vargas retrouveront dans ces quelques faits divers une matière qui a manifestement inspiré la romancière : polémique qui enfle sur la toile suite à plusieurs cas graves de morsures attribuées à l’araignée violon en début de période estivale précisément dans le Gard, débats sans fin sur l’hypothèse selon laquelle le venin de l’araignée deviendrait plus virulent en période de forte chaleur, supputations sur l’influence du changement climatique comme facteur déclenchant, etc. Nul doute que l’archéozoologue à l’imagination fertile a puisé dans ces dépêches d’agence et dans les forums de discussion qu’elles suscitent inévitablement de quoi alimenter son histoire.

Mais le plus cocasse est que l’histoire se répète. Alors que le livre de Fred Vargas a été édité en mai 2017, voilà que l’on voit fleurir de nouvelles alertes rendues publiques initialement par France Bleu Roussillon puis reprises par de nombreux médias, sans curieusement qu’il y soit fait allusion au roman qui vient de paraître… Il s’agirait cette fois d’au moins quatre cas de patients traités à la clinique Saint-Pierre de Perpignan. Tous se plaignent de fortes brûlures et de démangeaisons accompagnées dans certains cas de fièvre suite à des piqûres d’insectes qui se sont infectées, avec parfois une plaque nécrosée noire au centre de la rougeur.

La magnifique araignée-paon, nettement moins discrète que la recluse

A Perpignan, les médecins ont conclu à des morsures de la cousine américaine Loxosceles reclusa. Mais les arachnologues restent sceptiques, eux qui affirment n’avoir encore jamais repéré la recluse sur le territoire national, alors qu’il existe 44 000 espèces d’araignées connues et que l’on en découvre fréquemment de nouvelles, la plus insolite étant peut-être la très exotique araignée-paon, une espèce endémique d’Australie..

Une chose est sûre, le sujet n’a certainement pas fini de faire gamberger. Pour peu que le roman policier de Fred Vargas ait autant de succès que ses ouvrages précédents, les habitants du sud-est de la France n’ont pas fini d’incriminer, à chaque piqûre d’insecte, la petite araignée violon, que manifestement bien peu peuvent se vanter d’avoir jamais vu mais qui pourrait bien faire le buzz sur la toile…

L.V.