Posts Tagged ‘Risques naturels’

Le déluge : mythe ou réalité ?

11 décembre 2017

Chacun a en mémoire le fameux récit biblique du déluge dans lequel il est écrit en substance que Dieu, mécontent de la conduite des hommes, déclencha une formidable inondation qui dura 40 jours et 40 nuits, et noya toute trace de vie sur terre à l’exception du brave Noé et de toute sa famille. Celui-ci avait été chargé de construire une solide arche, aux planches soigneusement calfatées de goudron et dans laquelle il avait mis à l’abri un couple de chacune des espèces animales, ce qui lui permit finalement de repartir sur de nouvelles bases, une fois l’inondation achevée et l’arche échouée.

L’arche de Noé sur le Mont Ararat (tableau de Simon de Myle, peint vers 1570)

Ce récit fondateur qui marque les esprits a longtemps servi de fil conducteur, y compris aux yeux de certains scientifiques qui s’appuyaient sur lui pour expliquer la présence de nombreux coquillages fossiles retrouvés jusque sur les sommets des montagnes alpines. On sait désormais, grâce à la compréhension des mouvements tectoniques et à une meilleure connaissance de la datation des couches sédimentaires, qu’il n’est nul besoin de faire appel à ce récit biblique pour expliquer de telles observations.

Onzième tablette racontant l’épopée de Gilgamesh et le récit du déluge (source © British Museum)

Et pourtant, paradoxalement, les connaissances historiques et géologiques récentes donnent du crédit à ce récit de l’Ancien Testament. L’affaire ne date pas d’hier puisque c’est en 1872 que George Smith, un des premiers à découvrir et à traduire les tablettes d’argile recouvertes d’écritures cunéiformes de Mésopotamie, gravées il y a plus de deux mille ans avant J.-C., a fait connaître au monde entier l’épopée de Gilgamesh.

Dans cette histoire, dont on a désormais retrouvé de nombreuses versions, les plus anciennes remontant à l’époque sumérienne, au 3ème millénaire avant J.-C., le héros Gilgamesh rencontre le supersage Atrahasis qui lui raconte que jadis les dieux en colère, lassés du vacarme incessant des humains, avaient décidé de s’en débarrasser en inondant la terre. Mais le dieu des eaux souterraines, un certain Ea, les trahit, avertit son ami Atrahasis du danger, et lui enjoint de fabriquer sans attendre un solide bateau aux planches calfatées de bitume, et d’y faire entrer un specimen de chaque espèce animale (d’autres versions, plus futuristes, évoquent plutôt « la semence de toutes les créatures vivantes »).

Les tablettes d’argile relatent une inondation plus courte (7 jours seulement) mais l’épilogue, qui consiste à lâcher une colombe pour vérifier si elle aperçoit signe de terre rappelle furieusement l’idée de Noé, même s’il fallut, dans la version sumérienne, doubler la tentative avec le lâcher d’une hirondelle puis d’un corbeau…

Le déluge, frontispice de la bible illustrée par Gustave Doré (1866)

Bref, les nombreuses similitudes entre ces récits indiquent avec une quasi certitude que l’histoire de Noé, probablement écrite vers le VIIe siècle avant J.-C., soit plusieurs millénaires sans doute après les premières versions assyriennes, fixée sur les rouleaux manuscrits de la Mer Morte puis recopiée de génération en génération, s’est très vraisemblablement inspiré du précédent, d’autant que le peuple juif a été longtemps placé sous domination assyrienne.

De nombreux chercheurs ont cherché d’autres filiations de ce type, tant les récits fondateurs qui évoquent des inondations cataclysmiques du même type se retrouvent dans le monde entier, en Inde comme parmi certaines civilisations amérindiennes, et même chez les aborigènes d’Australie où il se raconte l’histoire d’une grenouille qui aurait bu toute l’eau de la Terre, au point que les autres animaux assoiffés n’ont eu d’autre choix que de la faire rire, provoquant de la sorte une formidable inondation…

Certains de ces récits retiennent néanmoins l’attention, dont celui retracé dans les écrits mythologiques du pseudo Apollodore, datés du 1er siècle et qui évoquent un déluge qui aurait mis fin à l’âge du bronze, les seuls survivants étant le fils de Prométhée, un certain Deucalion et son épouse Pyrrha, dont la barque s’échoue sur le sommet des montagnes. Là aussi, les convergences avec le récit biblique sont étonnantes, ce qui tend à affermir l’idée d’une inondation exceptionnelle survenue en des temps très reculés dans cette région et dont la mémoire collective se serait transmise de génération en génération.

Les Américains William Ryan et Walter Pitman, auteurs en 1998 de l’ouvrage Noah’s Flood

Curieusement, plusieurs scientifiques pensent désormais disposer d’hypothèses assez solides qui pourraient expliquer l’origine de tels événements. En 1993, une expédition géologique américano-russe a ainsi en évidence, en analysant des sédiments déposés au fond de la Mer Noire, des indices montrant un passage assez brutal d’eau douce à de l’eau salée. Selon leurs observations, au cours de la dernière glaciation, celle du Würm, qui s’est étalé de -110 000 à -10 000 ans environ, la Mer Noire s’est retrouvée totalement déconnectée de la Méditerranée. Du fait de la glaciation, le niveau des océans avait baissé de plus de 130 m et les détroits du Bosphore et des Dardanelles étaient alors émergés.

Avec le réchauffement progressif, la fonte des glaces sur les plaines ukrainiennes a alimenté en eau la vaste dépression de la Mer Noire qui se transforma en un lac d’eau douce, toujours isolé de la Méditerranée et autour duquel se sont installées de nombreuses populations. Vers 7500 avant J.-C., la brutale remontée du niveau de la Méditerranée se serait traduite par un déversement brutal des eaux de cette dernière dans la Mer Noire dont le niveau se situe 200 m plus bas, provoquant la fuite des populations vers le Mont Ararat, seul point culminant situé à 300 km du rivage mais visible de très loin.

La Mer Noire (source © Google Earth)

Le géologue américain Robert Ballard

En 1999 et 2000, le géologue Robert Ballard, celui-là même qui retrouva l’épave du Titanic, avait également entrepris des investigations dans ce secteur et retrouvé des traces de l’ancien rivage côtier de la Mer Noire avec des vestiges d’érosion qu’il attribue à des flots se déversant sous forme de cataractes depuis la Méditerranée. Autant d’éléments qui accréditeraient cette hypothèse d’une inondation brutale et rapide des riveges de la Mer Noire, provoquant chez les survivants un traumatisme de nature à se transcrire de génération en génération sur un temps long. De nombreux chercheurs attribuent d’ailleurs cette ouverture brutale du détroit du Bosphore à un mouvement sismique de l’extrémité de la faille nord-anatolienne, ce qui aurait en effet pu provoquer un déversement cataclysmique des eaux de la Méditerranée dont le niveau était fortement remonté sous l’effet du réchauffement climatique.

Le chercheur français Guillaume Soulet, auteur d’une thèse intitulée Changements hydrologiques de la mer Noire au cours des 30 derniers millénaires et la dernière déglaciation en Europe centrale, sous la direction d’Edouard Bard et Gilles Lericolais

L’équipe d’Edouard Bard basée au CEREGE s’est également intéressée de près à ce sujet et a montré que la réalité était sans doute beaucoup plus complexe que ne l’avaient imaginé en 1997 les Américains Bill Ryan et Walt Pitman, dont l’ouvrage paru en 1998 sous le nom de Noah’s Flood avait eu alors une énorme retentissement. D’après Guillaume Soulet, qui a soutenu en 2011 une thèse sur le sujet, la connexion de la Mer Noire via le Bosphore est plus ancienne et daterait plutôt de 8 300 avant J.-C. Et il s’agirait plus vraisemblablement d’un phénomène se produisant par a-coups, suite à des épisodes de réchauffement successifs, étalés sur de longues périodes, ce qui laisse penser que les mouvements de population des rives de la Mer Noire vers les plaines plus fertiles de la Mésopotamie, survenus vers 7500 avant J.-C., pourraient avoir été induites au moins davantage par une évolution démographique inéluctable que par un phénomène d’inondation brutale.

Un scénario qui demande sans doute à être confirmé et vraisemblablement affiné mais qui laisse songeur quand à ce qui peut nous attendre du fait du réchauffement climatique actuellement à l’oeuvre et qui lui est d’une rapidité jamais rencontrée dans l’histoire de la Terre. Quand on sait que la fin de cette glaciation, qui s’est traduite par une élévation du niveau des mers d’environ 130 m, ne résulte finalement que d’une augmentation moyenne de 4 °C de la température du globe, soit une valeur tout à fait comparable à ce que prédisent les scénarios du GIEC pour les décennies à venir, voila qui ne devrait pas manquer de nous inquiéter…

L.V.  

Publicités

Les inondations irriguent aussi la photographie

9 décembre 2017

Certains sujets semblent davantage que d’autres inspirer les artistes, à moins qu’il ne s’agisse d’effets de mode. Les peintres d’antan se délectaient de natures mortes et de batailles navales. Les photographes d’aujourd’hui s’inspirent beaucoup des inondations, certes devenues de plus en plus spectaculaires à force de construire toujours davantage en zone inondable…

Nous avions déjà cité ici le travail remarquable de Jérôme Knez qui avait eu l’idée de juxtaposer à des photos d’archives de la grande crue parisienne de janvier 1910 d’autres clichés pris exactement au même endroit pendant l’inondation de juin 2016. Il faut croire que ce dernier événement a frappé les imaginations. Bien que modeste par son impact sur Paris, il avait quand même occasionné pour environ 1,4 milliards d’euros de dommages selon les assureurs si on totalise l’ensemble des dégâts observés durant toute la durée de cet événement météorologique, plutôt rare pour la saison et qui s’était traduit sur certains cours d’eau dont le Loing par une crue au moins centennale. Un tel montant en fait d’ailleurs l’inondation la plus coûteuse depuis 35 ans qu’existe le dispositif d’indemnisation des catastrophes naturelles en France !

Le Grand Palais et le pont Alexandre III (photo © Benoît Lapray)

En tout cas, cet événement a inspiré d’autres artistes dont Benoit Lapray qui s’était déjà fait connaître notamment pour ces photos de superhéros « en quête d’absolu ». La série d’images intitulées « when te night falls » et qui est notamment consultable dans le magazine The Photo Academy, est constituée également de doublons de clichés, pris exactement au même endroit et selon un cadrage rigoureusement identique.

Les immeubles du quai André Citroën dans le 15e arrondissement (photo © Benoît Lapray)

Mais pour chacun des sites, les deux images sont le jour et la nuit. Tous les clichés nocturnes ont été pris de nuit, au plus fort de la crue de juin 2016. Quant à leurs équivalents diurnes, ils ont été pris sous un soleil radieux, un an plus tard, alors que la crue de 2016 n’était plus qu’un lointain souvenir.

Quai de la Rapée (photo © Benoît Lapray)

Du coup, le contraste est saisissant entre les clichés pris à la lueur des réverbères en juin 2016 alors que l’eau noire de la Seine submergeait les voies sur berges et venait lécher le tablier de certains ponts, et ceux pris en plein jour un an plus tard et pour lesquels on a bien du mal à imaginer que les promenades verdoyantes et les jardins publics en bordure de Seine puissent être recouverts par 1 m d’eau voire bien davantage.

Au pied du pont Alexandre III (photo © Benoît Lapray)

Une série de clichés en tout cas très pédagogique et qui incite les Parisiens à conserver en tête cette idée que le coeur de la capitale et notamment certains quartiers en bord de Seine sont particulièrement vulnérables en cas de crue majeur du fleuve qui les traverse.

Et ce photographe n’est pas le seul à mettre ainsi en scène l’impact des inondations sur notre quotidien. Citons aussi son collègue sud-africain Gideon Mendel dont les clichés ont fait le tour du monde et ont été repris par de très nombreux médias. Depuis 2007, cet artiste a sillonné le monde, de la Caroline du Sud au Pakistan, en passant par le Brésil, l’Allemagne ou le Nigéria, pour témoigner visuellement de la manière dont les habitants sont impactés dans leur intimité par des inondations.

Un cliché de la série Portraits submergés (photo © Gideon Mendel)

Il en a tiré quatre séries rassemblées sous le titre accrocheur « Un monde qui se noie » et qui ont été notamment exposées aux Rencontres d’Arles en septembre dernier. La première de ces séries, « Portraits submergés », peut-être la plus spectaculaire, met en scène de simples habitants, souvent des couples, qui posent sur le pas de leur porte ou dans leur salon envahi d’eau boueuse dans laquelle ils disparaissent parfois jusqu’à mi-corps voire jusqu’aux épaules.

Dans une maison inondée du Yorkshire (Royaume-Uni) en 2007 (photo © Gideon Mendel, extraite de la série Portaits submergés)

On lit dans le regard de ces victimes des intempéries un certain fatalisme, mais aussi beaucoup de désarroi et de désespoir devant la perte de leur propre habitat devenu totalement inutilisable du fait de l’eau boueuse qui s’est engouffrée partout. On repense au slogan choc qu’avait mis en avant l’établissement public Loire pour rappeler aux populations riveraines que le risque inondation est toujours présent même si les populations l’ont largement oublié depuis les fortes crues qui s’étaient succédé en 1846, 1856, 1866 et 1907 notamment : « parce que la Loire est mieux dans son lit que dans le vôtre… ».

Maison inondée au Royaume-Uni (photo © Gideon Mendel, extraite de la série Lignes de crue)

Sauf que pour ces victimes d’inondation, l’eau s’est bel et bien répandue dans leur salon et leur chambre à coucher, tranformant à jamais ce qui était leur cadre de vie quotidien en un milieu hostile dans lequel leurs effets personnels sont en train de pourrir lentement. La série de clichés intitulée « Ligne d’eau » insiste justement sur les marques laissées par l’eau dans un décor vide de ses habitants mais tout aussi poignant de désolation.

Photo délavée récupérée dans une maison au Bengladesh (photo © Gideon Mendel, extraite de la série Trace d’eau)

Quant à la série dénommée « Traces d’eau », le photographe Gideon Mendel montre des agrandissements des photos personnelles définitivement altérées par le séjour prolongé dans l’eau boueuse et que leurs propriétaires ont soigneusement repêchées pour tenter de conserver un peu des souvenirs de leur vie, gâchée à tout jamais par la catastrophe qui les a touchés. On y voit des visages à moitié effacés, révélateurs de la fragilité de tout ce qui fait notre vie quotidienne face à un risque naturel.

Un beau travail esthétique et pédagogique qui mérite d’être salué en espérant qu’il pourra aider certains à prendre conscience qu’il vaut mieux se préparer à toute éventualité quand on vit en zone inondable : le fait d’avoir conscience du risque permet en effet de réduire fortement sa propre vulnérabilité. Une crue n’est jamais qu’un événement naturel récurrent et il dépend largement de notre comportement et de notre niveau d’adaptation qu’il ne se transforme pas en un drame personnel. Une chose est sûre : faire l’autruche en se persuadant que cela n’arrive qu’aux autres n’est certainement pas la meilleure façon de s’y préparer…

L.V.  

Carnoux en noir et blanc…

3 décembre 2017

Il y a un peu plus de trois mois déjà, le 19 août 2017, la zone boisée située entre Aubagne et Carnoux s’embrasait. Il avait fallu alors une mobilisation exceptionnelle des services d’incendie et de secours pour parvenir in extremis à arrêter les flammes le long de l’avenue Jean Bart, sans pouvoir pour autant empêcher que plusieurs haies de thuyas ne se transforment en torches dans les jardins des propriétés les plus exposées. Une fois l’incendie maîtrisé, c’est un spectacle de désolation qui s’étend désormais sur tout le flanc nord de la commune, visible même depuis l’espace, et qui vient rappeler à chacun à quel point la ville est vulnérable face à ce type de risque naturel.

Les chutes de neige survenues hier et qui ont saupoudré quelques centimètres de poudreuse dans les rues de Carnoux ont tranformé en quelques heures ce paysage dévasté, noir et calciné, devenu comme par enchantement d’une blancheur éclatante.

Ce matin, sous le soleil revenu, le spectacle était saisissant de contraste entre le sol recouvert d’un mince manteau neigeux quasi continu et les branches sombres, tordues, comme torturées par l’incendie, qui se dressaient vers le ciel, d’un bleu intense. De quoi rappeler à chacun la triste réalité de ce feu de forêt qui a bien failli réduire la commune à l’état de cendre, comme bien d’autres villes dans le monde exposées elles-aussi à de terribles feux de forêt cet été et qui n’ont pas eu la possibilité d’être protégées.

L.V.  

Il neige sur Carnoux-en-Provence…

2 décembre 2017

C’est l’hiver et il neige. Malgré les effets du réchauffement climatique global, voilà qui n’a rien d’extraordinaire à cette saison. Mais quand même, ce n’est pas tous les jours, ni même tous les ans, que la ville de Carnoux-en-Provence, pas plus d’ailleurs que ses voisines Aubagne, Aix-en-Provence ou encore Marseille se réveillent recouvertes d’un blanc manteau neigeux comme c’est le cas depuis ce matin, samedi 2 décembre.

Notre-Dame d’Afrique sous la neige, le 2 décembre 2017

En ce jour anniversaire de la victoire napoléonienne d’Austerlitz contre les armées russes et autrichiennes, il neige donc depuis ce matin sur les Bouches-du-Rhône entre la région aixoise et l’étang de Berre. Dans le Var voisin, on signalait déjà 15 cm de neige ce matin au lever du jour et 3000 foyers étaient privés d’électricité du fait des ruptures de lignes aériennes.

A Carnoux, la couche de neige ne dépassait pas quelques cm au même moment mais il a continué à neiger toute la matinée et la ville s’est donc parée de ses habits d’hiver, pour quelques heures tout au plus car les chutes de neige devraient s’arrêter en milieu de journée selon les prévisions de Météo France, avec toutefois des risques de verglas possibles dans la nuit.

Quoi qu’il en soit, le spectacle de Carnoux sous la neige, même sans soleil, est suffisamment rare pour ne pas en profiter et jeter un œil par la fenêtre sur les pins saupoudrés de neige…

Un mail inhabituellement déserté dans la traversée de Carnoux

Une circulation devenue momentanément quelque peu périlleuse

Le Centre culturel sous la neige

Devant la médiathèque Albert Camus

Des pins largement saupoudrés de neige

La mairie éventrée, blanchie sous le harnais

Les cèdres devant l’hostellerie de la Crémaillère

Deux ours polaires en train de batifoler dans le parc Tony Garnier…

L.V.  

Les derniers rebuts de Thulé

18 novembre 2017

Au printemps 1948, à l’issue de ses études à l’Institut de Géographie de l’Université de Paris, le jeune Jean Malaurie, embarque à 26 ans pour participer à la première expédition polaire conduite par Paul-Emile Victor au Groenland. Il renouvellera l’expérience l’année suivante mais se détourne très vite de ce programme d’exploration scientifique qui ne s’intéresse nullement à la vie des habitants du cru, les Inuits.

Jean Malaurie en avril 1951 (photo © Collection personnelle Jean Malaurie)

En juillet 1950, Jean Malaurie repart donc seul au Groenland pour y conduire, pour le compte du CNRS, la première expédition polaire française à visée à la fois géographique et ethnographique. Il ne s’intéresse pas seulement à la géomorphologie des terres arctiques qui sera le sujet de sa thèse, mais aussi et surtout aux hommes qui y vivent. Il établit ainsi des liens d’amitiés avec le groupe de chasseurs de phoques de Thulé avec qui il passe un hiver entier, dressant pour la première fois et sur quatre générations, l’arbre généalogique de la petite communauté isolée dans des conditions extrèmes.

Avec l’Inuit Kutsikitsoq et deux traineaux à chiens, sans radio ni boussole (inexploitable à ces latitudes), ils seront ainsi les deux premiers hommes au monde à atteindre le pôle nord magnétique, le 29 mai 1951.

Le 16 juin 1951, il découvre fortuitement à Thulé, une base militaire américaine construite secrètement pour accueillir des bombardiers nucléaires. Il observe avec consternation, de ses yeux d’ethnologue, le choc culturel auquel sont confrontés les Inuits dont la civilisation relève alors quasiment de l’âge de la pierre, et qui se retrouvent brutalement face à une débauche de moyens matériels déversés par la puissance militaire américaine. Le choc est brutal et Jean Malaurie saisit rapidement les enjeux culturels et politiques de cette rencontre, au point qu’il décide de prendre publiquement position contre l’implantation de cette base.

C’est cette découverte qui sera une des principales motivations de la publication de son livre intitulé Les derniers rois de Thulé, un best seller qui paraît en 1955 aux éditions Plon, et qui inaugure une nouvelle collection, baptisée Terre humaine, que dirigera désormais Jean Malaurie, une collection prestigieuse qui éditera notamment Tristes Tropiques de Claude Lévi-Strauss, Le cheval d’orgueil de Pierre Jakez Hélias, ou encore Pour l’Afrique, j’accuse de René Dumont. Élu en 1957, sur recommandation de Fernand Braudel et de Claude Lévi-Strauss, à la première chaire de géographie polaire de l’histoire de l’Université française, créée pour l’occasion à l’École pratique des hautes études, Jean Malaurie fonde en 1958 le Centre d’études arctiques, et lance, en 1960, Inter-Nord, la grande revue arctique du CNRS.

Cette base militaire américaine de Thulé, dont les premières installations datent de 1941, a subi une importante extension en 1951, avec l’accord des autorités danoises et dans le cadre de l’OTAN, mais sans la moindre consultation des populations autochtones. Pire, en 1953, les 187 Inuits qui vivaient à proximité ont été purement et simplement expulsés et contraints en quelques jours seulement d’abandonner leurs campements et leurs territoires de pêche et de chasse qu’ils occupaient depuis des millénaires, pour s’exiler 150 km plus au nord, à Qaanaaq. Il leur faudra attendre 1999 pour qu’ils reçoivent enfin un dédommagement pour cet exil forcé !

Inuits déménagés à Qaanaaq après la construction de la base de Thulé (photo de presse source Yonder)

Avion de chasse américain à Thulé en 1960 (source © United States Air Force)

C’est que la base américaine de Thulé est devenue hautement stratégique puisqu’elle accueille dans le plus grand secret des bombardiers stratégiques et un personnel militaire pléthorique allant jusqu’à 10 000 personnes. C’est depuis cette base que durant l’hiver 1956-57, en pleine guerre froide, des Boeing B-47 Stratojet effectuèrent des vols de reconnaissance pour aller inspecter les défenses soviétiques. En 1954, l’armée US y procède à l’édification de la Globecom Tower, un mât radio d’une hauteur de 378 mètres qui, lors de sa construction, constituait la troisième plus haute construction humaine sur terre…

Vue aérienne de la base de Thulé

Le 21 janvier 1968, alors que l’activité de la base a connu un certain ralentissement mais abrite encore près de 4 000 agents, un bombardier B-52 Stratofortress s’abîme dans l’océan Arctique, près du Groenland. Ce bombardier transportait quatre bombes nucléaires, dont trois ont été pluvérisées sur la banquise et en mer, la quatrième n’ayant jamais pu été repêchée. De nombreux Inuits, réquisitionnés pour participer aux opérations de nettoyage après la catastrophe, ont développé des maladies du fait des radiations auxquelles ils ont été exposés et ont eu toutes les peines du monde à obtenir des indemnisations après des années de combat juridique.

En 1959, c’est depuis la base de Thulé qu’a été entreprise, toujours dans le plus grand secret, la construction d’une autre base militaire, dénommée Camp Century et située au nord du Groenland, à 240 km de la côte. Il s’agissait officiellement d’une simple base de recherche, constituée de tunnels creusés sous la calotte glaciaire, de laboratoires scientifiques et d’un hôpital alimenté en électricité par un petit réacteur nucléaire acheminé sur place en pièces détachées et mis en service en octobre 1960. C’est d’ailleurs depuis cette base qu’ont été extraites les carottes de glace à partir desquelles le géophysicien danois Willi Dansgaard a réalisé les premières études sur l’évolution du climat depuis 100 000 ans.

Tunnel en construction à Camp Century (source © Frank J. Leskovitz)

Mais Camp Century abritait aussi une base militaire top secret construite dans le cadre du projet Iceworm (« ver de glacier ») et dont l’objectif était d’installer 600 missiles balistiques capable de frapper l’URSS. Pas moins de 21 tunnels ont ainsi été creusés sous la glace et jusqu’à 200 personnes travaillaient sur place en période estivale. Mais en 1964, les mouvements de la banquise se sont révélés tels qu’il a bien fallu se rendre à l’évidence et abandonner le projet. Le réacteur nucléaire a été démantelé et la base est tombée à l’abandon. Faute d’entretien, les tunnels se sont effondrés les uns après les autres et la base a été peu à peu ensevelie. Il a d’ailleurs fallu attendre janvier 1997 pour que le projet soit rendu public, lorsque l’Institut danois de la politique étrangère publia un rapport, à la demande du Parlement danois, concernant l’histoire des armes nucléaires au Groenland. Ce rapport provoqua un véritable scandale, puisqu’il montrait qu’à l’époque le gouvernement danois avait autorisé tacitement le transport d’armes nucléaires au Groenland, en violation avec la déclaration officielle du Premier ministre, Hans Christian Hansen, qui affirmait en 1957 que le Danemark était une zone totalement exempte d’armes nucléaires.

Etat de la base lors d’une inspection en 1969 (source © Frank J. Leskovitz)

Le problème est que, 50 ans après l’abandon du projet, le réchauffement climatique qui touche particulièrement les hautes latitudes terrestres et provoque désormais des feux de brousse jusqu’au Groenland, menace la stabilité de ces vestiges qui à l’époque étaient enfouis sous 30 m de neige et qui s’étendent sur 55 hectares. Si la fonte de la glace se poursuit au rythme actuel, elle ne sera bientôt plus compensée par les chutes de neige, et les vestiges enterrés vont peu à peu être exhumés. Or il reste encore sur place plus de 200 000 l de fuel stocké dans des cuves sans doute percées depuis belle lurette par la rouille, ainsi de 20 000 l de produits chimiques divers et variés, 240 000 l d’eaux usées jamais traitées et 9 200 t de déchets de nature diverses, ainsi que des générateurs et transformateurs contenant des PCB, sans compter l’enceinte de confinement du réacteur nucléaire, toujours radioactive…

Voilà, s’il en était besoin, un exemple supplémentaire des conséquences potentielles de certaines des idées géniales qui ont germé un jour dans l’esprit de nos dirigeants et de nos élites militaires empreintes de la plus grande confiance dans leur toute puissance technologique, mais peu regardantes sur les risques que leurs élucubrations hasardeuses pouvaient faire courir aux générations futures…

L.V.  

Ciel d’apocalypse en Bretagne et fournaise portugaise

18 octobre 2017

Le ciel au-dessus des toits de Rennes, lundi 16 octobre après-midi (photo © Marie Dufay / AFP)

Voilà encore de bien étranges manifestations du changement climatique global que l’on peut observer et dont les médias se sont largement fait l’écho. Ce lundi 16 octobre 2017, les Bretons ont eu la surprise d’observer un ciel plombé couleur jaune sépia plongeant leur quotidien dans une lumière crépusculaire et glauque alors que le thermomètre marquait 19 °C à Brest, à 8h du matin, et jusqu’à 25 °C dans la journée, des températures pour le moins inhabituelles à cette période de l’année.

Cette sinistre coloration jaunâtre du ciel, s’accompagnant d’une odeur prononcée de cendre, a plongé plusieurs villes bretonnes dans une ambiance quasi apocalyptique qui a beaucoup fait jaser sur les réseaux sociaux. Cette situation découle directement du flux d’air orienté du sud et correspondant au déplacement de l’ouragan Ophelia. Ces vents qui soufflaient lundi jusqu’à 130 km/h se sont chargés, lors de leur passage sur les côtes nord-africaines, de très nombreuses particules sableuses qu’ils ont charriés à travers toute la péninsule ibérique puis dans leur traversée du Golfe de Gascogne.

Ciel jaune et températures élevées pour la saison en Bretagne heures (photo © David Vincent / AP)

De nombreux records de chaleur ont été battus du fait de cette arrivée d’air subtropical poussé par la tempête Ophelia. On a ainsi relevé plus de 30 °C à Pau ou Mont-de-Marsan et même 31 °C à Vic-en-Bigorre dans les Hautes-Pyrénées. A Calais, le thermomètre a affiché jusqu’à 26 °C, soit 10 °C de plus que les normales saisonnières. A Uccle, près de Bruxelles, la station météo qui date de 1833 n’avait jamais enregistré un tel record de chaleur (25,7 °C) à une période aussi tardive de l’année…

Après la Bretagne, c’est le sud de l’Angleterre qui a été frappé par le même phénomène. Dans l’après-midi du 16 octobre, la ville de Londres elle-même a été plongée dans cette atmosphère irréelle et angoissante occasionnée par un ciel orangé.

En parallèle, la tempête s’est renforcée en poursuivant sa route vers les côtes irlandaises. A la mi-journée, des rafales soufflant à 190 km/h ont été enregistrées à la pointe sud de l’île. De nombreuses toitures se sont envolées et on déplore trois morts, pour la plupart écrasés suite à la chute d’arbres. Le soir, environ 360 000 foyers étaient privés d’électricité. Cette tempête est sans doute une des pires qu’ait connue l’Irlande depuis le passage de l’ouragan Debbie en 1961, qui avait fait 11 victimes.

Passage de l’ouragan Ophelia sur les côtes irlandaises

Mais en Bretagne comme en Angleterre, l’air n’était pas seulement chargé de particules sableuses d’origine saharienne. Il charriait aussi les cendres des gigantesques incendies qui ravagent actuellement le Portugal, attisés par ces vents violents qui balaient les côtes de la péninsule ibérique. Des centaines de départs de feu se sont ainsi déclarés dimanche 15 octobre dans le nord et le centre du Portugal, ainsi que dans la région espagnole voisine de Galice. Certains semblent d’origine criminelle mais la plupart sont liés à l’imprudence, et tous ont été attisés par les vents violents de l’ouragan Ophelia, se propageant rapidement du fait de l’extrême sécheresse de la végétation après des mois de déficit pluviométrique.

A ce jour, on estime à 350 000 hectares au moins la superficie qui est ainsi partie en fumée au Portugal lors de cet épisode, et le bilan humain est particulièrement lourd avec 4 morts en Espagne et 41 au Portugal. Plus de 3000 pompiers ont été mobilisés pour lutter contre les flammes, avec même l’aide de bombardiers d’eau italiens.

Feu de forêt dans la région de Leiria, le 18 juin 2017 (photo © Patricia De Melo Moreira / AFP)

Déjà, en juin dernier, le pays avait été victime d’un gigantesque incendie qui avait provoqué la mort de 64 personnes dans la région de Leiria. Provoqué par la foudre alors que les températures au sol dépassaient les 40 °C, le feu avait progressé à une vitesse phénoménale parmi les forêts de pins et d’eucalyptus, piégeant de nombreux habitants dans leur maison ou sur les routes. Un véritable désastre malgré la mobilisation de 2000 pompiers volontaires.

A côté de ces feux de forêts catastrophiques, l’incendie qui a menacé Carnoux cet été paraît bien anodin même s’il aurait pu avoir lui-aussi des conséquences dramatiques. Et bien d’autres se sont produit récemment à travers le monde. Ainsi, la Californie qui fait l’objet depuis le 8 octobre de violents incendies, les pires peut-être que cette région a connu depuis 1933, même si en septembre 2015 déjà, la Californie avait été ravagée par les flammes, déplorant alors la destruction de plus de 600 bâtiments dont de nombreuses maisons d’habitation.

Maison en flamme dans la région de Napa en Californie le 9 octobre 2017 (photo © AFP)

Depuis le début du mois d’octobre, 22 départs de feu ont été notés et le dernier bilan disponible à ce jour fait état de 86 000 hectares brûlés avec près de 5 000 maisons réduites en cendres. Plus de 600 000 personnes ont dû être évacuées en catastrophe et au moins 41 mort sont à déplorer, ainsi que 88 disparus. Un très lourd bilan donc et des images d’apocalypse là aussi comme le montrent les photos aériennes : des lotissements entiers ont été totalement rayés de la carte suite au passage des flammes.

Fourgon postal distribuant le courrier dans les ruines de Santa Rosa, Californie, le 10 octobre 2017 (capture video © Douglas Thron)

Le photographe Douglas Thron, filmant avec son drone les ruines de la ville de Santa Rosa, dans le nord de la Californie, a néanmoins eu la surprise d’y repérer une activité insolite, celle du fourgon de la Poste venant consciencieusement distribuer le courrier dans les boîtes aux lettres, seules vestiges non calcinés au milieu d’un champ de ruines. Contrairement à la Poste de Carnoux, qui n’est plus que l’ombre d’un service public bien chancelant, la Poste californienne fait preuve d’un niveau de résilience remarquable…

L.V.

Le feu de Carnoux vu de l’espace…

17 septembre 2017

Le 19 août dernier, l’incendie qui a ravagé le versant boisé situé entre Aubagne et Carnoux, menaçant gravement plusieurs maisons situées en limite nord de Carnoux, le long de l’avenue Jean Bart, a laissé de sinistres traces. Plusieurs centaines d’hectares d’espaces boisés et de garrigues sont partis en fumée, laissant un paysage noirci de cendres et d’arbres calcinés qui rappellera pour de longs mois le souvenir de cet événement. Trois semaines plus tard, lorsque les premières grosses pluies de la saison se sont abattues sur Carnoux, la forte odeur de brûlé a brutalement envahi toute la ville, comme un ultime rappel du sinistre qui a bien failli transformer toute la ville en un gigantesque brasier…

Zones brûlées sur les hauteurs de Carnoux (photo prise le 27 août 2017)

Il suffit de se promener sur les hauteurs de Carnoux comme chacun ou presque l’a fait depuis cette date pour observer les ravages du feu. Mais lorsqu’on prend un peu de hauteur, l’effet est d’autant plus saisissant. Un des outils permettant une telle observation est la famille de satellites Sentinel, qui constituent le volet spatial du programme Copernicus initié par l’Union européenne. Le déploiement de cette batterie de satellites européens, commencé il y a maintenant une dizaine d’années, est encore en cours mais plusieurs satellites sont d’ores et déjà opérationnels.

Le premier, Sentinel-1A, avait été lancé de Kourou le 3 avril 2014 et a bien failli exploser en vol avant même de pouvoir déployer ses capteurs, tout ça à cause d’un banal accident de la circulation. Heureusement, les opérateurs de l’agence spatial européenne avaient alors réussi, grâce à un léger coup d’accélérateur bien placé, à éviter de justesse le satellite américain Acrimsat, qui passait malencontreusement par là au mauvais moment. Les routes de l’espace sont plus dangereuses qu’on ne le croit…

Vue du satellite Sentinel 2 (source © ESA/ATG medialab)

Depuis, d’autres satellites ont été déployés : le petit frère, Sentinel-1B, en avril 2016, mais aussi les deux sœurs jumelles Sentinel-2A, lancé le 23 juin 2015 par Véga depuis Kourou et Sentinel-2B, qui vient de s’envoler depuis Baïkonour le 7 mars 2017, propulsé par le lanceur russe Rockot. Ce sont ces deux derniers satellites qui nous intéressent tout particulièrement car ils disposent de 13 bandes spectrales allant du visible au moyen infra-rouge et permettant de prendre des clichés avec une résolution de 10 à 60 m. A eux deux, ils permettent de couvrir la quasi totalité des terres émergées avec des prises de vues espacées de 5 jours seulement, ce qui en fait des mouchards particulièrement efficaces.

Les clichés pris dans l’infra-rouge sont surtout utiles pour analyser l’occupation des sols car cette technique permet notamment de mettre en évidence certaines distinctions qui n’apparaissent pas aussi clairement dans le spectre visible. Elle permet en particulier de détecter des différences de température mais aussi d’humidité des sols, de couvert végétal et bien d’autres éléments très utiles notamment dans l’agriculture et le suivi des catastrophes naturelles.

Vue satellite de l’incendie du 19 août entre Aubagne et Carnoux (7 septembre 2017 – source © Sentinel hub)

Une partie des données issues de ces observations satellitaires étant en libre accès sur l’application Sentinel hub, il est assez aisé de rechercher, via un outil de visualisation ouvert à tous, des images d’archives prises par Sentinel 2. Celle du 7 septembre 2107 ne manque pas d’intérêt puisque prise quelques jours seulement après l’incendie qui est venu lécher la commune de Carnoux. Le cliché est assez spectaculaire car la restitution via l’exploitation de plusieurs canaux infrarouges met parfaitement en évidence les surfaces brûlées. On y décèle clairement le point de départ de l’incendie et sa propagation jusqu’aux portes de Carnoux, ainsi que les coupe-feux qui ont permis aux pompiers d’en stopper la progression.

Les plus curieux (et bien entendu les Varois) seront naturellement enclins à déplacer le curseur vers la droite de la carte, ce qui permet de mettre en évidence les foyers qui se sont déclarés cet été dans le département voisin qui a, cette année, payé un très lourd tribut avec 3 660 hectares de forêts ravagées par le feu en juillet-août 2017.

Vue satellite des deux incendies du 25 juillet et du 2 septembre aux alentours de La Londe-les-Maures, dans le Var (14 septembre 2017 – source © Sentinel hub)

 On y repère notamment les trois plus importants d’entre eux qui ont eu lieu le 24 juillet à la Croix-Valmer (518 ha) et à Artigues (1 704 ha) et le 25 juillet entre La Londe–les-Maures et Bormes-les-Mimosas (1 418 ha), suivi d’un autre qui s’est déclaré le 2 septembre entre Hyères et La Londe (460 ha). On est loin des chiffres de l’année 2003 où près de 19 000 hectares étaient partis en fumée dans le seul département du Var, causant la mort de 3 pompiers et de 4 autres personnes, mais ce nouvel été meurtier vient rappeler, si besoin était, à quel point les espaces méditerranéens sont vulnérables aux feux de forêt.

Vue satellite de l’incendie du 11 août dans le Cap Corse (30 août 2017 – source © Sentinel hub)

Et si l’on prend la peine de se décaler un peu vers le sud-est jusqu’aux rivages corses, la photo satellite met en évidence d’autres zones calcinées, en particulier au droit du cap Corse. Une tâche noirâtre barre entre Pietracorbara et Sisco toute la largeur de ce que certains irrévérencieux ont comparé à un doigt d’honneur tendu vers la métropole : c’est la signature de l’incendie qui s’est déclenché près de Nonza, sur la côte ouest, dans la nuit du 10 au 11 août 2017 et qui a traversé le cap Corse dans toute sa largeur, brûlant au passage plus de 2000 ha de forêts et de maquis, et obligeant à évacuer pas moins d’un millier de personnes.

Un autre incendie est particulièrement visible sur ces images satellite et montre à quel point les habitations situés en lisière de zone boisée peuvent être exposées : il s’agit de celui d’Olmeta-di-Tuda qui a parcouru de l’ordre de 2200 ha entre le 24 et le 29 juillet et a été arrêté in extremis en bordure des lotissements de la zone très urbanisée de Biguglia, au sud de Bastia.

Vue satellite de l’incendie du 24 juillet au sud de Bastia (30 août 2017 – source © Sentinel hub)

De nombreuses autres images tout aussi spectaculaires sont visibles sur ce site, envoyées depuis l’espace par les satellites Sentinel, dont celles des récents cyclones qui ont ravagé les Antilles et le sud des États-Unis, venant opportunément nous rappeler à quel point les aménagements faits par l’Homme sont vulnérables face aux éléments naturels…

L.V.  

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Au Texas, Houston sous les eaux

30 août 2017

Le sud du Texas est en train de connaître une des pires inondations de son histoire récente. En cause, l’ouragan Harvey, né à la mi-août d’une onde tropicale en Afrique de l’Ouest, et dont les météorologues ont suivi l’évolution à travers tout l’Océan atlantique jusqu’aux côtes vénézuéliennes.


L’ouragan Harvey a tout balayé sur son passage dans les zones côtières (photo © Gabe Hernandez / AP)

Arrivé sur le golfe du Mexique, l’ouragan s’est brusquement intensifié au-dessus des eaux chaudes et a abordé la côte texane vendredi 25 août, classé en catégorie 4 avant de se transformer en simple tempête tropicale à partir du samedi après-midi. Depuis, du fait de l’absence de vent en altitude, la tempête Harvey fait quasiment du sur-place et se déplace très lentement vers l’Est tout en se rechargeant en permanence avec les eaux chaudes du Golfe du Mexique tout proche.

Carte de situation publiée dans Le Monde (source NOAA, New York Times), montrant les cumuls de précipitation et la trajectoire de la tempête au 30 août 2017

Le résultat est assez effrayant puisque on comptabilise désormais en 5 jours un cumul de précipitations tout à fait inhabituel qui pourrait atteindre localement, d’ici jeudi, 1270 mm, bien davantage que ce qui peut tomber sur Marseille en une année entière ! La ville littorale de Corpus Christi, qui compte 300 000 habitants, a été une des premières dévastées par l’ouragan Harvey avec des vents soufflant en pointe à 215 km/h, et à partir du dimanche 27 août c’est la ville de Houston, quatrième plus grande ville des Etats-Unis avec 2,3 millions d’habitants, qui a été à son tour noyée sous des trombes d’eau continues.

Maisons d’habitation ravagées par l’ouragan Harvey à Rockport (photo © Mark Ralston / AFP)

De nombreux axes routiers ont été inondés parfois sous plusieurs mètres d’eau et on a vu des habitants attraper à main nue des poissons passant devant leur porte tandis que les épaves de voitures partent à la dérive dans une eau boueuse qui envahit peu à peu toute la ville.

Au moins 10 personnes ont déjà trouvé la mort depuis le déclenchement de ces inondations, dont une personne qui est décédée dans l’incendie de sa maison à Rockport tandis qu’une femme s’est noyée à Houston en sortant de sa voiture dans une zone où la vitesse d’écoulement était rapide. L’état de catastrophe naturelle a été déclaré dès vendredi et la population est invitée à rester confinée chez elle pour limiter les risques de noyades dans des rues totalement submergées par les eaux.

A Corpus Christi comme en plusieurs autres endroits, des consignes d’évacuation volontaires ont été données, tandis que 4500 prisonniers du centre de détention de la ville de Rosharon, au sud de Houston, ont dû être évacués en catastrophe. Au moins 230 000 foyers étaient privés d’électricité dès dimanche et la situation ne fait qu’empirer depuis. Quant aux deux aéroports de Houston dont les pistes étaient sous les eaux, ils ont dû fermer l’un après l’autre.

Autoroute submergée à Houston dimanche 27 août 2017 (photo © Richard Carson / Reuters)

Le niveau de la mer s’est élevé de près de 4 m au plus fort de la tempête, alors même que la côte texane accueille près d’un tiers des capacités de raffinerie de pétrole des Etats-Unis et le Golfe du Mexique 20 % de la production américaine. Au moins 112 plateformes ont été évacuées, représentant environ un quart de la production quotidienne de brut et de gaz, et de nombreuses installations à terre ont fermé. Il est encore trop tôt pour évaluer le coût de cette catastrophe d’autant que la tempête se déplace désormais vers la Louisiane voisine, encore sous le traumatisme du cyclone Katrina qui avait provoqué en 2005 la rupture de plusieurs digues, ravageant des quartiers entiers de La Nouvelle Orléans, provoquant plus de 1800 morts et laissant une ardoise estimée à 118 milliards de dollars. A ce jour, les estimations pour la tempête Harvey font état d’un bilan qui pourrait néanmoins s’élever autour de 42 milliards de dollars, ce qui est tout à fait considérable et s’explique largement par l’importance économique du Texas dont le PIB dépasse celui d’un pays comme le Canada.

Le Bayou Buffalo en crue dans la traversée de Houston (photo © Carole Enarn / Reuters)

Le président Donald Trump ne s’y est d’ailleurs pas trompé. Contrairement à son prédécesseur Georges W. Bush qui avait été accusé d’indifférence en ne se rendant que tardivement à la Nouvelle Orléans où il s’était contenté d’un rapide survol en hélicoptère, le Président s’est rendu dès mardi 29 août sur place, accompagné de son épouse dont les talons aiguilles n’étaient pas des plus adaptés pour une telle visite de terrain…

A Houston, le maire a décrété le couvre-feu dès mardi pour tenter de sauvegarder la ville des risques de pillage car beaucoup d’habitants ont fui pour se mettre à l’abri, et le gouverneur du Texas a fini par mobiliser l’ensemble des 12 000 soldats de la Garde nationale texane. Mardi, 10 000 habitants étaient déjà hébergés dans le Centre des conventions de Houston et le flux de réfugiés continuait à enfler. Les autorités les dirigeaient alors vers d’autres villes de l’intérieur, moins exposées, dont Dallas, située à 400 km de là et dont les 3 centres d’accueil ont été rapidement saturés.

Evacuation de sinistrés à Houston (photo © Texas Military Department)

A Houston, une des plus grosses inquiétudes a trait à l’état de deux vastes réservoirs endigués construits dans les années 1930 à l’ouest de la ville, précisément pour la protéger contre les inondations, et qui approchent depuis mardi de leur niveau de saturation. Dès la création de la ville en 1836, à la confluence entre deux rivières, le bayou Buffalo et le bayou du Chêne blanc, il est apparu en effet que le site était particulièrement vulnérable au risque d’inondation. En un siècle, la ville a connu 16 inondations majeures, avec parfois jusqu’à 12 m d’eau dans les points bas de la ville !

Après la crue de 1935, particulièrement dévastatrice et qui avait fait 7 morts, une structure spécifique a été mise en place pour développer la prévention du risque inondation, ce qui n’empêche pas qu’on dénombre 30 crues importantes depuis, dont celle liée au passage de la tempête tropicale Allison, le 5 juin 2001, qui a causé 22 victimes et endommagé 95 000 véhicules et 73 000 habitations dans cette région texane.

Les deux réservoirs Addicks et Barker, dont l’état inquiète au plus haut point les ingénieurs de l’US Army Corps of Engineers en charge de leur exploitation, ont été mis en service en 1938 et font l’objet d’un programme de confortement entamé en 2014 mais dont l’achèvement n’est prévu qu’en 2019. Ces vastes cuvettes, dont la capacité de stockage cumulée atteint 510 millions de m3, soit près de la moitié du barrage de Serre-Ponçon, sont fermées par des digues en terre dont la hauteur maximale atteint respectivement 34 et 37 m. Ils interceptent plusieurs affluents en amont du bassin versant du Bayou Buffalo qui ensuite traverse toute l’agglomération de Houston. Ces cuvettes, aménagées en parcs urbains et espaces verts récréatifs, ne servent à retenir l’eau qu’en cas de crue, afin de protéger les zones urbanisées en aval.

Zones résidentielles inondées par les lâchers d’eau du réservoir Addicks, mardi 29 août 2017 (photo © David J. Phillip)

Mais les deux vastes réservoirs ont atteint leur cote maximale autorisée de remplissage dès le lundi 28 août au matin. Il a donc fallu alors commencé à délester avant que le niveau de l’eau ne monte trop haut et ne menace la stabilité des digues elles-mêmes. C’est en effet le point faible de ce type d’ouvrage qui, en cas de submersion peut se rompre, provoquant alors une onde qui se propage très rapidement en aval, dévastant tout sur son passage. C’est donc pour éviter ce risque que les autorités ont préféré ouvrir les vannes, inondant de ce fait l’ensemble des quartiers situés en contrebas, et venant rappeler à tous qu’une protection contre les inondations est toujours dimensionnée pour un niveau de crue donné : au-delà, il faut bien que l’eau s’écoule et reprenne son chemin naturel, en l’occurrence la vaste plaine alluviale dans laquelle les hommes ont choisi, peut-être un peu imprudemment, de bâtir une ville de 2,3 millions d’habitants !

Vue aérienne du réservoir d’Addicts lors d’une inondation récente (photo © US Army Corps of Engineers)

L’histoire n’est certes pas terminée et l’heure des comptes n’est pas encore arrivée. Après le passage de Katrina à la Nouvelle-Orléans, ce sont environ 1 million d’habitants qui ont dû faire appel aux services sociaux de l’Agence fédérale de gestion des situations d’urgence et on estime déjà que ce nombre pourrait avoisiner les 450 000 après le passage de la tempête Harvey, de nombreux Américains n’étant pas assurés contre ce type de risque naturel. La seule bonne nouvelle, si l’on peut dire, c’est que les assureurs ne sont pas inquiets puisque leur secteur dégage un bénéfice confortable évalué actuellement à 700 milliards de dollars, de quoi largement voir venir…

L.V. 

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Quand sort la recluse et que se mélangent réalité et fiction…

24 août 2017

Les amateurs de Fred Vargas se sont naturellement tous précipités sur son dernier roman, au titre énigmatique, publié par les éditions Flammarion et intitulé « Quand sort la recluse ». Le commissaire Adamsberg s’y trouve confronté à une histoire bien étrange et dont il est bien entendu hors de question de révéler le moindre indice pour ne pas gâcher par avance le plaisir du lecteur. Qu’il sache cependant que cette notion de « recluse » est à double sens comme souvent dans les romans foisonnants de celle qui fit jadis sa thèse de doctorat en histoire sur la peste au Moyen-Age mais qui fut aussi employée par le CNRS comme spécialiste en archéozoologie.

Fred Vargas (photo © Visual)

On ne sera donc pas étonné qu’il soit notamment question dans cette histoire de ces femmes pénitentes qui se faisaient enfermer autrefois jusqu’à ce que mort s’ensuive dans un reclusoir, minuscule cellule dont l’entrée était définitivement murée et qui survivaient tant bien que mal grâce aux quelques aumônes de nourriture que les passants leur déposaient via la fenestrelle, petit orifice souvent placé très en hauteur et seul lien avec le reste du monde.

Mais l’on y apprend aussi que la recluse est une petite araignée très discrète, qui ne tisse pas de toile, mais se tapit au fond d’une anfractuosité pour y guetter sa proie. On ne l’aperçoit que très rarement, et pourtant tout le roman est bâti autour d’elle et de ses morsures redoutables, susceptibles de provoquer de terribles nécroses.

L’araignée violon Loxosceles rufescens (photo © 2011 Mark Fox)

De son vrai nom Loxosceles rufescens ou araignée violoniste à cause de la forme de son céphalothorax, cette minuscule araignée brune de la famille des Sicariidae et que l’on trouve notamment dans le sud de la France, a été décrite dès 1820. Sa taille ne dépasse guère 1 cm et elle n’est absolument pas agressive pour l’homme mais elle peut néanmoins piquer lorsqu’elle se retrouve malencontreusement prisonnière d’un vêtement, après s’être cachée au fond d’un placard à l’abri de la lumière.

La quantité de venin qu’elle injecte est faible et sa morsure est donc infiniment moins redoutable que celle de sa cousine américaine Loxosceles reclusa, l’authentique recluse, dont la morsure provoque des nécroses cutanées parfois spectaculaires conduisant dans certains cas jusqu’à la mort.

La cousine américaine Loxosceles reclusa

Or régulièrement les médias se font échos de patients atteints par des morsures de ce type dans le sud de la France alors que la présence de la recluse américaine n’est pas attestée sur le territoire national. On trouve ainsi sur internet la trace d’un reportage de France 3, paru en juillet 2015, qui évoque les cas de trois personnes hospitalisées à Nîmes et à Montpellier en quelques mois, trois patientes qui ont dû subir des interventions chirurgicales après avoir développé des nécroses spectaculaires à la cuisse et au bras suite à des morsures attribuées à la fameuse araignée violon Loxosceles rufescens.

Un médecin du Centre anti-poison de Marseille indique d’ailleurs avoir déjà eu connaissance de deux autres cas sévères du même type survenus à Nîmes en 2009 et pense que la toxicité exceptionnelle du venin de la petite araignée s’expliquerait par les fortes chaleurs.

Exemple de nécrose sur une plaie

Un autre article de La Dépêche, daté de la même période, fait lui état de deux femmes habitant respectivement dans l’Hérault et dans le Gard et cite leur témoignage, toutes les deux ayant été piquées alors qu’elles enfilaient leur pantalon. Dans les deux cas il a fallu recourir à des opérations de chirurgie esthétique pour supprimer les parties nécrosées qui s’étendaient sur une large surface d’une dizaine de cm malgré un traitement antibiotique administré très rapidement. Mais contrairement au précédent article, les morsures sont attribuées non pas à Loxosceles rufescens mais à sa cousine américaine, la recluse qui, selon certaines sources, serait présente en France depuis le début des années 2000.

Ceux qui liront le dernier opus de Fred Vargas retrouveront dans ces quelques faits divers une matière qui a manifestement inspiré la romancière : polémique qui enfle sur la toile suite à plusieurs cas graves de morsures attribuées à l’araignée violon en début de période estivale précisément dans le Gard, débats sans fin sur l’hypothèse selon laquelle le venin de l’araignée deviendrait plus virulent en période de forte chaleur, supputations sur l’influence du changement climatique comme facteur déclenchant, etc. Nul doute que l’archéozoologue à l’imagination fertile a puisé dans ces dépêches d’agence et dans les forums de discussion qu’elles suscitent inévitablement de quoi alimenter son histoire.

Mais le plus cocasse est que l’histoire se répète. Alors que le livre de Fred Vargas a été édité en mai 2017, voilà que l’on voit fleurir de nouvelles alertes rendues publiques initialement par France Bleu Roussillon puis reprises par de nombreux médias, sans curieusement qu’il y soit fait allusion au roman qui vient de paraître… Il s’agirait cette fois d’au moins quatre cas de patients traités à la clinique Saint-Pierre de Perpignan. Tous se plaignent de fortes brûlures et de démangeaisons accompagnées dans certains cas de fièvre suite à des piqûres d’insectes qui se sont infectées, avec parfois une plaque nécrosée noire au centre de la rougeur.

La magnifique araignée-paon, nettement moins discrète que la recluse

A Perpignan, les médecins ont conclu à des morsures de la cousine américaine Loxosceles reclusa. Mais les arachnologues restent sceptiques, eux qui affirment n’avoir encore jamais repéré la recluse sur le territoire national, alors qu’il existe 44 000 espèces d’araignées connues et que l’on en découvre fréquemment de nouvelles, la plus insolite étant peut-être la très exotique araignée-paon, une espèce endémique d’Australie..

Une chose est sûre, le sujet n’a certainement pas fini de faire gamberger. Pour peu que le roman policier de Fred Vargas ait autant de succès que ses ouvrages précédents, les habitants du sud-est de la France n’ont pas fini d’incriminer, à chaque piqûre d’insecte, la petite araignée violon, que manifestement bien peu peuvent se vanter d’avoir jamais vu mais qui pourrait bien faire le buzz sur la toile…

L.V.

Carnoux-en-Provence de nouveau menacé par les flammes

20 août 2017

Carnoux envahi par les fumées de l’incendie, samedi 19 août 2017 vers 19h

La ville de Carnoux, entourée de massifs forestiers dont celui de la Marcouline, fait partie de ces communes provençales particulièrement exposées au risque de feu de forêt. Prescrit en 2011, le plan de prévention des risques liés aux feux de forêts (PPRIF) a été approuvé par arrêté préfectoral en date du 28 janvier 2014 et impose certaines obligations liées en particulier au débroussaillement mais aussi aux constructions et activités dans les secteurs les plus exposés. Il recense plus de 50 départs de feu qui ont impacté le territoire communal depuis 1973, date de création de la base de données Prométhée, le dernier en date étant celui du 4 août 2005.

Ce jour-là, deux foyers avaient été allumés dont l’un près du cimetière des Fenestrelles à Aubagne, et ils avaient consummé près de 200 ha en direction de Carnoux, menaçant fortement les habitations situées en limite nord de Carnoux et nécessitant l’évacuation du centre de vacances alors dénommé Shangri-La. Les deux lignes haute tension les plus menacées avaient été coupées à titre préventif, privant momentanément d’électricité plus de 15 000 foyers, tandis que le trafic ferroviaire était totalement interrompu entre Aubagne et Cassis à partir du début de l’après-midi et jusqu’après minuit. Trois pompiers avaient même été légèrement blessés dans le tunnel ferroviaire sous la colline de Carnoux.

A l’époque, plus de 600 pompiers avaient été engagés pour sauver les habitations de Carnoux d’une destruction sinon inévitable. Les moyens aériens mobilisés avaient été également importants, malgré l’impossibilité de faire voler les Canadairs alors cloués au sol dans l’attente d’une enquête suite à l’accident survenu quelques jours avant en Corse.

Hier, la commune de Carnoux a connu un nouvel épisode très comparable et qui a de nouveau menacé le même secteur qu’en 2005, ce qui vient confirmer pour ceux qui auraient tendance à l’oublier la réalité de cette menace saisonnière. Alors que la végétation était particulièrement sèche après l’épisode de canicule survenu fin juillet et que le mistral soufflait en moyenne à 45 km/h avec des rafales à 70 voire 80 km/h, plusieurs départs de feu se seraient produits vers 17h30 dans le quartier de la Pérusonne à Aubagne, une zone résidentielle de villas à proximité de la clinique de la Casamance.

Vue de l’incendie sur l’avenue Jean Bart samedi 19 août 2017 vers 19h

Attisé par le vent, l’incendie s’est rapidement propagé vers le sud et est arrivé jusqu’en bordure de l’avenue Jean Bart à Carnoux où il menaçait les premières maisons vers 18h30. Comme en 2005 et pour les mêmes raisons, les deux lignes à haute tension RTE 17 et 19 ont été coupées, le trafic ferroviaire entre Aubagne et Cassis a été interrompu dès 19h, l’accès à Carnoux depuis l’autoroute A50 a été fermé et la circulation sur la RD 41 a été arrêtée.

La mobilisation des services de lutte contre l’incendie a été remarquable, comme en 2005, avec plus de 600 pompiers mobilisés très rapidement, aidés par d’importants moyens aériens : deux hélicoptères bombardiers d’eau, deux tracker, quatre Canadair et un Dash ! Les moyens engagés au sol ont également été considérables, y compris avec un bulldozer permettant de frayer un chemin à travers le massif boisé.

Canadair en train de larguer le long de l’avenue Jean Bart, samedi 19 août 2017 vers 19h

Les rotations des Canadairs ont été particulièrement nombreuses hier en fin d’après-midi et à nouveau ce matin dès 6h30 pour assurer l’absence de tout risque de reprise, alors que les bordures de la zone calcinées fumaient encore de manière sporadique. Les pompiers ont lutté toute la nuit contre l’incendie mais dès 23 h il était considéré comme maîtrisé. Les habitants des zones les plus exposées ont été d’abord confinées chez elles, ainsi que les pensionnaires de la maison de retraite située en contrebas. En revanche, il a fallu, comme en 2005, procéder à l’évacuation des vacanciers du centre de vacance Odalys, particulièrement exposés, mais aussi à une partie des chiens du chenil en lisière de forêt, et finalement de certains des habitants dont les maisons ont été léchées par le feu. La superficie dévorée par les flammes est évaluée à environ 250 hectares selon les dernières estimations.

Vue de l’incendie depuis l’avenue Jean Bart, samedi 19 août 2017 vers 19h

Le gymnase du Mont-Fleuri a été mis à disposition pour l’accueil des vacanciers d’Odalyse et une cinquantaine d’entre eux a préféré y passer toute la nuit plutôt que de regagner le centre lorsqu’ils ont eu la possibilité de le faire, à partir de 23 h, une fois le plus gros du danger enfin écarté. Les voyageurs des trains circulant entre Marseille et Nice ont eu moins de chance et près de 4000 d’entre eux ont dû passer la nuit à bord des trains ou dans les gares de Nice, Toulon ou Marseille. Ce n’est qu’aujourd’hui dans la matinée que le trafic a pu commencer à reprendre, mais il reste encore fortement perturbé…

Au sud de l’avenue Jean Bart, certaines maisons ont été léchées par les flammes

L’action des pompiers a été particulièrement efficace sur ce nouvel incendie dont les conséquences auraient pu être dramatiques pour la petite ville de Carnoux, où l’habitat est très dense et la végétation de pins et de thuyas est très développée, facilitant à outrance la propagation du feu d’un jardin à un autre. Seuls des arbres ont effectivement brûlé au sud de l’avenue Jean Bart, endommageant au passage quelques cabanons de jardin, mais toutes les maisons ont pu être épargnées et aucune victime n’est à déplorer.

Forêt calcinée le long de l’avenue Jean Bart

Il n’en demeure pas moins que le spectacle de désolation qu’offrent les pinèdes calcinées en bordure de l’avenue Jean Bart, entre le centre de vacance d’Odalys et le petit bassin de rétention d’eau à l’entrée du chemin forestier, vient rappeler une fois encore et pour de longues années, à quel point notre commune, nichée dans un écrin de forêt méridionnale, est exposée à ce risque de feu de forêt…

L.V.  

Feu de brousse au Groenland : où va t-on ?

16 août 2017

Décidément, les effets du réchauffement climatique sont de plus en plus manifestes, n’en déplaise aux climato-sceptiques et autres responsables politiques attardés. Une des conséquences attendues du réchauffement climatique global est l’augmentation du risque de feux de forêt, et de ce point de vue, le cru 2017 fait honneur aux prévisions…

Canadair en action sur un feu de forêt

Alors que plus de 11 000 hectares de forêts ont déjà brûlé en France depuis le début de l’été 2017, notamment dans le Var et en Haute-Corse, chiffres malheureusement encore très provisoires, issus de la base de données Prométhée, et que déjà 360 000 hectares sont partis en fumée sur l’ensemble de l’Europe, principalement autour du bassin méditerranéen, selon EFFIS, le système européen d’information sur les feux de forêts, voila maintenant que l’on signale des feux de brousse au Groenland !

En matière de lutte contre le changement climatique, il n’y a pas le feu au lac, comme persistent à s’en convaincre les plus sceptiques. Certes, mais il y a quand même déjà le feu à la calotte glaciaire…

Rattaché administrativement au Danemark, le Groenland est la deuxième plus grande île du monde, avec une superficie totale de plus de 2 millions de km², soit quatre fois l’étendue du territoire métropolitain français. Situé entre le Canada et l’Islande et bordé au nord par l’Océan glacial arctique, le pays est recouvert à 80 % par une calotte glaciaire, un vaste inlandsis dont l’épaisseur de glace dépasse localement 3 km. Seules les bordures ouest et sud du territoire sont recouvertes de végétation, une toundra constituée de mousses, de lichens et de plantes herbeuses, ainsi que de bouleaux nains ne dépassant pas quelques dizaines de centimètres de hauteur.

Paysage de toundra au Groenland

On est donc loin de la végétation du maquis corse et de celle de la garrigue méditerranéenne avec ses pins d’Alep qui s’enflamment comme des torches à la moindre étincelle. Et pourtant, même dans ce paysage semi-glaciaire où la température peut descendre jusqu’à -66 °C et où le cumul annuel de précipitation peut atteindre 2,5 m dans le sud, voila que l’on signale des feux de brousse récurrents…

Le phénomène était considéré comme extrêmement rare à ces latitudes jusqu’à présent, car les conditions de climat et de végétation sont beaucoup moins propices que dans le nord-ouest canadien, davantage boisé, où le risque tend à se multiplier, comme on l’a vu en mai 2016, lorsqu’un gigantesque incendie avait ravagé plus de 100 000 hectares de forêt autour de Fort-Murray au Canada, nécessitant l’évacuation préventive de 80 000 personnes.

Carte de la zone touchée (infographie © Audrey Dufour / La Croix)

En 2015 et 2016, plusieurs incendies avaient déjà été signalés sur les rivages du Groenland, mais dans le sud du pays. Cette année, le phénomène s’est déclenché dans une zone cotière située dans l’ouest, plutôt en altitude, dans un secteur habituellement recouvert de neige. Le départ de feu a été repéré par un survol aérien le 31 juillet 2017, à environ 150 kilomètres au nord-est de Sisimiut, une localité de 5 500 habitants (soit un dixième de la population totale de tout le Groenland !), et confirmé ensuite par plusieurs images satellites, début août, qui donnent une idée de l’extension du phénomène. On estime à environ 15 km², soit 1500 ha, la surface de toundra ainsi partie en fumée en quelques jours, dans un pays qui n’est pas équipé pour lutter contre ce type de risque naturel. Et un deuxième foyer d’incendie a été repéré quelques jours plus tard, plus au sud, confirmant la réalité de ce risque alors que la température estivale est exceptionnellement élevée avec des pointes dépassant allègrement les 20 °C…

Image satellite de l’incendie le 3 août 2017 obtenue par le satellite Copernicus et retraitée par Pierre Markuse

Ces observations sont particulièrement inquiétantes aux yeux des climatologues car les régions polaires sont les plus affectées par le réchauffement climatique, avec une augmentation moyenne de la température qui y est deux à trois fois plus élevée que sur le reste du globe. A leurs yeux, ces incendies inédits, quelle qu’en soit leur cause (qui n’est pas connue à ce jour), sont la conséquence directe du recul de la calotte glaciaire qui met à jour des étendues végétalisées de plus en plus vaste, dont le sol tourbeux est riche en matière organique, sujet à une combustion lente mais très difficile à combattre.

Vue satellite du feu le 3 août 2017 (photo Landsat USGS © NASA)

Ces incendies sont d’autant plus dangereux que leurs effets indirects contribuent largement à accélérer le réchauffement climatique lui-même. La combustion provoque naturellement de fortes émissions de gaz carbonique, mais aussi de méthane, contenu en quantité dans les sols tourbeux habituellement gelés, deux gaz à effet de serre ainsi libérés en grande quantité dans l’atmosphère. De plus, la suie issue de la combustion se dépose sur les étendues enneigées aux alentours, limitant fortement le pouvoir réflecteur de cette dernière et accélérant ainsi sa fonte.

Inlandsis du Goenland (photo © Halorache / expédition A Carré 2009)

Voilà en tout cas un nouveau facteur aggravant dont nous n’avions pas vraiment besoin et qui risque d’accélérer encore les impacts négatifs du réchauffement climatique dans une des régions qui y est le plus vulnérable. On savait déjà que la fonte de l’ensemble de la calotte glaciaire du Groenland pouvait se traduire par une élévation totale de 7 m du niveau de la mer, avec les conséquences catastrophiques qui en résultent pour de très nombreuses régions côtières. On avait aussi estimé que un tiers de l’élévation actuelle du niveau des océans (qui est depuis plusieurs années déjà de l’ordre de 3 mm/an en moyenne) était d’ores et déjà due au recul de cette calotte glaciaire et à l’augmentation de débit des cours d’eau côtiers issus de cette fonte.

Mais voila que l’on commence à apercevoir d’autres risques liés à ces pertubations climatiques dans les zones arctiques. Les feux de brousse en sont un de ces aspects inédits. La fonte du permafrost, sol gelé en permanence en profondeur et qui s’étend sur des millions de km², dans le nord de l’Europe, le Canada et la Sibérie, pourrait constituer un autre facteur aggravant particulièrement explosif. Les conséquences déjà observées ne se limitent en effet pas aux seuls impacts sur les fondations des infrastructures édifiées sur ce type de sol !

La fonte du pergélisol libère des quantités énormes de carbone organique que les bactéries peuvent transformer en gaz carbonique et en méthane, ce qui rique d’accélérer considérablement l’impact du réchauffement climatique, avec un effet d’emballement incontrôlable. Une véritable bombe climatique en perspective !

Inspection vétérinaire d’un troupeau de rennes dans la péninsule de Yamal, dans le Grand Nord russe (photo © AFP / publiée dans Science et avenir)

Et ne parlons pas des risques sanitaires que certains redoutent. En 2016, sur la péninsule de Yamal, à 2500 km au nord-est de Moscou, un enfant est décédé et 23 personnes ont été infectées par l’anthrax, la redoutable maladie du charbon, transmise par un virus, disparu de la région depuis au moins 75 ans mais qui se trouvait à l’état de latence dans un cadavre de renne qui avait dégelé suite aux températures exceptionnellement chaudes (jusqu’à 35 °C !) de l’été 2016. On craint désormais que ce type de risque se multiplie, réveillant d’autres virus dont celui de la variole, officiellement éradiquée et contre laquelle on ne se protège plus, avec même des scénarios catastrophes impliquant certains virus géants et totalement inconnus repérés dans des cadavres de mamouths congelés. Bienvenu dans le nouveau monde du réchauffement climatique…

L.V.  

6ème extinction massive : l’agonie sera brève…

11 juillet 2017

Nous avons tous en tête cette question lancinante qui nous obsède : comment les dinosaures, maîtres du monde et omniprésent à la surface de la Terre durant des millions d’années ont-ils pu bien pu disparaître du jour au lendemain ou presque et céder ainsi la place à d’autres espèces aussi fragiles que ridicules, qui ne faisaient pas le poids à côté de ces monstres, et qui pourtant ont su occuper toute la place laissée libre par leurs redoutables prédécesseurs ?

Astéroïde géant, supernova tueuse, crise climatique brutale ou éruption volcanique cataclysmique, les hypothèses ne manquent pas pour expliquer ces extinctions massives d’espèces qui se sont produites à de multiples reprises depuis que la Terre existe. Celle qui a eu lieu à la fin du Crétacé, il y a maintenant 65 millions d’années ne serait que la cinquième de ces grandes extinctions massives connues, et encore certains en répertorient même plusieurs dizaines.

Pour ce qui est de la disparition des dinosaures, on soupçonne que la chute d’une météorite de 10 à 20 km de diamètre, tombée malencontreusement dans le Golfe du Mexique, aurait pu provoquer un cataclysme suffisant pour expliquer la disparition de ces reptiles qui avaient pourtant su coloniser la quasi-totalité de la planète. D’autres évoquent l’émission de millions de m3 de laves qui s’épanchaient alors sur le vaste plateau du Deccan en Inde durant une vague d’éruptions qui dura pendant près de 1 million d’années, induisant des changements climatiques majeurs à l’origine de la disparition de 47 % des espèces marines et 18 % des vertébrés terrestres, dont la totalité des dinosaures et des reptiles volants.

Empilement de coulées basaltiques au Deccan (Inde)

Une véritable hécatombe donc, mais qui, bien que reliée sans doute à un (ou plusieurs) événement déclencheur brutal, ne s’est probablement pas faite du jour au lendemain comme on a trop tendance à se le représenter. Cela a sans doute pris plusieurs dizaines voire centaines de milliers d’années ! Les hypothèses les plus récentes (mais toujours controversées) estiment que c’est l’impact de la météorite de Chicxulub qui serait à l’origine d’une disparition rapide de la végétation du fait des perturbations climatiques associées à un tel impact, mais que son effet aurait été aggravé par les émissions volcaniques massives du Deccan, elles-mêmes déclenchées par l’impact, tout en reconnaissant qu’il s’est probablement passé environ 50 000 ans entre les deux événements, une paille !

Ammonites pourchassées par un mosasaure

Le plus probable en tout cas est que c’est la photosynthèse qui a été affectée en priorité par ces événements cataclysmiques, provoquant par contrecoup la disparition des espèces végétariennes qu’elles soient marines (ammonites et autres belemnites notamment, mais aussi les mosasaurus qui s’en nourrissaient) ou terrestres, dont les fameux dinosaures, qui ont néanmoins survécu via leurs descendants que sont les oiseaux. Les mammifères, eux, ont profité de l’occasion pour se diversifier et proliférer.

Car c’est une constante du genre : la durée de vie moyenne d’une espèce animale ou végétale est de l’ordre de 5 à 6 millions d’années. Ensuite, elle disparaît ou elle donne naissance, par mutation, à de nouvelles espèces. La vie sur Terre étant riche de millions d’espèces différentes, cela revient à dire que plusieurs espèces disparaissent chaque année, tandis que de nouvelles surgissent régulièrement. Sauf lors de ces crises exceptionnelles qui voient disparaître au même moment des millions d’espèces. La Nature a besoin ensuite de plusieurs millions d’années pour retrouver un nouvel équilibre.

Présenté ainsi, on pourrait considérer que la perte de biodiversité que nous vivons actuellement et que beaucoup présentent comme La Sixième Extinction (c’est le titre d’un livre de la journaliste Elisabeth Kolbert, publié en 2015 et qui a été couronné par le Prix Pulitzer), n’est donc qu’une péripétie de plus comme la Terre en a connue plusieurs au fil des temps géologiques. Sauf que jamais la disparition des espèces n’a connu un rythme aussi rapide et ceci sans même faire appel à une bonne vieille catastrophe naturelle ou un bombardement cosmique de derrière les fagots.

Le dodo, une espèce décimée par l’homme (crédit photo : Ballista)

Selon une étude publiée en juin 2015 dans Science Advances, le taux actuel de disparition des espèces animales serait d’au moins 100 fois supérieur à ce qu’il n’était avant 1900, soit un rythme d’extinction sans précédent depuis la fin des dinosaures. L’Union internationale pour la conservation de la nature considère ainsi qu’environ 41 % des espèces d’amphibiens et 26 % des espèces de mammifères sont désormais menacées d’extinction. Il suffit de se promener dans la galerie du Museum d’Histoire naturelle à Paris pour retracer l’histoire de ces centaines d’espèces qui ont déjà disparu de la surface du globe, exterminées volontairement ou non par des générations de chasseurs.

Et la situation s’aggrave comme vient encore de le montrer une étude publiée cette semaine dans les Proceedings of the National Academy of Sciences par des chercheurs américains et mexicains. Sur 27 600 espèces de vertébrés terrestres étudiés, les chercheurs ont constaté que 32 % avaient vu leurs populations décliner dangereusement, ce qui est un prélude à leur disparition annoncée. La plupart de ces espèces voit son aire de répartition se réduire drastiquement, ce qui est à l’origine de son déclin. Ainsi, le nombre de lions a chuté de 43 % au cours des 20 dernières années et ils ne sont plus présents en Afrique que sur de minuscules territoires résiduels.

Le chardonneret élégant (source : Nature Alsace)

Les orang outangs à Bornéo ont vu leurs effectifs fondre de 25 % ces 10 dernières années tandis qu’en France le nombre de chardonnerets a diminué de 40 % dans le même temps. Au total, ces chercheurs estiment que le nombre total de vertébrés terrestres aurait ainsi été divisé par deux en 40 ans, ce qui vient confirmer les chiffres alarmistes annoncés en 2016 par le WWF qui estimait que 58 % des population de vertébrés avait disparu entre 1970 et 2012.

Les causes de cette nouvelle extinction massive qui se produit sous nos yeux à un rythme jamais connu sont parfaitement connues et analysées. Elles sont toutes liées directement à l’activité humaine : déforestation, urbanisation, exploitation minière, agriculture intensive, pollution des eaux, réchauffement climatique, transfert d’espèces invasives. La perte de biodiversité qui en résulte est maximale dans les milieux les plus vulnérables que sont notamment les îles, là où l’isolement avait permis le développement d’espèces endémiques qui disparaissent très rapidement lorsque l’activité humaine les met en contact de prédateurs nouveaux. La littérature scientifique regorge de tels exemples, mais l’enjeu est aussi la biodiversité ordinaire, celle des papillons et des abeilles dont les populations sont en train de s’effondrer alors même qu’elles sont vitales pour assurer la pollinisation nécessaire à l’activité agricole et donc à la survie de l’humanité.

Un dessin signé Ahmet Aykanat

C’est finalement la seule bonne nouvelle que l’on pourrait retenir : il ne reste plus beaucoup de temps pour inverser la tendance d’un cycle aussi mortifère et au vu des décisions de certains responsables politiques actuels, tout laisse penser que les choses ne vont aller qu’en s’accélérant. La sixième extinction massive est bien engagée, sera très vraisemblablement fatale à l’espèce humaine et elle devrait être courte : au train où vont les choses, la Planète ne devrait plus avoir à nous supporter pendant très longtemps…

L.V. 

Comment lutter contre les moustiques ?

17 juin 2017

Le moustique tigre, Aedes albopictus

Avec le retour des beaux jours et l’arrivée des cigales, ce sont aussi les moustiques qui s’en donnent à coeur joie, et parmi eux le redoutable moustique tigre, Aedes albopictus, potentiel vecteur de la dengue, du chikungunya et du Zika ! Arrivé en France en 2004, en provenance de l’Asie du sud-est, le moustique tigre est désormais implanté durablement dans une trentaine de départements français et son expansion se poursuit grâce à son excellente adaptation aux milieux urbains et à la capacité de ses œufs à résister aux périodes de froid hivernal.

Pour autant, le moustique tigre n’est que l’une des 3500 espèces de moustiques recensées dans le monde, dont 64 en France métropolitaine (et 238 en Guyane !). Seules environ 200 de ces espèces s’attaquent à l’homme, parmi lesquelles le moustique ordinaire, Culex pipiens, encore très répandu en France mais qui commence à se faire rare à Carnoux où il a été largement supplanté par son cousin asiatique nettement mieux adapté à l’environnement local.

Le classique, Culex pipiens (photo Stephen Doggett, NSW Health Pathology)

La lutte contre les moustiques s’est développée au tout début du XXème siècle, après que le médecin militaire Alphonse Laveran, alors en poste à Alger, a découvert en 1880 que le paludisme était provoqué par un hématozoaire, Plasmodium falciparum, puis a compris le rôle des moustiques de type anophèles dans la transmission de ce parasite. Jusque là, on se contentait de lutter contre la malaria en tentant d’assécher les zones humides. A partir de cette période, les actions sont devenues plus ciblées, et moins impactantes pour ces zones humides qui jouent par ailleurs un rôle majeur pour la biodiversité mais également pour la régulation du cycle de l’eau : diffusion des moustiquaires, introduction massive de gambusies, poissons dont les larves se nourrissent de moustiques et qui se sont révélés particulièrement invasifs, mais aussi campagnes de désinsectisation à coup de produits chimiques peu ragoûtants…

Epandage de DDT sur une plage dans les années 1950

C’est ainsi que dès 1943 et avec l’aide des troupes américaines de débarquement, des campagnes s’organisent pour pulvériser, à l’intérieur même des habitations de certains régions de Corse, un mélange à base de pétrole et de DDT… Dans les années 1960, ce sont les zones côtières du Languedoc qui sont aspergées de DDT par voie aérienne pour les assainir avant d’y développer le tourisme de masse.

La mise en évidence des risques liés à l’utilisation massive de cet insecticide, révélés notamment par le livre de la biologiste américaine Rachel Carson, Printemps silencieux, publié en 1962, mettra progressivement un terme à de telles pratiques. En 1976, la découverte du Bti, Bacillus thuringiensis israelensis, insecticide biologique très sélectif et peu toxique pour les autres espèces, permet de lancer la démoustication dans des zones comme la Camargue qui jusque là avaient été relativement épargnées par ces campagnes du fait de son statut de zone naturelle protégée, et ceci bien qu’elle ait été le théâtre de la dernière épidémie de paludisme connue sur le territoire métropolitain en 1943.

En Camargue, comme sur toute la frange littorale des Pyrénées-Orientales jusqu’aux Bouches-du-Rhône, c’est un établissement public créé en 1958, l’Entente interdépartementale pour la démoustication (IED) qui est chargé de la lutte contre la prolifération des moustiques et principalement des espèces les plus nuisibles pour l’homme que sont Aedes caspius et Aedes detrius, dont les larves se développent en milieu humide. La stratégie adoptée depuis août 2006 en Camargue consiste à identifier les gîtes larvaires qui font l’objet d’une surveillance permettant de déclencher à bon escient les traitements (principalement par voie aérienne) à base du larvicide Bti, qui n’est toxique (par ingestion) que pour les larves de nématodes (dont font partie les moustiques) mais pas pour les autres organismes aquatiques.

Epandage de Bti en Camargue (source Actu environnement)

Ces pratiques sont fortement encadrées et accompagnées d’une démarche de suivi environnemental pour évaluer l’impact de ces interventions sur le milieu naturel. Le Parc naturel de Camargue impose en effet que 10 % de l’enveloppe consacrée à la démoustication soit affectée à un suivi de son impact écologique et sociologique. Or ces études ont mis en évidence que l’effet de ces traitements est loin d’être négligeable et se répercute sur toute la chaîne alimentaire : la destruction des larves de moustiques et de chironomes provoque une diminution de moitié des populations d’odonates (libellules et autres agrions) et de 60 % des araignées, ce qui se traduit déjà par une diminution d’un tiers des passereaux, confirmant s’il en était encore besoin, que tout équilibre écologique est par nature fragile…

Du coup, les recherches s’orientent désormais vers la mise en œuvre de stratégies encore plus ciblées qui visent à réguler les populations de moustiques uniquement là où elles constituent une véritable gêne pour les populations, donc dans les lieux habités. Il s’agit pour cela de mettre en place des pièges à moustiques pour constituer des barrières autour des zones urbanisées.

Schéma de principe d’un piège à moustique artisanal (source : espacebuzz)

L’idée du piège à moustique individuelle est vieille comme le monde et il suffit de regarder sur internet d’excellentes vidéo qui expliquent en détail comment constituer un piège à moustique en coupant en deux une bouteille en plastique au fond de laquelle on dispose un mélange de sucre roux, d’eau et de levure de boulanger, avant de refermer le récipient avec la partie conique renversée : les moustiques attirés par le produit sucré rentrent dans la bouteille mais n’arrivent plus à en ressortir. Le système est efficace mais doit être renouvelé régulièrement.

Les inventeurs de la borne anti-moustiques (source : Qista)

Pour être utilisé à une échelle plus industrielle, d’autres dispositifs existent dont un breveté en 2013 et désormais produit par la société Qista, basée à Aix-en-Provence. Ces BAM, ou bornes anti-moustiques, attirent les moustiques en reproduisant la respiration humaine au repos (par expirations saccadées de gaz carbonique) et en diffusant des composés chimiques à base d’acide lactique proches de la sueur humaine. Les moustiques sont aspirés par un ventilateur dès qu’ils s’approchent du piège et sont retenus dans un filet. Le dispositif a été testé dans un hameau d’Arles en 2015 et s’est avéré particulièrement efficace pour un coût relativement modique tout en se montrant particulièrement sélectif : sur plus de 250 000 insectes capturés, 99,7 % appartiennent à 9 espèces de moustiques ciblées ! En 2016, 15 pièges de ce type ont été mis en place et l’expérience pourrait encore s’étendre.

Piège contre le moustique tigre développé par l’IED (source © France3 Languedoc-Roussillon)

Vis à vis du moustique tigre, des démarches similaires se développent également. La particularité de cette espèce est que les femelles pratiquent une ponte fractionnée en répartissant leurs œufs dans différents endroits jugés propices mais dispersés et peu aisés à détecter. L’idée consiste donc à les attirer dans des gîtes très attractifs mais rendus inaccessibles par une moustiquaire munie d’une chambre de contamination où le moustique s’enduit les pattes d’un peu d’insecticide. Ne réussissant pas à y déposer ses œufs, la femelle ira pondre ailleurs mais en disséminant l’insecticide sur tous ses lieux successifs de ponte, ce qui le rend du coup très opérant sur les futures larves.

Bref, l’ingéniosité humaine dans la lutte contre son ennemi séculaire, le moustique, n’a pas de limite…

L.V.  

La plupart des informations de cet article sont issues du n° 92-93 de l’excellente revue Zones Humides infos publiée par la SNPN (Société nationale de protection de la nature)

Après les eaux usées, Marseille s’attaque au pluvial !

3 mai 2017

Baignade interdite au Prado après un orage (photo © P. Laurenson / AFP)

A Marseille, comme chacun sait, mieux vaut ne pas se baigner sur la plage du Prado après un orage. Rappelons que ce parc balnéaire qui s’étend sur 3,5 km de littoral et couvre près de 26 ha, a été aménagé de manière complètement artificielle à la fin des années 1970, sous la mandature du Gaston Deferre, pour permettre avant tout de se débarrasser à moindre frais des millions de m³ de déblais issus des chantiers de construction des lignes de métro. A l’époque, on ne prenait guère de gants avec l’environnement y compris dans une zone littorale située comme celle-ci à l’embouchure de l’Huveaune, dans un milieu naturel qui a dû jadis être un haut-lieu de la biodiversité…

Plages du Prado avec au centre l’embouchure de l’Huveaune

Il faut dire aussi que, dans les années 1970, l’Huveaune, à son arrivée en mer, n’était qu’un vaste égout malodorant charriant les effluves des nombreuses industries qui bordaient ses berges, et servant d’exutoire en mer aux eaux usées d’une partie de Marseille et des communes de l’amont, dont Carnoux.

Le réseau souterrain servant à canaliser les eaux usées s’était construit progressivement au cours du XIXe siècle, sous forme unitaire au centre ville, sous forme séparative (les eaux pluviales de ruissellement étant collectées à part) dans les quartiers plus récents et les communes voisines.

Vue du Grand émissaire de Marseille (photo © SERAMM)

Mais jusqu’en 1987, tout était rejeté directement en mer, sans le moindre traitement, via un grand émissaire construit en 1896 et aboutissant dans l’anse isolée et peu accessible de Cortiou, en plein coeur du massif des calanques, où un vaste fleuve de déchets boueux se jette dans la mer, en attendant qu’un jour peut-être, la collectivité finisse par le prolonger plus au large pour diminuer l’incidence de ces rejets sur les fonds côtiers les plus fragiles.

Rejet en mer dans la calanque de Cortiou (source)

En 1979, alors que la plage du Prado est aménagée, il n’est plus question d’y déverser les eaux fortement pollués et toxiques de l’Huveaune. Une dérivation est donc créée, qui renvoie ces eaux directement dans l’émissaire de Cortiou où elles sont ensuite rejetées en mer, ni vu ni connu. En période de fortes pluies cependant, lorsque l’émissaire est saturé, un déversoir d’orage permet aux eaux de l’Huveaune en crue de rejoindre leur lit naturel et de se rejeter en mer le long de la plage du Prado, qu’elles polluent alors allègrement en jonchant la plage des multiples déchets qu’elles charrient.

Vue en surface de la station de traitement des eaux usées Géolide

Dans les années 1970, sous la pression de certains naturalistes et des plongeurs qui s’alarment de la disparition des herbiers de posidonies et de l’appauvrissement de la faune marine au large des côtes marseillaises totalement ravagées jusqu’à plus de 40 km du rivage par ce flux incessant d’eaux polluées, la ville se décide enfin à mettre en oeuvre une station d’épuration physico-chimique, destinée au traitement des eaux usées de Marseille et de 15 communes environnantes, dont Carnoux. Le chantier commence en 1984, en bordure de l’Huveaune. La station, enterrée sous le stade Vélodrome, est mise en service en 1987.

Mais le renforcement de la réglementation en matière de traitement des eaux usées, avec notamment l’adoption en 1991 de la directive européenne sur les eaux résiduaires urbaines, rend très vite cette station insuffisante. En 2008, elle est donc complétée par l’adjonction d’un dispositif de traitement biologique, dit Biostyr, installé sous l’esplanade Ganay. La nouvelle station, dénommée Géolide, constitue la plus grande usine enterrée de traitement des eaux usées du monde et traite 70 millions de m³ d’eau usée par an.

Schéma de la station Géolide (source)

L’eau y est injectée dans 34 bassins de 1500 m³ chacun, remplis de billes de polystyrène sur 3,50 m d’épaisseur. Les bactéries fixées à la surface de ces billes fixent une partie de la pollution au passage. Pour éviter le colmatage des billes, celles-ci sont lavées chaque jour et l’eau de lavage subit un traitement physico-chimique par coagulation et floculation, suivi d’une décantation lamellaire afin d’agglomérer, concentrer et piéger les bactéries sous forme de boues. Ces boues sont alors acheminées vers une usine de traitement, située à 6 km de là, dans l’ancienne carrière de la Cayolle qui surplombe la calanque de Sormiou. Les boues y sont épaissies et séchées avant d’être valorisées sous forme de compost qui sert actuellement à réhabiliter l’ancienne décharge d’ordures ménagères d’Entressen.

Vue de la station de traitement de la Cayolle (photo © Lakko Marseille)

Cependant, en cas de forte pluie, le système d’assainissement n’est pas en mesure de traiter l’ensemble des effluents collectés car les eaux de ruissellement viennent alors grossir les flux habituels d’eaux usées, provoquant rapidement la saturation des capacités de traitement. Pour éviter que la ville ne soit noyée sous un flot d’eaux polluées et nauséabondes, tout l’excédent est alors rejeté directement en mer, principalement par l’émissaire de Cortiou mais aussi en partie via l’ancien exutoire de l’Huveaune, donc directement sur la plage du Prado !

Ce problème récurrent commençant à déprécier sérieusement l’attrait touristique de la ville, l’ancienne Communauté urbaine Marseille Provence Métropole s’est engagée en 2010 dans un projet de contrat de baie, désormais opérationnel depuis juin 2015 pour une durée de 6 ans avec, à la clé, un budget de 265 millions d’euros, dont 185 millions engagés via le Contrat d’agglomération de traitement des eaux usées signé l’année d’avant avec l’Agence de l’Eau Rhône-Méditerranée, et 25 millions mobilisés dans le cadre du contrat de rivière de l’Huveaune, signé en octobre 2015 à Aubagne.

Inondations rue de Rome à Marseille en septembre 2000 (photo © Bataillon des marins-pompiers de Marseille)

Une des actions phares de ce contrat de baie consiste précisément à s’attaquer enfin au problème des eaux pluviales qui rendent inopérant le traitement des eaux usées de l’agglomération marseillaise en période de fortes pluies. L’objectif affiché, qui peut paraître modeste, est de réduire de 50 % les rejets d’eaux usées non traitées vers la calanque de Cortiou au cœur du Parc National des Calanques, et ceci en réponse à un arrêté préfectoral de janvier 2004 qui impose à la collectivité de réaliser d’ici fin 2018 une capacité de rétention des eaux usées de 90 000 m³.

Un premier ouvrage a ainsi été réalisé dès 2007 à l’occasion des travaux de requalification de la rue de la République dans le cadre de la prolongation du tramway. Gigantesque cylindre de 49 m de long situé à 15 m sous terre, ce bassin permet de stocker 14 500 m³ collecté en centre ville. Les gros déchets y sont récupérés et la partie claire de l’eau décantée est rejetée en mer une fois l’orage passé, tandis que les eaux polluées sont envoyées à la station de traitement dès que celle-ci est de nouveau en capacité de les traiter. Quatre autres basins sont prévus sur le périmètre de l’agglomération marseillaise : un de 12 000 m³ achevé en septembre 2015 place Jules Guesde à la Porte d’Aix, un de 15 000 m³ dans l’emprise du tunnel ferroviaire désaffecté Lajout près de la nouvelle station de métro boulevard Capitaine Gèze, un autre de même capacité cours Pierre Pujet, et enfin un plus vaste de 33 000 m³ à Saint-Mauront, près des Docks.

Vue intérieure du bassin Ganay lors de son inauguration (photo publiée par GoMet)

Un sixième ouvrage profond de 30 m pour un diamètre de 56 m et une capacité de 50 000 m³, a été construit à partir de 2014 sous le stade Ganay. Désormais achevé et inauguré en avril 2017, ce gigantesque bassin enterré, pour lequel il a fallu mobiliser pas moins de 80 000 tonnes de béton, doit être relié d’une part à la station de traitement Géolide et d’autre part au réseau unitaire. Pour cela, il a notamment fallu creuser une galerie de 3 m de diamètre et 300 m de longueur, à 10 m de profondeur. Un tunnelier a été mobilisé dans ce but, pendant près de 6 mois, jusqu’à ressortir près du boulevard Michelet en décembre 2016, une fois sa tâche accomplie.

Sortie du tunnelier (photo © N. Vallauri pour La Provence)

Vue en coupe du bassin Ganay (source)

En surface, on ne verra du bassin Ganay qu’un modeste bâtiment de service au forme de simple pavillon et il reste encore à reconstruire le nouveau stade Ganay au dessus du réservoir enterré dont les Marseillais seront bien en peine d’imaginer l’existence une fois le chantier achevé. C’est d’ailleurs le risque de ce type de démarche qui consiste à masquer de la vue du citoyen les aménagements pourtant indispensables au fonctionnement de la ville : à force d’oublier que la gestion des eaux fait partie intégrante de la vie urbaine, comment peut-on s’en approprier les enjeux pourtant essentiels ?

L.V.  

Inondation : une nouvelle stratégie pour la métropole marseillaise

14 avril 2017

A Marseille comme dans le reste de la Provence, on craint traditionnellement surtout la sécheresse et les feux de forêt mais le risque d’inondation est loin d’être négligeable et souvent bien plus meurtrier. Les inondations de juin 2010 dans le Var, avec ses 26 morts et des dommages matériels évalués à un milliard d’euros, l’ont rappelé une fois de plus, de même que celles d’octobre 2015 dans les Alpes-Maritimes. Certains se souviennent peut-être de ce jeune homme mort noyé en août 1986 sur la route départementale entre Carnoux et La Bédoule, mais plus près de nous un orage survenu le 19 septembre 2000 avait encore fait 3 morts à Marseille et rebelote, 3 ans plus tard, avec encore 3 morts et 2 disparus à l’occasion de nouvelles pluies diluviennes en décembre 2003.

Un extrait de La Provence après l’inondation du 19 septembre 2000

Quand on fouille un peu dans les archives, on se rend rapidement compte que ces événements n’ont rien d’exceptionnel et se reproduisent de manière récurrente. De violentes crues de l’Huveaune ont laissé des traces dans les chroniques historiques en 1518, 1610 ou encore 1716. Le 22 octobre 1810, le centre-ville de Marseille était inondé suite à un violent orage, entraînant la mort d’une jeune fille. On pourrait citer de même d’autres épisodes catastrophiques du même type en date du 1er octobre 1892 ou encore le 8 novembre 1907 où l’on déplore 4 victimes et de gros dégâts. Début octobre 1973, ce sont 7 personnes en tout qui se noient à l’occasion d’une nouvelle vague d’inondations sur Marseille, tandis qu’en 1976 on dénombre plus de 1000 sinistrés suite à une nouvelle crue de l’Huveaune.

Bref, le territoire de la métropole Aix-Marseille est fortement exposé au risque inondation, même si chacun n’en a pas forcément conscience. C’est donc tout l’intérêt de la stratégie locale de gestion du risque inondation qui vient d’être adoptée le 14 mars 2017 par arrêté préfectoral, que de rappeler l’étendue de ce risque et de proposer une démarche cohérente pour le prévenir.

Cette stratégie locale, est la dernière étape d’un processus initié en 2010 suite à la transposition en droit français d’une directive européenne de 2007 sur les inondations. Cette démarche a consisté d’abord à mieux délimiter, sur l’ensemble du territoire national, les zones potentiellement inondables, puis à identifier les territoires les plus exposés. Ces territoires à risque important sont au nombre de 122 en France dont deux sur le périmètre de la métropole marseillaise : l’un qui va de Gemenos à Marseille et l’autre qui couvre la zone d’Aix-en-Provence depuis Gardanne jusqu’à Salon-de-Provence.

Cinq fleuves côtiers principaux baignent l’agglomération d’Aix-Marseille : la Touloubre qui prend naissance au pied de la Sainte-Victoire et se jette dans l’étang de Berre, l’Arc qui passe près d’Aix-en-Provence et se jette également dans l’étang de Berre, la Cadière qui traverse Vitrolles et Marignane, le ruisseau des Aygalades, issu du massif de l’Etoile et qui se jette dans la mer à Marseille, tout comme le dernier, l’Huveaune qui traverse Aubagne et dont le bassin versant englobe l’essentiel de la commune de Carnoux.

Par souci de cohérence et même si des structures administratives différentes interviennent sur ces différents bassins hydrographiques, la stratégie locale qui vient d’être adoptée couvre ces 5 bassins versants et intéresse du coup les deux territoires à risque importants, dont l’ensemble du périmètre de la métropole Aix-Marseille-Provence qui a d’ailleurs vocation, de par la loi, à prendre en charge la compétence liée à la gestion de l’eau et des milieux aquatiques et à la prévention des inondations.

L’avenir dire si cette stratégie sera efficace, qui vise à améliorer les différents volets de la prévention du risque inondation sur ce territoire, depuis l’alerte et la gestion de crise jusqu’à la réduction de la vulnérabilité des enjeux exposés, en passant par une gestion plus adaptée des flux en cas de crue. Une chose est sûre : les services de l’État qui ont organisé l’élaboration de cette stratégie locale ont fait un gros effort de communication pour faire connaître la démarche et en diffuser largement les grandes lignes. Le contenu de la stratégie est librement accessible en ligne ainsi qu’une plaquette d’information et deux vidéo, l’une qui explique en quoi consiste la démarche et l’autre qui se veut un document de sensibilisation de la population vis-à-vis du risque inondation sur le territoire de la métropole marseillaise.

Extrait de la vidéo réalisée par la DDTM 13 sur la stratégie locale

Ce dernier document destiné au grand public mérite d’être largement diffusé. Il rappelle à tous la présence de ces cours d’eau qui traversent notre agglomération, souvent endigués voire busés comme l’Huveaune dans la traversée du centre-ville d’Aubagne, disparaissant de notre vue et se rappelant brusquement à notre souvenir lorsqu’ils cherchent à se frayer un lit au milieu des zones urbanisées à l’occasion d’un événement pluvieux plus intense que d’habitude. Leurs eaux, grossies par les flux qui ruissellement rapidement sur les terrains imperméabilisés des parkings de centres commerciaux et des zones industrielles ou pavillonnaires, débordent alors et empruntent les axes routiers où elles déferlent en emportant tout sur leur passage.

Extrait de la vidéo

La vidéo imagine un journal télévisé relatant le déroulement de la prochaine inondation qui ne devrait pas manquer de se produire sur le territoire de la métropole Aix-Marseille-Provence, en s’appuyant sur des images d’archives d’inondations récentes. Le résultat est assez saisissant et mérite d’être regardé, l’objectif étant bien évidemment de rappeler à chacun la réalité du risque et les bons comportements à adopter lors d’un tel événement.

Photo d’archive (copyrigth France 3)

Les inondations de ces dernières années, en zone méditerranéenne, ont en effet montré à quel point nombre de victimes dans ce type de catastrophe meurent parce qu’elles ont eu des comportements inadaptés et imprudents : vouloir à tout prix aller rechercher sa voiture dans un parking souterrain en cours d’inondation, s’engager dans une route partiellement inondée ou faire le forcing pour aller chercher ses enfants à l’école alors qu’ils y sont en sécurité, autant de gestes anodins mais qui sont trop souvent à l’origine de tragiques noyades.

Photo d’archive de l’inondation du 19 septembre 2000 à Marseille

Les automobilistes en particulier payent un lourd tribut à chaque inondation car ils se croient en sécurité dans leur voiture sans avoir conscience que celle-ci devient rapidement incontrôlable avec seulement 30 cm d’eau, pour un peu que celle-ci soit boueuse et qu’elle s’écoule rapidement, sans compter qu’il devient rapidement très difficile d’ouvrir les portières pour sortir d’un véhicule du fait de la poussée de l’eau.

Mieux vaut donc avoir conscience de ces éléments plutôt que de les découvrir par soi-même dans la panique d’une inondation ! C’est pourquoi on ne peut qu’inciter chacun à visionner cette courte vidéo qui rappelle ces quelques notions de base et invite à une vigilance active.

L.V.  

Environnement : le grand oublié des présidentielles 2017 ?

20 novembre 2016

Alors même que se déroule le premier tour des primaires de la droite, force est de constater que jusqu’à présent et à cinq mois tout juste du premier tour des prochaines élections présidentielles, il n’a guère été question d’environnement dans cette campagne électorale qui pourtant bat déjà son plein.blog360_dessintrump

Les nouvelles de la planète ne sont pourtant pas des meilleures et nul désormais ne peut nier la réalité du changement climatique, sauf à être d’une mauvaise foi flagrante comme le futur président des États-Unis, Donald Trump, pour qui il ne s’agit ni plus ni moins que d’un « canular », une simple invention des Chinois pour empêcher les Américains d’exploiter leurs ressources en gaz de schiste…

Nous sommes en 2016 et tout indique que les 16 années que nous venons de connaître depuis le passage à l’an 2000 font partie des 17 les plus chaudes que la Terre a connu depuis le début des mesures météorologiques au XIXème siècle. Quant à la réalité du lien de causalité entre ce réchauffement climatique global et l’activité humaine via l’exploitation des énergies carbonées et la production massive de gaz à effet de serre, aucun scientifique sérieux n’est plus en mesure actuellement de la nier, malgré les efforts désespérés des plus climatosceptiques d’entre eux.

Ce qui n’empêche pas certains candidats à l’élection présidentielle (et pas des moindres!) de déclarer péremptoirement, comme l’a encore fait Nicolas Sarkozy en septembre 2016, qu’il « faut être arrogant comme l’homme pour penser que c’est nous qui avons changé le climat ». On savait déjà que pour lui, « toutes ces questions d’environnement, ça commence à bien faire », comme il l’avait asséné publiquement lors d’une visite au Salon de l’Agriculture dès 2010, tirant un trait définitif sur le pacte écologique qu’il avait signé peu avant son élection en 2007, à l’initiative de Nicolas Hulot. Mais chacun sait bien que les promesses de campagne n’engagent que ceux qui les écoutent…

blog360_dessincovoiturageIl y a un an tout juste, les médias bruissaient chaque jour des derniers développements de la COP 21 au cours de laquelle se jouait, comme chacun en convenait alors, l’avenir de l’humanité. L’affaire a été présentée comme un beau succès diplomatique bien que les engagements pris par les différents pays à cette occasion soient loin de permettre de limiter sous la barre fatidique des 2 °C l’augmentation de la température moyenne du globe : on serait plutôt autour des 3,5 °C (dont 1,2 °C qui sont d’ores et déjà constatés, sachant que pour l’instant nos émissions de gaz à effet de serre ne font encore qu’augmenter…). Et pourtant, la COP 22 vient de s’achever dans l’indifférence générale sans le moindre engagement supplémentaire, sinon celui de Daniel Trump de s’asseoir sans vergogne sur l’accord de Paris pourtant déjà ratifié par les États-Unis !

Le premier débat des candidats à la primaire de la droite

Le premier débat des candidats à la primaire de la droite

Mais rien de tout cela ne semble perturber nos responsables politiques en quête d’un mandat présidentiel. Sur les trois débats qui viennent d’opposer les concurrents à la primaire de la droite, il a beaucoup été question de réduire les dépenses publiques, de combattre le terrorisme et de terroriser les islamistes, mais seules quelques minutes ont été consacrées aux questions environnementales, manifestement jugées mineures. Quelques minutes que Nicolas Sarkozy, jamais en retard d’une provocation, a mis à profit pour affirmer en substance que les principaux responsables des émissions de gaz à effet de serre sont les écologistes qui s’opposent au développement de l’énergie nucléaire. Il fallait en effet y penser : chapeau l’artiste !

Dessin de Tignous

Dessin de Tignous

Certes, si l’on fouille un peu dans les programmes des candidats comme l’a fait notamment le think tank La Fabrique écologique, analyse rapportée notamment dans la Gazette des communes, on verra que Alain Juppé et François Fillon font quelques propositions pour faciliter la rénovation énergétique des logements. De son côté, le candidat déjà déclaré Jean-Luc Mélenchon défend l’idée d’isoler au moins 70 000 logements par an et de construire 200 000 logements publics aux normes écologiques pendant cinq ans. Rappelons au passage qu’en 2014 ce sont déjà 400 000 logements qui ont été rénovés en vue d’une moindre consommation énergétique et que la loi de transition énergétique adoptée en 2015 par le gouvernement actuel affiche un objectif de 500 000 logements rénovés chaque année via des mesures incitatives dont le crédit d’impôt et l’écoprêt à taux zéro.

Alors que ces chantiers de rénovation énergétique peuvent avoir des retombées positives majeures non seulement sur l’évolution de notre environnement climatique mais aussi sur la facture énergétique des particuliers comme sur la balance commerciale nationale et surtout permettre de créer des milliers d’emplois non délocalisables, il est vraiment étonnant de constater à quel point de tels enjeux sont passés sous silence dans une campagne politique de cette ampleur, masqués par des débats homériques sur la taille du tissu dont certains choisissent de s’envelopper pour aller se baigner l’été…

Dessin de Geluck

Dessin de Geluck

Il en est de même pour les questions qui touchent aux modes de déplacement. Alors que les transport constituent la principale source d’émission de gaz à effet de serre, en constante augmentation depuis 1990, et qu’ils contribuent très largement aux atteintes sanitaires via les émissions de particules fines, ce thème est quasiment absent du débat public de ces élections. Il y a pourtant dès à présent bien davantage de morts en France du fait de la pollution atmosphérique (qui serait à l’origine d’environ 45 000 décès prématurés chaque année dans notre pays et qui coûte très cher à la société comme on ne cesse de le démontrer, étude après étude) que du terrorisme. Mais le sujet a bien du mal à s’immiscer dans le débat public…

A quand des sujets de campagne qui prennent enfin en compte des questions aussi cruciales pour notre avenir et celui de nos enfants ?

L.V.  lutinvert1small

Retard de trains : la SNCF entretient sa réputation…

17 novembre 2016

En France, et pas seulement en région PACA, les statistiques de la SNCF sont redoutables et totalement transparentes puisque accessibles à tous en open data. En juillet 2016, on constate ainsi qu’un TGV sur sept était en retard, ce qui n’est pas négligeable, surtout sur certaines lignes comme par exemple Marseille-Lille où un TGV sur 4 est en retard, qui dit mieux ?

blog359_dessinpetanqueLes chiffres annoncés pour le mois de septembre sont d’ailleurs identiques pour les trains intercités avec six trains à l’heure pour un en retard. C’est un petit peu mieux pour les TER, sauf naturellement en région PACA et en Ile de France où la SNCF n’ose même pas publier ses statistiques et se contente d’affirmer que pour un voyageur en retard, 9 ont réussi à arriver à l’heure : certains ont décidément plus de chance que d’autres…

blog359_dessinaffichageOn découvre ainsi à la lecture de ces statistiques que pour le mois d’octobre 2016, le dernier renseigné, sur 15 000 TER programmés en région PACA, 515 ont été purement et simplement supprimés, pour la plus grande joie, on s’en doute, de ceux qui avaient prévu de les emprunter, se sont parfois levé tôt pour cela, ont fait le trajet jusqu’à la gare, et découvrent bien souvent à la dernière minute ou parfois après avoir attendu en vain pendant une heure ou deux sur un quai glacé par le mistral, que finalement la SNCF avait jugé préférable de ne pas faire rouler ce train pour des raisons diverses et variées.

Quant au nombre de trains en retard, il atteint le chiffre astronomique de 2334 : impressionnant ! C’est donc un train sur 6 qui est en retard dans la région et la situation dure ainsi depuis des années. Certains mois, ce sont plus de 1300 trains qui ont été annulés et plus de 3000 qui étaient en retard. La région PACA est en tout cas clairement en queue de peloton avec un taux de régularité qui dépasse rarement  les 80 %.

blog359_dessin1Les raisons de ces retards sont multiples et la SNCF ne manque pas d’imagination pour les détailler. Les heurts avec un obstacle circulant sur la voie font partie des causes fréquemment rencontrées et tout voyageur empruntant régulièrement le train s’est un jour trouvé confronté à cette situation. Lancé à pleine vitesse, le train freine brusquement et s’arrête. La voix du contrôleur se fait rapidement entendre pour délivrer le message habituel « notre train est arrêté en pleine voie : ne tentez-pas l’ouverture des portières ». On ne sait jamais, des fois qu’un voyageur claustrophobe en profiterait pour s’échapper…

Et ensuite, c’est l’attente, interminable, ponctuée selon l’humeur du contrôleur par des messages périodiques de sa part expliquant qu’il ne sait rien mais qu’il ne manquera pas de revenir très vite vers les voyageurs dès qu’il en saura davantage.

Car dans ces cas-là, la SNCF applique ses procédures qui sont très strictes et respectées à la lettre : le conducteur d’un train qui heurte un obstacle (généralement un sanglier mais ce peut être aussi un cerf voire une vache selon les régions) arrête sa motrice et déclenche un signal radio qui oblige tous les autres trains circulant sur la voie, y compris dans l’autre sens, à stopper net. C’est donc tout le trafic ferroviaire sur le tronçon de voie qui est paralysé, avec tous les effets en cascade qu’on imagine.

Train Paris-Marseille arrêté en pleine voie...

Train Paris-Marseille arrêté en pleine voie…

Ensuite, le conducteur descend de sa machine, va jeter un œil sur l’avant du train pour évaluer les dégâts éventuel comme le ferait n’importe quel automobiliste maladroit ayant malencontreusement heurté un obstacle, puis il prend son courage à deux mains, sa lampe torche s’il fait nuit, et refait à pied le chemin parcouru en suivant les rails jusqu’au point d’impact.

Il est en effet tenu par le règlement d’aller reconnaitre lui-même la nature de l’obstacle qu’il a heurté. S’il s’agit effectivement d’un sanglier, il n’est toutefois pas obligé d’en prélever les oreilles et la queue. Son témoignage suffit et il n’a plus qu’à repartir dans l’autre sens pour rejoindre sa machine et reprendre sa route. En revanche, s’il s’avère que c’est une personne qui a été heurtée, les choses se compliquent (et l’attente se prolonge) car il faut alors appeler la gendarmerie et la police scientifique pour lancer l’enquête destinée à préciser les causes réelles de l’accident. Compter dans ce cas au moins 4 à 5 heures d’immobilisation.

Le point faible de la procédure, c’est qu’un train lancé à pleine vitesse met un certain temps pour s’arrêter, le temps de parcourir largement 1,5 à 2 km, et même 4 km pour un TGV en rase campagne. On imagine donc le pauvre conducteur forcé de parcourir seul à pied, en longeant les rails et souvent en pleine nuit ses 4 km à la recherche des restes de l’animal qu’il a percuté, puis bien évidemment de refaire ensuite le même parcours en sens inverse avant de pouvoir annoncer au contrôleur que le train va pouvoir repartir. Selon l’entraînement du chauffeur, il faut bien compter au minimum 1h, voire 2 pour un TGV en pleine nuit. C’est toujours bon à savoir, ne serait-ce que pour éviter de tirer des plans sur la comète quant à l’éventualité bien hasardeuse de pouvoir malgré tout attraper sa correspondance : dans une telle configuration, ce n’est même pas la peine d’y songer !

Photo J. Boyé

Photo J. Boyé

Certains esprits curieux pourraient se demander pourquoi le conducteur est obligé de se taper ainsi ses 8 km aller-retour à pied le long de la voie alors qu’il lui suffirait de se mettre au volant de la motrice de queue et de repartir en sens inverse à faible vitesse jusqu’au lieu du choc initial. La réponse résulte très certainement d’une analyse approfondie effectuée par les spécialistes de la sécurité au sein de la SNCF, laquelle n’a cependant pas jugée nécessaire de la communiquer, ni même d’en faire part à son personnel de bord, qui doit donc se dépatouiller tout seul pour expliquer tant bien que mal la situation aux passagers plus ou moins patients, non seulement dans le train qui a provoqué la collision, mais dans tous les autres qui sont également bloqués sur la voie en attendant le verdict de celui qui est parti en reconnaissance.

Voila en tout cas une des (multiples) causes de retard de la SNCF qui pourrait être largement atténuée moyennant une adaptation des procédures mais rien ne permet de penser qu’une telle réflexion soit à l’ordre du jour. C’est bien dommage pour les statistiques de la SNCF, et pour la patience de ses usagers…

L.V.  lutinvert1small

Alors, la vaccination, est-ce bien utile ?

26 octobre 2016

afficheconfvaccination« Vaccination : agression ou protection » tel était le titre de la conférence donnée par Annick Guimezanes et Marion Mathieu, invitées par le Cercle Progressiste Carnussien le jeudi 6 octobre 2016 au Clos Blancheton à Carnoux devant une trentaine de personnes.

Annick Guimezanes est chercheuse émérite à l’Inserm, plus précisément au Centre d’Immunologie à Marseille Luminy. Elle participe depuis 2009 à des formations en immunologie auprès d’associations de malades. Marion Mathieu est docteur en biologie, formatrice dans « Tous chercheurs », association qui s’est donnée pour mission d’initier le public à la démarche scientifique et au milieu de la recherche, sur des thèmes très variés tels que la vaccination, les essais cliniques, les tests génétiques, etc.

Les deux conférencières à Carnoux le 6 octobre 2016

Les deux conférencières à Carnoux le 6 octobre 2016

Si le principe de la vaccination reste constant, les vaccins, eux, ont beaucoup évolué et se sont diversifiés depuis les débuts. Dans le même temps la perception de la population vis-à-vis de la vaccination est passée d’un accueil positif à une solide implantation. Face à cette reconnaissance, on assiste depuis quelques années à la montée de réticences tant vis-à-vis des produits que du principe même de la vaccination généralisée.

phpasteurSi la première vaccination contre la variole, avec la vaccine des vaches par E. Jenner remonte à 1796, ce n’est que dans les années 1860-1870 avec L. Pasteur en France et R. Koch en Allemagne que l’on prend conscience qu’un microbe est responsable de la maladie (bactérie ou virus) et qu’on commence à mettre au point des vaccins grâce à l’injection de la maladie atténuée.

Un rappel du mécanisme de la réponse immunitaire a permis aux intervenantes de mieux faire comprendre la vaccination. La réponse immunitaire à une infection, se fait en deux temps  une réponse innée rapide mais peu spécifique puis une réponse adaptative, plus spécifique et qui garde la mémoire de cette première rencontre avec le microbe. Cette mémoire permettra de répondre beaucoup plus vite lors d’un nouveau contact avec le même microbe. Le principe de la vaccination utilise cette mémoire immunitaire et permet de s’immuniser avec un microbe atténué, pour répondre très vite et sans être malade si l’on est un jour en contact avec le vrai microbe (voir le schéma).

schemareponseimmunitaire

Il existe deux grands types de vaccins :

– les vaccins vivants atténués. Le microbe a été rendu moins virulent, pour créer chez la personne vaccinée, une infection avec peu ou pas de symptômes. C’est le cas en France pour plusieurs vaccins dirigés contre des virus : poliomyélite (vaccin oral), rougeole-oreillons-rubéole (ROR), varicelle… et une bactérie, la tuberculose ou bacille de Calmette et Guérin : BCG

– les vaccins non vivants ou inactivés. Ils peuvent contenir le microbe entier tué, des fragments de microbe ou la toxine produite par le microbe, qui est alors inactivée. Pour obtenir une meilleure réponse protectrice, depuis la fin des années 1920 des adjuvants ont été utilisés avec les vaccins non vivants qui constituent la plupart des vaccins.

livre-vaccinationBeaucoup de critiques et de méfiance proviennent de l’utilisation des adjuvants. Ces derniers sont nécessaires et on ne sait pas toujours comment ils interviennent. Les sels d’aluminium sont les plus anciens adjuvants utilisés depuis 1926. On sait depuis peu (2009) qu’ils stimulent la réponse du système immunitaire inné, en jouant le rôle du signal de danger. On les soupçonne aujourd’hui d’être, tout comme les déodorants à aluminium, plus ou moins associés à la myofasciite à macrophages, une maladie très rare caractérisée par des lésions musculaires infiltrées par des macrophages.  L’aluminium qui a fait ses preuves depuis de nombreuses années reste l’adjuvant le plus utilisé, mais de nombreux autres adjuvants sont testés aujourd’hui, pour trouver la « perle rare » qui n’aurait pas d’effets secondaires.

Comment imaginer la couverture vaccinale : la notion d’immunité de groupe

notion-dimmunite-de-groupe

Ce tableau nous permet d’apprécier que dans une population vaccinée les risques de propagation d’une épidémie sont faibles, les non vaccinés étant protégés par les vaccinés. A cela il faut cependant ajouter que l’immunité n’est pas pérenne, il y a nécessité de faire des rappels. Aujourd’hui avec le recul on s’aperçoit que l’efficacité des vaccins est plus longue que prévue, et pour les rappels, on parle d’âges de vaccination après l’enfance : à 25, 45 et 65 ans.

dessinterrorismeDans la législation française, la confusion existe entre l’obligation et la recommandation des vaccins. C’est une opposition historique qui n’a aucune relation avec la gravité des maladies dont ils nous protègent. Les vaccins les plus anciens (diphtérie, tétanos et poliomyélite) sont obligatoires et exigés pour l’inscription des enfants à l’école, et les autres sont recommandés mais tout aussi importants. Le vaccin est un médicament tout à fait particulier. On a en effet le sentiment de prendre des risques alors qu’on n’est pas malade. On voit beaucoup moins clairement le rapport bénéfice/risque que pour un médicament classique.dessinrats

Dans ce climat de défiance on a fait ainsi la relation entre la vaccination de l’hépatite B et la sclérose en plaque (SEP). La campagne de vaccination qui ne devait concerner que les nourrissons et les enfants de 10/11 ans, a été étendue à un grand nombre de personnes. On a constaté un nombre de cas de SEP qui a paru anormalement élevé parmi les personnes vaccinées.

Depuis, de nombreuses études rétrospectives ont été menées sur cette relation possible. Le consensus actuel dans la communauté scientifique est une absence de causalité : si on compare une population importante de gens vaccinés et non vaccinés on trouve la même proportion de cas de SEP dans les deux populations (environ 1 personne sur 10 000). Quant à la relation entre le vaccin rougeole-oreillons-rubéole et l’autisme, il s’agissait d’une fraude scientifique. La publication relative à ce prétendu lien a été retirée et son auteur a été radié de l’ordre de médecins. Dans un cas comme dans l’autre, la première « information scandale » circule vite tandis que le résultat des études qui contredisent ces informations ne fait plus l’objet de l’attention du public !dessingrippea

Pour d’autres raisons, l’épisode de la grippe H1N1 particulièrement mal géré en France a contribué aussi à la perte de confiance dans la vaccination. La couverture vaccinale des personnes âgées, à risque pour la grippe est passée de 65% en 2008 à 50% en 2013. Alors que 90 % des français se déclaraient favorables à la vaccination en 2000, ils n’étaient plus que 60 % en 2010. Ne rejoint-on pas un comportement général essentiellement individualiste qui ne perçoit plus l’intérêt que l’on prenne un peu de risque pour une protection individuelle et collective ?

On a pu ainsi apprécier combien il était important d’avoir une remise à jour des informations sur des notions parfois trop rapidement mises à mal par des désinformations qui circulent souvent sur internet. Merci vraiment à nos deux conférencières

Après la réponse aux nombreuses questions du public, le verre de l’amitié nous a permis de poursuivre des échanges sur cette question et sur bien d’autres, naturellement !!!

Cécile Tonnelle