Posts Tagged ‘Risques naturels’

Inondation : tous à l’eau en région PACA !

19 novembre 2018

La région Provence-Alpes-Côte d’Azur, que son Président Renaud Muselier tient désormais à appeler Région Sud, est plutôt réputée pour ses étés ensoleillés que pour son climat pluvieux. Ainsi, la ville de Marseille, qui se caractérise par plus de 2800 heures d’ensoleillement par an en moyenne et autour de 515 mm de cumul de précipitation annuelle, soit deux fois moins qu’à Brest, Besançon, Aurillac ou encore Biarritz, est davantage réputée comme un lieu où l’on risque l’insolation ou le mistral, voire les feux de forêt, que l’inondation.

Vaison-la-Romaine après la crue de l’Ouvèze du 22 septembre 1992 (photo archives © DR)

Et pourtant, les événements de ces dernières années ont montré à plusieurs reprises que la région était particulièrement vulnérable au risque d’inondation, non seulement en période automnale, à l’occasion des fameux épisodes méditerranéens, alimentés par les masses d’air chaud et humide qui se développent au-dessus de la mer encore chaude, mais aussi sous l’effet de violents orages estivaux.

On se souvient en particulier de la crue torrentielle de l’Ouvèze en septembre 1992 qui a causé 47 morts à Vaison-la-Romaine, des fortes crues du Rhône en septembre 2002 et décembre 2003, des inondations du bassin de l’Argens dans le Var en juin 2010 (26 morts et un milliard d’euros de dommages), novembre 2011 puis à nouveau janvier et novembre 2014, ou encore celles de Cannes à Mandelieu en octobre 2015. Cette année aussi, les cours d’eau ont débordé dans la basse vallée de l’Argens ou dans celle du Préconil, faisant encore 2 morts à Sainte-Maxime en octobre 2018.

Un véhicule et ses deux occupants emportés suite aux inondations de la Garonnette entre Sainte-Maxime et Roquebrune-sur-Argens, le 11 octobre 2018 (photo © Philippe Arnassan / Nice Matin)

La liste est longue de ces événements dévastateurs et traumatisants pour les populations. A chaque nouvelle crue, comme cela a encore été le cas dans l’Aude voisine cette année, les populations feignent de découvrir qu’elles sont exposées à un risque, rare certes, mais loin d’être exceptionnel à l’échelle d’une vie humaine même si la mémoire humaine, aussi défaillante que sélective, fait dire à chaque nouvel épisode qu’on n’a jamais vu cela de mémoire d’homme…

De fait, une étude récente publiée par l’INSEE indique que dans l’ensemble de la région PACA ce sont près d’un million de personnes, soit 19 % de la population régionale, qui habitent en zone potentiellement inondable, parmi lesquelles plus de 42 000 sont considérées comme particulièrement exposées, avec une chance sur deux d’être affectées par une inondation en 40 ans… Pourtant, les zones inondables qui ont été prises pour référence de cette étude, à savoir l’atlas des zones inondables et le périmètre d’extension de la crue de Rhône de 2003, ne couvrent que 10 % de la superficie régionale !

Superposition des densités de population et des zones inondables en région PACA (source INSEE, 2016)

A croire donc que l’homme construit préférentiellement en zone inondable… Cela est moins vrai dans des départements comme les Hautes-Alpes ou les Bouches-du-Rhône où seulement 10 % de la population est installée en zone inondable, bien qu’avec localement de fortes concentrations comme dans la vallée de l’Huveaune ou celle de la Cadière du côté de Marignane. En revanche, dans le Vaucluse ou les Alpes maritimes, c’est 30 % des habitants qui vivent en zone inondable, comme à Nice où plus de 200 000 personnes se sont installées dans le lit de certains fleuves côtiers comme le Paillon ou le Magnan.

L’étude très fouillée réalisée par l’INSEE, à partir du croisement de fichiers de données datant de 2016, est d’autant plus intéressante qu’elle permet une analyse très fine des populations et des logements, mais aussi des activités économiques ainsi exposées au risque inondation. On y apprend ainsi qu’une maison de retraite sur cinq en région PACA est située en zone inondable et même une sur quatre dans le Vaucluse, les Alpes de Haute-Provence ou les Alpes maritimes. On se souvient encore des 3 pensionnaires de la maison de retraite de Biot, construite en bordure de la Brague, qui avaient trouvé la mort le soir du 3 octobre 2015 et de tous ceux qui ont dû être évacués en urgence dans des conditions souvent particulièrement traumatisantes…

Maison de retraite de Biot, inondée le 3 octobre 2015 (Photo Sébastien Botella / PQR / Nice-Matin)

De même, l’étude de l’INSEE met en évidence que dans la région pas moins de 23 % des écoles maternelles sont construites en zone inondable et la proportion atteint même 42 % dans un département comme le Vaucluse ! Ce n’est pas pour autant que les enfants y sont forcément en danger car certains établissements, bien que situés en zone inondable, peuvent avoir été conçus pour résister aux crues, à tel point que les enfants y courent souvent moins de risque que sur le trajet vers leur domicile, mais le chiffre n’est néanmoins guère rassurant…

Camping de la basse vallée de l’Argens dans le Var, après l’inondation du 15 juin 2010 (photo archives © DR)

On aimerait croire que la recrudescence des événements récents très médiatisés et le renforcement des politiques de prévention du risque inondation se traduisent par un coup de frein à l’urbanisation en zone inondable. Mais les chiffres ne plaident guère en ce sens puisque 17,5 % des logements construits depuis 2010 l’ont été en zone inondable. Certes, cette proportion était plutôt de l’ordre de 19 % dans les années 1990-2000, mais dans les Alpes maritimes la construction en zone inondable continue de progresser, du fait d’une pression foncière forte.

Quant aux touristes, qui sont nombreux en région PACA, leur exposition au risque inondation est également élevée puisque 25 % des emplacement de camping sont en zone inondable, avec même une proportion de 40 % dans les Alpes maritimes. Dans les Hautes-Alpes, 45 % des logements situés en zone inondable sont des résidences secondaires ou des habitations saisonnières…

Zone industrielle et commerciale de la Palud à Fréjus, inondée en novembre 2011 (photo © Patrice Clémente / Nice Matin)

Les activités économiques elles-mêmes sont fortement exposées au risque inondation avec de l’ordre de 27 % des entreprises situées en zone inondable, soit près de 460 000 emplois potentiellement exposés en cas de débordement des cours d’eau. Dans une commune comme Cavaillon, c’est 70 % des salariés qui travaillent en zone inondable et cette proportion atteint 77 % à Nice, 86 % à Digne-les-Bains ou encore 95 % à Marignane. En moyenne, le nombre d’emplois au km2 est deux fois plus élevé en zone inondable qu’ailleurs, comme si, en région PACA comme ailleurs, l’homme était inconscient du risque ou préférait s’en accommoder…

L.V. 

Publicités

Nucléaire, quel avenir ?

16 octobre 2018

Les catastrophes naturelles de cette année 2018, dont certaines résultent en partie du dérèglement climatique consécutif à nos émissions de gaz à effet de serre nous incitent à réfléchir à nos modes de production d’énergie électrique.

Réacteur nucléaire et éoliennes sur le site de Cruas-Meysse en Ardèche (photo © Colin Matthieu / EDF)

En dehors de l’hydroélectricité, les énergies renouvelables sont pour la plupart intermittentes, ce qui nécessite de disposer d’une source complémentaire stable et suffisamment puissante. Au regard de ces constats, la création ou l’augmentation de cette source par l’intermédiaire de la combustion auto-génératrice de pollution doit être exclue.

Pour mémoire, on considère (même si ces chiffres sont probablement à moduler à la hausse si l’on raisonne en cycle de vie global) que l’éolien génère 20 g de CO2 par KWh produit, le nucléaire 35, le pétrole de 400 à 500 et le charbon ou le lignite 1200 ! La relance de l’industrie charbonnière aux USA, sous l‘impulsion de la présidence Trump et le recours encore important dans plusieurs pays européens, dont l’Allemagne ou la Pologne, à ce combustible fossile fortement émetteur de gaz à effet de serre ont donc des conséquences dramatiques pour l’accélération du réchauffement climatique…

Dans le Mix énergétique français, il est recouru principalement au nucléaire et, de manière très secondaire, à l’hydroélectricité et aux centrales thermiques (gaz principalement, fuel et charbon accessoirement), les autres énergies renouvelables ayant une contribution encore assez faible.

Centrale nucléaire de Bugey dans l’Ain (photo © EDF)

Pour toutes les centrales thermiques, qu’elles fonctionnent par combustion d’énergie fossile ou par fission nucléaire, la chaleur dégagée est utilisée pour obtenir de la vapeur d’eau qui, une fois pressurisée, assure la rotation de la turbine de chacun des turbo-alternateurs nécessaires. Ces ensembles génèrent de l’électricité caractérisée par une tension alternative sinusoïdale qui permet l’utilisation de transformateurs pour adapter facilement sa valeur aux besoins.

La production électrique d’origine nucléaire est réalisée dans des centrales qui sommairement comprennent :

  • 1 réacteur dans lequel la fission contrôlée se produit (une centrale comportant généralement plusieurs réacteurs)
  • 1 ensemble récupérateur de chaleur producteur de vapeur d’eau pressurisée
  • 1 ou plusieurs turbo-alternateurs
  • 1 système de refroidissement (qui suppose la présence d’eau en quantité à proximité immédiate)

Les principaux inconvénients de cette filière sont les suivants :

La matière première (l’uranium) utilisée pour la combustion est limitée et sa ressource connue devrait être épuisée dans environ 120 ans.

La mine d’uranium Ranger, en Australie, dans le Parc national de Kakadu, classé au Patrimoine mondial de l’UNESCO (photo © Gleen Campbell)

L’extraction de l’uranium n’est pas sans risque, y compris sur l’environnement, et se situe dans des pays éloignés des lieux d’implantation des centrales dont l’Afrique et peu stables politiquement.

La fission est une opération maîtrisée mais non sans risque qui fait l’objet de contrôles sérieux afin d’éviter les réactions en chaîne et les explosions.

Les déchets radioactifs ont une durée de vie qui peut atteindre 710 millions d’années !

Globalement, l’énergie nucléaire a mauvaise réputation depuis la réalisation de la bombe atomique. Elle fait peur et elle laisse des déchets radioactifs dangereux et difficiles à neutraliser.

Enfin, la production d’électricité d’origine nucléaire coûte cher. 1MWh nucléaire coûte en moyenne 50 € (et sans doute le double pour celui qui sera produit par l’EPR en construction à Flamanville) alors que la même énergie produite à partir du charbon revient à 10 € si ce dernier est extrait sur place.

En 2015, il existait à la surface de la Terre 432 réacteurs nucléaires (dont 58 en France) et plusieurs graves accidents ont déjà affecté ce parc, trois d’entre eux ayant eu un retentissement particulier.

Une équipe de nettoyage en train de décontaminer Three Mile Island (photo archives DR)

En 1979, à Three Mile Island, l’accident a commencé par la perte d’étanchéité de l’enceinte du circuit d’eau primaire, une vanne de décharge du pressuriseur étant restée bloquée en position ouverte. À la suite d’actions inadaptées, le refroidissement du cœur n’a plus été assuré, entraînant la fusion d’une partie du combustible. L’enceinte de confinement, qui constitue la troisième barrière de sécurité, a joué son rôle pour limiter les rejets radioactifs. Quand six ans plus tard, il a été possible de pénétrer dans l’enceinte, une caméra introduite dans la cuve a montré qu’une partie significative du combustible avait fondu mais qu’il n’avait pas traversé la cuve, le corium s’est stratifié en fond de cuve sans provoquer d’explosion (extrait du site Wikipedia, une analyse détaillée de l’accident étant accessible sur le site de l’IRSN).

En 1986, à Tchernobyl, un réacteur a explosé lors d’un test de contrôle destiné à vérifier l’efficacité des contrôles et de la sécurité du fait d’erreurs dans la conduite de ces tests. Du fait de l’absence d’enceinte de confinement, les conséquences de cette catastrophe ont été planétaires.

Le réacteur n°4 de la centrale de Tchernobyl quelques semaines après l’explosion (photo © Igor Kostine)

En 2011, à Fukushima, un tremblement de terre exceptionnel de magnitude 9 survient auquel la centrale résiste grâce au système de contrôle des quatre réacteurs. Le courant électrique alimentant la centrale est coupé et c’est alors que survient une vague de 15 m de hauteur provoquée par un tsunami. Les barrières de protection de la centrale ne mesurent que 6,50 m pour la première et 10 m pour la seconde. Les groupes électrogènes de secours de la centrale situés en sous-sol sont noyés et hors service. Le refroidissement du cœur du réacteur est interrompu. Les câbles électriques des groupes électrogènes dépêchés sur place sont trop courts ! Toutes sortes de moyens sont utilisés dont l’arrosage des réacteurs pour refroidir ces derniers. Ils s’avèrent inefficaces et des explosions dues à l’hydrogène se produisent engendrant des radiations dans un rayon de 50 km autour de la centrale.

On constate que ces trois accidents résultent d’imprévoyances et/ou d’actions inadaptées.

La fusion nucléaire, si on arrive à la réaliser industriellement, pourrait constituer une alternative à la fission qui est actuellement en forte perte de vitesse dans le monde (en dehors de la France et de certains pays comme la Chine qui vient de mettre en service un réacteur EPR). Elle développe cinq fois plus d’énergie que la fission, ne développe pas de réaction en chaîne car dès qu’on l’arrête, le plasma refroidit. Enfin, les déchets sont moindres. De plus, le Tritium, matière utilisée parmi d’autres, a une durée de vie de radiation limitée à 125 ans. Le rêve pour ceux qui suivent.

En conclusion, la combustion, on en connaît bien tous les effets nuisibles mais on a souvent tendance à oublier les êtres humains qui meurent à cause de la pollution qu’elle dégage (CO2 et microparticules). La fission nucléaire, malgré les risques qui lui sont inhérents, les déchets de très longue durée qu’elle génère et les coûts élevés d’exploitation (surtout si l’on intègre le démantèlement des réacteurs en fin de vie), a donc probablement encore de beaux jours devant elle, en attendant de trouver mieux pour la remplacer totalement…

Michel Bouvier

Justice : les Pays-Bas condamnés pour inaction climatique

12 octobre 2018

Marjan Minnesma, présidente de l’association Urgenda (photo © Urgenda/Chantal Bekker)

Devant l’inaction des gouvernements face au changement climatique, tous les moyens sont bons pour essayer de faire bouger les choses, y compris les procédures judiciaires. C’est ce qu’a considéré Marjan Minnesma une militante écologiste de longue date, ancienne de Greenpeace et qui a créé sa propre association dénommée Urgenda. Inspirée en 2011 par la lecture du livre Revolution Justified, publié par l’avocat néerlandais Roger Cox, elle est à l’initiative d’un recours en justice déposé en 2012 par un groupe de 886 citoyens hollandais.

Ce groupe de militants, enseignants, artistes, entrepreneurs et personnalités locales n’a pas hésité à dépenser 200 000 € dans cette action en justice contre l’État néerlandais accusé de n’avoir pas pris les mesures adaptées pour lutter avec efficacité afin de limiter les émissions de gaz à effet de serre, exposant sa population aux conséquences dramatiques d’une augmentation désormais inéluctable du niveau de la mer, alors que 15 % de la superficie des Pays-Bas est situé sous le niveau de la mer et la majeure partie du pays est directement menacée par le risque d’inondation littorale ou fluviale.

Vue aérienne de maisons près d’Amsterdam le 24 avril 2018 (photo © Reuters / La Tribune)

Le 24 juin 2015, à la grande joie de cette poignée de militants déterminés, le tribunal de La Haye avait de fait estimé que les efforts engagés par le gouvernement néerlandais n’étaient pas à la hauteur des besoins pourtant clairement identifiés par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) pour contenir le réchauffement planétaire. Le jugement rendu alors estimait que « sur la base de la politique actuelle de l’Etat, les Pays-Bas auront réduit au mieux leurs émissions de 17 % en 2020 » par rapport à 1990, alors que cette réduction devrait être de 25 % au minimum pour espérer contenir le réchauffement climatique à un niveau acceptable.

Les membres de l’ONG Urgenda célèbrent avec leurs avocats la décision du tribunal en leur faveur, le 24 juin 2015 à La Haye (photo © Chantal Bekker / Le Monde)

Le gouvernement néerlandais avait immédiatement fait appel de ce jugement, mais le 9 octobre 2018, le tribunal de La Haye vient tout juste de confirmer ce verdict, alors même que le GIEC venait de rendre public, la veille, son dernier rapport approuvé par 197 États, sur la nécessité d’agir drastiquement et très rapidement si l’humanité veut éviter les conséquences catastrophiques d’un réchauffement dépassant 1,5 °C.

Une nouvelle claque donc pour l’État néerlandais qui est ainsi mis en face de ses responsabilités. Le verdict prononcé par la présidente de la juridiction, Marie-Anne Tan-de-Sonneville, est en effet sévère, rappelant notamment que « Le changement climatique est un grave danger. Tout report des réductions d’émissions exacerbe les risques liés au changement climatique. Le gouvernement néerlandais ne peut pas se cacher derrière les émissions d’autres pays. Il a le devoir indépendant de réduire les émissions de son propre territoire ».

Manifestation à Copenhague de citoyens pour la prise en compte de mesures contre le réchauffement climatique (photo © Christoffer Askman / Ritimo)

Un raisonnement qui pourrait s’appliquer à tous les pays de la planète qui ont tendance à s’abriter derrière l’inaction collective pour éviter de prendre les décisions qui pourtant s’imposent à eux. Selon le professeur de droit Laurent Neyret, cité par Le Monde suite à la première décision de justice rendue en 2015, ce jugement pourrait faire jurisprudence car « les juges ont habilement démonté l’argument de la défense selon lequel le changement climatique est un problème global qui ne peut être traité à une échelle nationale, lui opposant le devoir des pays à agir localement, au nom de l’obligation commune mais différenciée des Etats à lutter contre le réchauffement ».

De fait, les Pays-Bas ne sont pas nécessairement les plus mauvais élèves de la classe de la classe en matière de lutte contre le réchauffement climatique, même si leurs émissions de gaz à effet de serre sont supérieures à celles de la moyenne européenne, comparables en 2013 à celles de l’Allemagne notamment. En juin 2018, selon Libération, le pays s’est ainsi engagé sur un programme très ambitieux visant à réduire les émissions de gaz à effet de serre par rapport à 1990 de 49 % d’ici 2030 et de 95 % d’ici 2050. Le gouvernement envisage même d’atteindre la neutralité carbone pour son électricité d’ici 2050.

Les jeunes soutenus par l’association Our Children’s Trust, avec leur avocate Andrea Rodgers (photo © Our Children’s Trust)

Toujours est-il que cette retentissante victoire devant une juridiction néerlandaise pourrait conduire à une multiplication des recours en justice pour cause d’inaction climatique. Selon un rapport de l’ONU publié en mai 2017, ce sont pas moins de 884 actions en justice qui auraient ainsi été intentées sur cette question, dont 654 devant des juridictions américaines. Pour l’instant, les tribunaux des États-Unis ont tendance à se déclarer incompétents sur le sujet, mais fin 2016 un juge a néanmoins autorisé la poursuite d’une affaire portée par 21 jeunes soutenus par l’association Our Children’s Trust, devant un tribunal de l’Oregon, considérant que « les politiques actuelles du gouvernement violent leurs droits constitutionnels » en laissant se développer des concentrations de gaz à effet de serre très supérieures à ce que les climatologues considèrent comme acceptables pour éviter des évolutions climatiques aussi dramatiques qu’irréversibles.

En Belgique, selon le site Mr Mondialisation, une action collective en justice, initiée par l’association Klimaatzaak, présidée par l’entrepreneur Serge de Gheldere, soutenue initialement par une dizaine de militants mais portée désormais par 30 000 citoyens a été lancée en 2015, considérant que la réduction de CO2, qui atteint pourtant 1 % par an dans ce pays est très largement insuffisante en regard des enjeux. En 2017, le procès n’avait guère progressé, bloqué comme souvent en Belgique par de sordides querelles quant aux choix de la langue à utiliser, mais la victoire en appel que viennent d’enregistrer les militants néerlandais voisins va peut-être redynamiser la procédure…

Quant à la France, elle n’est pas à l’abri d’une telle démarche. En novembre 2017, l’association Notre affaire à tous, a adressé un courrier au Président de la République pour demander l’arrêt des subventions aux énergies fossiles, la réduction des émissions françaises de gaz à effet de serre et la reconnaissance du changement climatique comme un crime écologique. Faute de réponse, sa présidente Marie Toussaint menace d’entamer une action en justice contre l’État français.

A défaut d’être favorable pour les générations futures et pour notre environnement, le changement climatique pourrait donc se révéler à terme comme une affaire juteuse pour des bataillons de juristes…

L. V. 

La France tire la langue…

2 octobre 2018

Inondations rue de la République à Aubagne le 9 août 2018 (extrait vidéo © Mathieu Gratteloup)

Une fois n’est pas coutume, les Provençaux ne s’en sont guère aperçu, eux dont la région a subi des précipitations périodiques durant tout l’été, avec même un bel orage de pluie et de grêle le 9 août 2018, qui a fait de gros dégâts dans le secteur d’Aubagne. Mais pendant ce temps, une bonne partie du territoire national a lui souffert de la sécheresse.

Du Sud-Ouest jusqu’en Alsace, mais en Bretagne également (tout arrive !), les pluies se sont fait rares durant tout l’été. Depuis la mi-juin une bonne partie du territoire national a subi un fort déficit de précipitations par rapport aux normales saisonnières, alors même que les températures étaient particulièrement élevées, supérieures de 2 à 4 °C par rapport aux valeurs habituelles. La France vient de vivre son 4ème été le plus chaud depuis que l’on enregistre régulièrement les températures.

Rapport à la normale (1981-2010) du cumul mensuel de précipitations en France au mois d’août 2018 (source Météo-France)

Un cocktail explosif qui se traduit par une forte évapotranspiration, une dessiccation des sols et des débits très faibles dans les cours d’eau… Début septembre, les sols étaient exceptionnellement secs dans toute la partie centrale et le Nord-Est du pays. Et le mois de septembre a été, lui aussi, exceptionnellement chaud et sec, avec des températures maximales supérieures de plusieurs degrés par rapport aux normales, un ensoleillement rarement observé à cette période de l’année et un déficit de précipitations qui atteint 70 % en moyenne sur l’ensemble du pays : il est tombé en moyenne 24 mm durant le mois de septembre sur le territoire métropolitain, contre 78 mm habituellement…

Carte des secteurs touchés par des arrêtés préfectoraux de restriction d’usage liés à la sécheresse au 2 octobre 2018 (source Propluvia)

Du coup, beaucoup, en particulier parmi les agriculteurs, s’inquiètent, à juste titre, des conséquences de cette sécheresse persistante. Au 21 septembre, selon le site Propluvia géré par les ministères de l’écologie et de l’agriculture, pas moins de 62 départements étaient concernés par des restrictions d’usage suite à l’atteinte des seuils de vigilance, et on dénombrait à cette date 143 arrêtés préfectoraux détaillant des mesures de restriction.

Une situation météorologique qui arrange bien certaines professions dont les viticulteurs du Bordelais qui se réjouissent de conditions particulièrement favorables jusqu’à la période des vendanges. A Bordeaux, il n’est tombé que 3,2 mm de pluie durant le mois de septembre, contre 83 mm en moyenne : même le record de 1985 a été battu, qui avait enregistré un cumul de 3,6 mm !

Mais un contexte climatique catastrophique pour de nombreux agriculteurs et notamment pour les éleveurs. En Poitou-Charentes et dans le centre de la France, le fourrage se fait rare et de nombreux éleveurs sont contraints de vendre une partie de leur cheptel, alors même que les prix du bétail sont en chute libre du fait de cette augmentation de l’offre.

Dans le Cantal, il faut nourrir les vaches avec du fourrage (photo © Francis Campagnoni / La Montagne)

Dans le Puy-de-Dôme, le préfet a pris des mesures de restriction de certains usages de l’eau depuis le 11 août et vient de les prolonger jusqu’à fin octobre. Les éleveurs sont obligés de puiser dans leurs réserves de fourrages et de trouver de l’eau pour abreuver leurs bêtes. Les rendements de betteraves à sucre s’annoncent catastrophiques et le colza peine à lever, tandis que certaines activités industrielles subissent des restrictions d’activité faute de débit suffisant dans les cours d’eau pour assurer le refroidissement des machines ou l’eau de process nécessaire.

Irrigation par aspersion d’un champ de maïs (photo archives © La Nouvelle République)

Dans le Cher, malgré un hiver et un printemps plutôt humide, la sécheresse commence aussi à se faire sentir avec des précipitations qui, en septembre, n’ont pas dépassé 6 à 26 mm selon les endroits, très en deçà des normales mensuelles qui tournent plutôt entre 60 et 90 mm. De nouveaux arrêtés préfectoraux ont donc été pris le 1er octobre, en particulier sur le bassin du Cher qui est passé en situation de crise avec 117 communes concernées par des restrictions d’eau, dont Bourges et Vierzon.

Même dans le Cotentin, les conditions météorologiques ont conduit les cultivateurs de maïs à récolter avec 3 semaines d’avance pour l’ensilage, avant que la sécheresse ne vienne détériorer irrémédiablement leur récolte. Dans le Doubs ou en Corrèze, on a dû jongler durant tout l’été à certains endroits pour continuer à approvisionner la population en eau potable avec des rivières et des plans d’eau qui tarissaient précocement, sous l’effet justement des pompages agricoles destinés à l’irrigation du maïs, une plante particulièrement gourmande en eau et que certains agriculteurs envisagent sérieusement de remplacer par d’autres espèces.

Champ de sorgho en France

On voit ainsi de plus en plus se développer, jusque sur les collines des Vosges, des champs de sorgho, cette céréale omniprésente dans le Sahel, dont les besoins en eau sont inférieurs de 30 % à ceux du maïs et qui pourraient bien constituer une alternative judicieuse pour s’adapter aux nouvelles conditions climatiques qui sont en train de s’installer en France métropolitaine. L’agriculture a montré au cours des siècles sa grande capacité d’évolution et de transformation : sera-t-elle capable de s’adapter à cette évolution climatique globale qui est en train de s’imposer à nous à une vitesse inédite ? Espérons-le !

L. V.

Les punaises de lit, un nouveau fléau ?

30 septembre 2018

Une punaise de lit, Cimex lectularius

Très répandues en Europe avant la seconde guerre mondiale, les punaises de lit avaient fini par quasiment disparaître de notre paysage quotidien dans les années 1950, chassées par l’usage à grande échelle de puissants insecticides dont le fameux DDT qui a fait tant de ravages sur notre environnement. Mais elles ont fait un retour en force depuis les années 1990, grâce à leur capacité d’adaptation aux insecticides et surtout du fait de la multiplication des déplacements à travers le monde…

La manière la plus fréquente de voir son appartement infesté par ces insectes hématophages rampants, qui piquent les gens lorsqu’ils sont immobiles, généralement la nuit pendant leur sommeil, est en effet de les rapporter dans sa valise, bien cachés dans les replis de son linge. De jour, ces animaux sont très discrets et vivent cachés souvent dans les sommiers ou les matelas, les lattes de plancher, les fissures du mur et derrière les plinthes, à l’abri de la lumière et pas trop éloignés de leur proie. Ils sortent principalement la nuit et choisissent de piquer en priorité les personnes dont la peau est fine et dont le sang leur convient, ce qui explique que plusieurs personnes dormant dans le même lit ne seront pas touchées de la même manière…

Cimex lectularius, de son petit nom, est pourtant bien visible à l’œil nu. Le corps de l’adulte est ovale et aplati, de couleur brune, un peu comme un pépin de pomme de 4 à 5 mm de longueur. Mais on le voit rarement et on le repère plutôt à ses traces que sont les points noirs de ses déjections et les petites traces de sang séché laissées sur le matelas, ainsi bien sûr qu’aux boutons rouges et aux démangeaisons qu’il laisse sur la peau de ses victimes…

Pour autant, la punaise de lit n’est pas dangereuse et ne transmet pas de maladie connue à l’homme. Le seul désagrément qu’elle cause vient des démangeaisons provoquées par ses morsures car, comme la plupart des insectes suceurs de sang, elle injecte en piquant un peu de salive anticoagulante pour fluidifier le sang dont elle se nourrit, ce qui provoque chez la majorité des personnes des réactions urticantes, parfois plusieurs jours après la morsure. Rien de bien grave en réalité, mais de quoi pourrir la vie de ceux qui vivent dans un appartement infesté au point de souffrir de burn-out parce qu’ils appréhendent de s’endormir de crainte de nouvelles piqures nocturnes !

Mobilier infecté de punaises de lit dans les rues de la Belle de Mai (photo © Sarah Nedjar / Radio France)

Or, les invasions de punaises de lit deviennent de plus en plus fréquentes. A Toulon ou à Marseille, des quartiers entiers en sont envahis et on retrouve régulièrement sur les trottoirs les matelas usagers de ceux qui, ne sachant plus comment se débarrasser de ces insectes, finissent par jeter leur literie entière, ce qui contribue d’ailleurs à la propagation de ces animaux vers les immeubles voisins… Début 2018, la presse se faisait ainsi l’écho de l’exaspération des habitants de la Belle de Mai où de nombreux appartements sont envahis de ces insectes hématophages, tandis que France 3 relatait les déboires du service des urgences à l’hôpital de la Timone où cet été un tiers des chambres ont dû être momentanément fermées le temps de les désinfecter contre une invasion de punaises de lits. Même le cinéma Pathé Liberté à Toulon a dû fermer début septembre, selon France Bleu, par suite d’une invasion de punaises de lits confortablement installées dans les fauteuils de la salle !

C’est en effet une des caractéristiques de ces insectes qui recherchent avant tout la présence de l’homme et qui sont susceptibles de se développer partout, dans les hôtels 4 étoiles comme dans les taudis les plus insalubres, pourvu qu’ils y trouvent des humains à leur goût (qu’ils repèrent grâce à notre chaleur corporelle et nos émissions de CO2) et de quoi se nicher confortablement.

Cycle de vie de la punaise de lit

Pour peu que la pièce soit bien chauffée, la punaise de lit verra son cycle encore accéléré : il lui faut en effet 5 semaines en moyenne pour devenir adulte et commencer à pondre ses œufs (à raison de 3 à 8 par jour) à température ambiante de 20 °C. Mais à 30 °C, il lui suffirait de seulement 3 semaines pour atteindre un tel stade de développement ! Sachant que la durée de vie d’une punaise est généralement de 9 mois, ce sont en moyenne de l’ordre de 500 œufs qu’une femelle peut pondre au cours de son existence, de quoi entretenir largement une colonie bien installée au sein de votre matelas confortable, chaque adulte se contentant d’un repas par semaine en moyenne…

Face à un tel fléau et pour sauvegarder la qualité de leurs nuits, les hommes ont imaginé bien des stratagèmes pour se débarrasser des punaises de lits. A écouter les spécialistes tels que Pascal Delaunay, entomologiste médical et parasitologue au CHU de Nice, interviewé par Futura Sciences, ou certains professionnels de la désinsectisation qui diffusent un guide pour se débarrasser des punaises de lit, la tâche n’est pas aisée…

Piège naturel à punaises de lit, à base de poudre de diatomite

La priorité est d’abord de bien identifier les insectes à l’origine de nos maux et ensuite d’évaluer l’ampleur des dégâts par une inspection soignée des zones à risque. Des pièges mécaniques simples sous forme de scotch à double face collé sur les pieds du lit ou à base de diatomite peuvent être utiles pour une telle inspection. Des techniques de pièges plus élaborés ont aussi été développés par des chercheurs canadiens de l’université Simon Fraser, en Colombie-Britannique. Après 10 ans d’études et l’examen minutieux de plus de 10 000 punaises de lit consciencieusement nourries par une des membres de l’équipe, piquée environ 180 000 fois pour la bonne cause, ils ont identifié trois phéromones principales qui permettent d’attirer les punaises de lits (bedbugs en anglais) et ainsi d’évaluer l’importance de l’infection (mais sans détruire les œufs ni les adultes qui digèrent tranquillement leur dernier repas, bien à l’abri, pendant 10 jours et parfois bien davantage).

En cas d’invasion avérée, la lutte mécanique reste fortement conseillée pour éliminer le maximum du stock à coups d’aspirateur, de nettoyage à la vapeur, de lavage à plus de 60 °C, voire de congélation à -20 °C au minimum, tout en veillant à ce que ce grand nettoyage ne se traduise pas par une simple dispersion de la colonie et son implantation dans les autres pièces de la maison ou chez les voisins…

Au-delà, la désinfection par des sociétés spécialisées, à l’aide d’insecticides spécifiques qui ne sont pas en vente libre dans le commerce, est souvent une étape coûteuse mais indispensable. Deux passages à 15 jours d’intervalles sont d’ailleurs généralement nécessaires pour achever les larves écloses entre temps car les œufs sont globalement très résistants à tous ces traitements…

Emeline Lemarié, étudiante chercheuse au sein du projet Breaking Bugs à l’Université Aix-Marseille (photo © Jérémie Hessas / France 3 Provence-Alpes)

Une autre voie de traitement pourrait néanmoins émerger, fruit des recherches d’une équipe marseillaise composée de jeunes biologistes, bio-informaticiens et spécialistes en biologie génomique. Leur projet, baptisé du vocable typiquement provençal Breaking bugs (clin d’œil au titre d’une série américaine, bien entendu), consiste en un piège à base de phéromones qui attire les punaises et les met en contact avec un champignon pathogène, Beauveria Bassania, lequel pénètre à l’intérieur du corps de la punaise pour la faire lentement dépérir. La mort n’étant pas instantanée, la punaise infestée quitte librement le piège et infecte à son tour les autres membres de la colonie, de telle sorte que celle-ci finit par disparaître après plusieurs semaines.

Une approche ingénieuse donc, que les étudiants marseillais s’apprêtent à présenter en octobre prochain à Boston, dans le cadre de l’IGEM (International genetically engineered machine) dans l’espoir qu’elle leur vaudra, sinon une reconnaissance mondiale, du moins une audience suffisante pour assurer une large diffusion de leur invention. Les punaises de lit ont du souci à se faire…

L. V. 

L’évêque, les coquelicots et Charlie Hebdo…

12 septembre 2018

Monseigneur Marc Stenger, évêque de Troyes (extrait vidéo © KTO)

Au premier abord, l’association d’idée paraît un peu saugrenue. Il n’est pas si courant qu’un prélat, en l’occurrence Marc Stenger, évêque de Troyes depuis 1999, soutienne une initiative du journal satirique Charlie Hebdo, dont les positions anticléricales ne font généralement guère dans la nuance. Mais l’évêque de Troyes s’intéresse non seulement à la spiritualité mais aussi à l’avenir de notre monde ici-bas, lui qui a dirigé la rédaction d’un ouvrage collectif préfacé par Nicolas Hulot et publié en 2005 sous le titre « Planète vie, planète mort : l’heure des choix ».

Et Monseigneur l’évêque s’inquiète de l’usage immodéré que les agriculteurs, pauvres pêcheurs, font des produits phytosanitaires, au point de faire partie des tous premiers signataires d’un appel lancé par le journaliste de Charlie Hebdo, Fabrice Nicolino : Stop aux pesticides, nous voulons des coquelicots !

L’appel est paru aujourd’hui, mercredi 12 septembre, dans un numéro spécial du journal satirique entièrement consacré aux pesticides. C’est dire à quel point Fabrice Nicolino, qui avait été gravement blessé lors de l’attaque de Charlie Hebdo par un commando de fanatiques islamistes le 7 janvier 2015, est animé par son sujet au point d’embarquer toute la rédaction dans son sillage.

Il n’est d’ailleurs pas un novice en la matière puisqu’il avait publié en 2007, avec François Veillerette, directeur de l’ONG Générations futures, un ouvrage très documenté et qui avait eu un certain retentissement sous le titre Pesticides, révélations sur un scandale français (éditions Fayard).

Seulement voilà, 10 ans plus tard, force est de constater que rien n’a changé et que la situation s’aggrave. Après la farce du Grenelle et l’annonce à grands sons de trompettes du plan Ecophyto qui devait, juré craché, réduire de 50 % la consommation de pesticides en France d’ici 2018, voilà qu’on constate piteusement que, non seulement les volumes de pesticides utilisés n’ont pas baissé mais qu’ils ont même augmenté de 22 % ! Et quand il est question de réduire progressivement le recours au glyphosate que toutes les expertises indépendantes s’accordent à considérer comme cancérigène pour l’homme et hautement déstabilisateur pour la biodiversité, les agriculteurs, ministre en tête, viennent expliquer doctement que cela n’est tout simplement pas envisageable…

Fabrice Nicolino, le 25 septembre 2015 (photo © Joël Saget / AFP)

Alors fin 2017, le tenace Fabrice Nicolino, qui anime par ailleurs un blog dénommé Planète sans visa, convainc toute la rédaction de Charlie Hebdo de s’intéresser à la question des pesticides. Et pour cela, rien ne vaut l’approche expérimentale. Quinze journalistes de l’équipe, Riss en tête, donnent de leur personne en offrant à la science 100 mg de leur chevelure. L’histoire ne dit pas si Nicolino, dont le crâne est lisse comme un caillou, a participé à la manip, mais toujours est-il que les résultats d’analyse sont édifiants : les cheveux contiennent tous entre 35 et 50 substances chimiques différentes (sur 140 recherchées) issues de pesticides, dont certains, tels le lindane, sont désormais interdits en France depuis maintenant 20 ans…

La couverture du dernier numéro de Charlie Hebdo (12 septembre 2018)

Le constat est donc sans appel : nous allons finir par tous mourir de cet usage immodéré et irresponsable des pesticides, et pas seulement les agriculteurs eux-mêmes, à l’image de Fabian Tomasi, cet ex-ouvrier agricole argentin qui travaillait dans sa jeunesse à l’épandage de pesticides et qui est décédé cette semaine à 53 ans, atteint de polyneuropathie toxique grave, lui qui militait ardemment pour un arrêt de l’utilisation de ces produits qui font des ravages.

C’est précisément l’interdiction totale de la plupart de ces pesticides que réclame l’appel lancé par Fabrice Nicolino et déjà relayé par de nombreuses personnalités dont l’animateur Laurent Baffie, la chanteuse Emily Loizeau, qui prépare une chanson sur ce thème, Didier Robiliard, président de l’association France-Parkinson, le sénateur écologiste breton Joël Labbé, très en pointe dans le combat contre les pesticides, ou encore le docteur Pierre-Michel Périnaud, président de l’association Alerte des médecins sur les pesticides (ALMP), forte de 1 200 membres.

Le texte en lui-même, bien que très bref, est percutant : « Nous ne reconnaissons plus notre pays ; la nature y est défigurée. Le tiers des oiseaux ont disparu en quinze ans, la moitié des papillons en vingt ans ; les abeilles et les pollinisateurs meurent par milliards. Les grenouilles et les sauterelles sont comme évanouies ; les fleurs sauvages deviennent rares. Ce monde qui s’efface est le nôtre et chaque couleur qui succombe, chaque lumière qui s’éteint est une douleur définitive. Rendez-nous nos coquelicots ! Rendez-nous la beauté du monde ! ».

Les coquelicots, tableau de Claude Monet (1873), conservé au Musée d’Orsay

Au-delà de ce numéro spécial de Charlie Hebdo, la campagne qui se lance et qui vise plusieurs millions de signatures devrait s’appuyer sur un site internet en cours de finalisation et un petit livret pédagogique en forme de plaidoyer, coécrit comme le précédent par Fabrice Nicolino et François Veillerette, et publié aux éditions Les liens qui libèrent sous ce titre « Nous voulons des coquelicots ». Une cocarde en tissu symbolisant ce fameux coquelicot, autrefois omniprésent dans nos campagnes, pourrait bientôt orner le revers de plus d’un citoyen, à l’image de la petite main jaune de Touche pas à mon pote des années 1980.

Nul doute en tout cas que les médias, ne manqueront pas de se faire l’écho de ce mouvement citoyen qui n’est pas le premier de son genre sur un tel sujet mais qui contribuera peut-être à éveiller enfin les consciences face à un danger d’une telle ampleur…

L.V. 

Japon : l’été meurtrier…

8 septembre 2018

En 2018, comme d’ailleurs en 2017, la Terre a encore battu des records de chaleurs. En France, ces deux étés successifs se classent d’ailleurs comme les deux les plus chauds jamais enregistrés, avec du 1er juin au 31 août 2018, une température journalière moyenne supérieure de 3,2 °C par rapport aux normales saisonnières, de quoi peut-être convaincre, s’il en reste, les derniers climato-sceptiques quant à la réalité du réchauffement climatique global…

Dans l’Ouest américain, où de gigantesques incendies de forêts, une fois de plus, ont semé la mort et la désolation, on a enregistré la température record de 52,9 °C le 27 juillet 2018 dans la Vallée de la Mort qui n’a sans doute jamais aussi bien porté son nom. Même au Québec, une petite semaine de canicule, début juillet, a fait pas moins de 70 morts !

Le Japon quant à lui, a été particulièrement touché par cette vague de chaleur intense qui a sévi dans le pays entre avril et août. Des records de température y ont été atteints, le thermomètre étant monté jusqu’à 41,1 °C le 23 juillet dans la ville de Kumagaya. Ce sont pas moins de 125 morts dus à cette canicule qui ont été dénombrés dans le pays, dont une centaine pour la seule ville de Tokyo où on a même vu la nourriture factice exposée dans les vitrines des restaurants se liquéfier du fait de la chaleur.

Voitures piégées dans la boue après les inondations à Saka, le 8 juillet 2018 (photo © Martin Bureau / AFP)

Mais ce n’est pas tout puisque cette vague de chaleur meurtrière est elle-même venue s’intercaler entre deux épisodes de pluies exceptionnelles qui ont fait de gros dégâts dans le pays. Le 8 juillet 2018, selon Le Monde, le premier ministre japonais déclarait ainsi à l’issue d’une réunion de crise après 4 jours de pluies torrentielles qui s’étaient abattues sur plusieurs régions du pays : « Les secours, le sauvetage de vies et les évacuations sont une course contre la montre ».

Plus de 100 000 personnes avaient dû être évacuées en catastrophe, environ 75 000 secouristes mobilisés en toute urgence et au moins 220 morts ont été dénombrés, emportés par les flots boueux ou ensevelis sous leur maison effondrée sous l’effet du ruissellement torrentiel ou de multiples glissements de terrain.

Maison effondrée à Kumano en bord de cours d’eau, le 9 juillet 2018 (photo © Martin Bureau / AFP)

Un terrible bilan humain et matériel donc pour un pays, certes particulièrement exposé aux risques naturels, mais dont les constructions, souvent en bois et implantées dans des secteurs au relief accidenté, se sont révélées finalement assez vulnérables, malgré une forte culture de la prévention du risque.

Et ce n’est pas fini puisque, sitôt la vague de canicule terminée, le Japon a essuyé un des plus terribles cyclones de son histoire, sans précédent depuis 25 ans, le typhon Jebi, qui a ravagé l’île de Honshu le 4 septembre 2018, avec des vents soufflant jusqu’à plus de 220 km/h en rafale. Ce n’était que la 21ème  tempête tropicale de la saison, mais celle-ci n’a pas fait dans le détail, obligeant les autorités à lancer des ordres d’évacuation à l’attention de plus de 300 000 habitants.

Un camion renversé par le vent sur le pont de Seto-Ohashi, entre les îles japonaises de Honshu et Shikoku, le 4 septembre 2018 (photo © Jiji Press / Kagawa Prefectural Police / AFP)

Les vidéos disponibles sont particulièrement spectaculaires, montrant des véhicules soufflés comme des fétus de paille. Plus de 1,2 millions de foyers ont été privés d’électricité, 650 vols ont dû être annulés et au moins 11 personnes ont péri durant cet événement qui a fait de très nombreux blessés et de gros dégâts matériels. Un pétrolier est ainsi venu s’encastrer dans le pont reliant l’aéroport international de Kansai qui est lui-même fortement endommagé et a dû être provisoirement fermé.

Tanker encastré contre le pont reliant Kansai International Airport à la terre ferme, à la suite du typhon Jebi (photo © Yasufumi Nagao / AP / SIPA)

Et 48 heures seulement après ce terrible coup du sort, l’île d’Hokkaido, au nord du Japon, était à son tour victime d’un terrible séisme, provoquant de multiples glissements de terrain, causant la mort d’au moins 9 personnes et en blessant 300 autres.

Nombreux glissements de terrain provoqués par le séisme le 6 septembre 2019, à Atsuma sur l’île d’Hokkaïdo (photo © JIJI PRESS / AFP)

Un bilan relativement modeste au vu de la violence de l’événement, ce qui confirme une nouvelle fois la bonne préparation de ce pays face au risque sismique, même si chacun a encore en tête les images terribles du tremblement de terre de 2011 qui avait fait environ 18 000 victimes, 80 % d’entre elles étant décédées non pas des effets directs du mouvement sismique mais du fait du tsunami qui avait ensuite ravagé les côtes nippones, mettant à mal au passage les installations de la centrale nucléaire de Fukushima.

En tout cas, avec une telle succession de catastrophes naturelles en un laps de temps aussi court, le Japon confirme s’il en était besoin son exposition particulièrement élevée face aux risques naturels. L’institut pour l’environnement et la sécurité humaine des Nations unies (UNU-EHS), qui publie chaque année son palmarès selon un indice d’exposition aux catastrophes naturelles, classe d’ailleurs ce pays parmi les plus exposés, derrière les Philippines, le Bengladesh ou le Guatemala… Depuis l’an dernier, outre la canicule, le séisme, l’inondation et le typhon de cet été, le Japon a ainsi subi 4 autres catastrophes naturelles majeures enregistrées par le Centre for Research on the Epidemiology of Disasters : qui dit mieux ?

L. V.

Pas d’allocation familiale sans vaccination ?

1 septembre 2018

Le choix des familles de ne pas faire vacciner leurs enfants, au risque d’aggraver certains risques sanitaires pour la collectivité, doit-il être soutenu par les contribuables ?

Depuis plusieurs années la vaccination est devenue un sujet polémique. Les vaccins sont accusés de multiples méfaits. On a pu croire (à tort) qu’ils favoriseraient l’autisme ou la maladie de Crohn. On les soupçonne, sans preuve, de liens avec les affections démyélinisantes. On les suspecte à cause de leurs adjuvants…

Un dessin signé Beltramo

Selon Le Figaro, deux études d’opinion menées par l’Institut national de prévention et d’éducation pour la santé (INPES) en témoignent : entre 2005 et 2010, le pourcentage de Français favorables à la vaccination est passé de 90 à… 61,5 % ! Une chute de confiance survenue toutefois après l’échec de la campagne de vaccination contre la grippe A, et qui semble partiellement oubliée puisque 81 % des personnes interrogées par l’INPES en avril 2011 étaient globalement favorables à la vaccination.

Une conférence sur cette question avait d’ailleurs été organisée à Carnoux par le CPC en 2016…

Cette méfiance a pu grandir et se maintenir à un niveau tel que de nouveaux risques sanitaires pourraient survenir. Elle inquiète les autorités, notamment le Haut conseil de la santé publique qui, s’il s’est récemment interrogé sur la pertinence de l’obligation vaccinale, s’est ému d’« une baisse assez inquiétante de la vaccination, en particulier (contre) des pathologies qui risquent d’être graves ». Et on l’on assiste à la résurgence de maladies qui avaient quasiment disparu, comme les récentes épidémies de rougeole en Allemagne ou aux États-Unis.

Des trous, des p’tits trous… Dessin de Lasserpe

La vaccination, qui a fait disparaître de nos contrées un certain nombre de maladies infectieuses, est d’ailleurs considérée comme la plus efficace et la plus rentable des mesures de santé publique. Se faire vacciner permet, non seulement de se protéger soi-même, mais aussi de protéger les membres de son entourage (jeunes enfants, femmes enceintes, personnes âgées ou malades chroniques) ne pouvant pas se faire vacciner ou rendus plus fragiles par leur âge ou leurs pathologies.

Alors que de plus en plus de personnes se détournent de la vaccination dans les pays occidentaux, le gouvernement australien a annoncé en 2015 que les parents refusant de faire vacciner leurs enfants se verraient privés d’une partie des allocations familiales. « Ce choix fait par les familles de ne pas immuniser leurs enfants n’a aucun fondement médical ni de santé publique, et ne devrait pas être soutenu par les contribuables », a expliqué le Premier ministre conservateur australien Tony Abbott.

Un dessin de Mutio publié par Urtikan

Le taux de vaccination des enfants âgés de un à cinq ans est d’environ 97 % en Australie, mais plus de 39.000 enfants de moins de sept ans ne sont pas immunisés selon le Registre australien de la vaccination infantile, un chiffre en hausse depuis les dix dernières années avec 24.000 cas supplémentaires. Seules deux exceptions pourraient permettre aux parents d’enfants non vaccinés de recevoir l’ensemble des allocations familiales : des raisons médicales, ou l’affiliation à un groupe religieux dont les instances dirigeantes présenteraient contre les vaccins une objection formellement reconnue par les autorités. En revanche, les parents inscrits sur le registre des « objecteurs de conscience » cesseraient de recevoir une série d’allocations qui peuvent représenter jusqu’à 15.000 dollars australiens (10.800 euros) par an et par enfant

La vaccination, une mesure efficace de santé publique (photo © Istock)

Selon l’hebdomadaire Courrier International, le pro­gramme australien No Jab, No Pay (« Pas de piqûre, pas d’argent ») est entré en vigueur depuis le 3 juil­let 2018. Les parents qui ne font pas vacciner leurs enfants perdront une partie de leurs prestations sociales, rapporte le site News.com.au.

Chaque famille qui envoie son enfant à l’école sans que ses vaccins soient à jour perdra ainsi la somme de 28 dollars austra­liens (17 euros) tous les quinze jours. D’après le ministre des Services sociaux, Dan Tehan, « les parents qui n’immunisent pas leurs enfants les mettent en danger, ainsi que les enfants, d’autres personnes ».

Voilà une parade efficace qui pourrait inspirer nos politiques face à l’individualisme et l’égoïsme. Il faut néanmoins pour l’adopter un certain courage…

S. J.

Nucléaire : les centrales françaises ont eu chaud !

11 août 2018

Un dessin signé Deligne

La France, c’est bien connu, fait entièrement confiance à l’énergie nucléaire pour assurer son approvisionnement en électricité : le risque d’accident technologique n’est pas négligeable et les coûts de production sont un peu élevés, surtout si l’on devait prendre en compte les coûts réels de traitement des déchets radioactifs et de démantèlement des centrales, mais au moins cela ne produit pas trop d’émission de gaz à effet de serre. C’est même d’ailleurs l’argument principal mis en avant par EDF pour justifier de continuer à investir autant dans la filière malgré les innombrables déboires rencontrés, notamment sur le chantier de l’EPR de Flamanville.

Un dessin signé Lara publié dans le Canard enchaîné du 8 août 2018

Pour autant, le réchauffement climatique global dont les effets sont chaque jour un peu plus visibles, commence à faire planer des menaces supplémentaires sur cette filière. La période de canicule que vient de connaître la France s’est ainsi traduit par la mise à l’arrêt de quatre réacteurs nucléaires et le ralentissement de deux autres. Ajoutés aux 15 réacteurs arrêtés cet été pour cause de maintenance, cela représente 21 réacteurs actuellement hors service sur les 58 que compte le parc électronucléaire français, répartis sur 19 sites en activité.

Cela n’empêche pas EDF de continuer à exporter une partie de sa production encore excédentaire en cette période estivale où la consommation électrique des industriels est généralement moindre, et ceci même si le développement exponentiel de la climatisation fait régulièrement augmenter la demande d’électricité en période chaude.

Arrosage de la centrale de Fessenheim en 2003 (source : Sortir du nucléaire)

Ce n’est certes pas la première fois que les centrales nucléaires françaises révèlent leur vulnérabilité en cas de forte chaleur. En 2003 déjà, en pleine canicule, la France avait découvert, éberluée, les images d’un réacteur de la centrale nucléaire de Fessenheim arrosé à grands coups de jet d’eau pour tenter de refroidir la température de l’enceinte qui menaçait de dépasser les 50 °C autorisés ! Une tentative assez maladroite d’ailleurs cas il aurait fallu des semaines pour abaisser réellement par cette méthode la température à l’intérieur de l’enceinte dont le mur fait plus de 80 cm d’épaisseur…

Sur d’autres sites, dont ceux de Bugey, Tricastin et Saint-Alban, en bordure du Rhône, ou encore à Golfech, le long de la Garonne, EDF avait été alors été contraint de rejeter de l’eau plus chaude que les règles d’exploitation du nucléaire ne l’autorisent. Une entorse qui a ensuite été régularisée par des dérogations officielles. Et c’est la même situation qui se reproduit régulièrement depuis, lors de chaque période estivale un peu chaude, avec un risque d’emballement inquiétant maintenant que les périodes caniculaires sont de plus en plus fréquentes dans nos contrées.

Centrale nucléaire de Nogent-sur-Seine

En 2017, par exemple, sans les lâchers d’eau réalisés en permanence par les barrages situés en amont du Bassin Parisiens et gérés par l’établissement public de bassin Seine Grands lacs, les débits dans la Seine au droit de la centrale nucléaire de Nogent-sur-Seine, auraient été trop faibles pour permettre la poursuite de l’exploitation des réacteurs, descendant en dessous des seuils critiques et ceci pendant plusieurs semaines consécutives.

Cette année, dès le 27 juillet, une des unités de production de la centrale de Bugey, située en bordure du Rhône, a ainsi dû être arrêtée car la température du fleuve excédait les seuils admissibles. Le surlendemain, c’était le tour de l’unité de production n°1 de Saint-Alban, située le long du Rhône, qui subissait le même sort, les deux tranches de cette centrale ayant finalement dû être arrêtée jusqu’au 8 août, ainsi qu’une seconde unité de Bugey et finalement l’une des tranches de Fessenheim.

Comme l’explique l’IRSN, l’Institut de radioprotection et de sureté nucléaire, la forte dépendance des centrales nucléaires aux milieux naturels aquatiques tient à deux facteurs.

Un dessin signé Romboussard

Une centrale thermique, qu’elle soit nucléaire ou pas, n’est jamais qu’une grosse cocotte-minute produisant de la vapeur, laquelle fait tourner un alternateur. Pour chaque MWh d’électricité produite, il faut évacuer dans la nature 2 MWh de chaleur. Pour cela, il faut de grosses quantités d’eau pour refroidir le dispositif, eau qui est prélevée soit en rivière (c’est le cas de 44 des réacteurs français), soit dans la mer (pour les 14 autres tels que Flamanville, Paluel ou le Blayais). Cette eau de refroidissement est pour l’essentiel (à 98 % selon EDF) rejetée ensuite dans le milieu naturel soit sous forme de vapeur (ce sont les panaches blancs qui s’échappent des tours de refroidissement) soit sous forme liquide.

Le problème vient de ce l’eau qui est rejetée dans les cours d’eau en aval des centrales est plus chaude de quelques degrés par rapport à celle du milieu naturel. Cela ne prête pas à conséquence la majeure partie du temps, sauf justement en période de canicule, lorsque les débits dans les rivières sont au plus bas et que la température du milieu est déjà élevée. Au-delà d’un certain seuil, une augmentation même minime de la température peut alors avoir des conséquences écologiques dramatiques, entrainant des mortalités massives de certains poissons ou des développement d’algues toxiques. C’est la raison pour laquelle à partir de certaines limites de débit et de température, EDF n’a plus l’autorisation de prélever de l’eau pour refroidir ses centrales, n’ayant alors d’autres solution que de les mettre à l’arrêt.

Un dessin signé Cabu

Et il y a une deuxième raison qui oblige EDF à installer ses centrales nucléaires à proximité d’un milieu naturel aquatique, tout simplement pour y rejeter ses multiples effluents chimiques et radioactifs issus de ses installations. Comme tout site industriel, une centrale nucléaire produit en effet de nombreux effluents chimiques issus de certains procédés tels que la production d’eaux déminéralisée, mais aussi des rejets de sa propre station d’épuration.

A cela s’ajoutent certains effluents liquides radioactifs, riches notamment en bore, carbone 14 et surtout en tritium. Les rejets de toutes ces matières directement dans le milieu naturel doivent respecter des seuils de concentration maximale. Plus les débits des cours d’eau sont faibles, plus ces seuils sont atteints rapidement car l’effet de dilution est réduit. EDF est alors contraint de stocker ces éléments indésirables dans des bassins de rétention en attendant des jours meilleurs, mais ses capacités de stockage ne sont pas illimitées…

L’épisode de canicule récent, comme ceux de ces dernières années, dont l’amplitude et la fréquence semblent augmenter régulièrement sous l’effet du changement climatique, ne fait donc que confirmer cette forte vulnérabilité de la filière électronucléaire face à l’évolution de son environnement et au risque de diminution significative du débit d’étiage des cours d’eau qui se profile dans les années à venir. Quand on sait qu’une seule journée d’arrêt d’un réacteur nucléaire coûte de l’ordre de 1 million d’euros à EDF, on imagine avec quelle attention ses ingénieurs scrutent l’évolution des débits en période estivale !

Comme l’indiquait en 2011 Stéphane Lhomme, président de l’Observatoire du nucléaire, « contrairement à ce qu’on essaie de nous faire croire, c’est le changement climatique qui s’attaque au nucléaire et non l’inverse ». Un beau sujet de réflexion pour une prochaine épreuve de philosophe du baccalauréat ?

L. V.

Méduses en Méditerranée : un nouveau péril ?

8 août 2018

Un dessin signé Glez, dessinateur burkinabé (source : Cartooning for Peace)

Ces derniers temps, l’actualité se focalise sur les arrivées de populations qui tentent, au péril de leur vie, de traverser la Méditerranée pour fuir des situations de guerre, de misère et de désespérance sociale, en espérant trouver en Europe un avenir meilleur. Mais cette situation qui obnubile et angoisse certains ne doit pas faire oublier d’autres mouvements d’espèces naturelles, en l’occurrence véritablement invasives, et dont l’ampleur des déplacements, le plus souvent lié à l’activité humaine, pourrait s’accentuer sous l’effet du réchauffement climatique mondial.

Les exemples en Méditerranée sont innombrables. Rappelons, à titre indicatif que selon la DREAL PACA, sur les 4000 espèces végétales que comptent la région, 931 soit près d’une sur quatre sont considérées comme exotiques, certaines colonisant les fonds marins, à l’exemple de la fameuse « algue tueuse », Caulerpa taxifolia, relâchée accidentellement en 1984 par l’aquarium de Monaco et qui avait envahi en l’espace de 20 ans plus de 5000 ha avant de commencer à régresser.

Le tetraodon, cousin du Fugu, désormais présent en Méditerranée

Depuis le percement du canal de Suez, on considère que plus de 900 espèces exotiques ont pénétré en Méditerranée, dont le « poisson-lapin », Siganus luridus, qui broute les herbiers de posidonies, mettant à nu les fonds marins, ou encore le tétraodon, Lagocephalus sceleratus, cousin du Fugu des Japonais et potentiellement mortel.

Mnemiopsis leidyi (photo © Guillaume Marchessaux / IMO / LPED)

L’étang de Berre est ainsi confronté, depuis une quinzaine d’années, et après celui de Vaccarès, touché dès la fin des années 1990, à l’invasion de ce que les Anglo-Saxons appellent la « Noix de mer », Mnemiopsis leidyi, une sorte d’ovoïde gélatineux transparent muni de tentacules et qui évoque vaguement une forme de méduse sans être pour autant urticant ni dangereux.

Cette espèce est arrivée en Méditerranée en provenance de l’Atlantique nord, dans l’eau de ballast que les cargos chargent pour stabiliser leur coque et qu’ils déversent à leur arrivée, avec tous les micro et macro-organismes qu’elle contient et dont certains peuvent survivre pendant de longues semaines.

Dans l’étang de Berre, cette vaste lagune qui communique avec la Méditerranée par le chenal de Caronte, ce cténophore qui peut pondre jusqu’à 10 000 œufs par jour a proliféré à une vitesse inquiétante. Cette espèce carnivore détruit les œufs et larves des autres espèces et dévore le zooplancton, ce qui contribue à appauvrir fortement les populations de poissons. Il obstrue par ailleurs les filets des pêcheurs professionnels dont l’activité est en expansion sur cet étang dont la qualité des eaux s’améliore ces dernières années et pour lequel est désormais envisagée une inscription au patrimoine mondial de l’UNESCO.

Extrait d’une vidéo expliquant les effet de Mnemiopsis Leidyi dans l’étang de Berre

Une thèse est d’ailleurs en cours depuis 2015, à l’Institut méditerranéen d’océanologie et au Laboratoire Population Environnement Développement (LPED) de l’université d’Aix-Marseille, pour mieux comprendre les conditions de développement de cette espèce, considérée comme l’une des 50 espèces les plus invasives du monde, et en étudier les impacts socio-économiques, comme l’évoque un article de 20 minutes assorti d’une vidéo très pédagogique.

Cycle de reproduction de Mnemiopsis Leidyi

Les méduses urticantes, Pelagia noctiluca, quant à elles, sévissent périodiquement sur les côtes méditerranéennes, y compris à Marseille où elles sont portées par le courant ligure. Connues en traditionnellement selon des cycles d’une douzaine d’années (dont 9 à 10 ans de répit entre deux phases d’explosion). Toutefois, le réchauffement climatique semble avoir accéléré leur cycle en permettant leur reproduction même en période hivernale, ce qui permet aux adultes d’être bien présents pour la saison estivale.

Méduse pélagique en Italie

Leur nombre a été multiplié par 4 en Méditerranée depuis les années 2000 et on les observe désormais chaque année sur nos côtes depuis 1999. Il arrive même que leur aire de répartition s’étende très au nord, comme en novembre 2007, lorsque leur prolifération a fait des ravages dans les élevages de saumon en Irlande du Nord…

La presse se fait régulièrement l’écho de ces arrivées massives de méduses pélagiques, les « piqueurs mauves » dont la rencontre inopportune provoque de sérieuses brûlures chez les baigneurs qui, s’ils paniquent sous l’effet de la vive douleur qui en résulte, peuvent même se noyer. Près de 70.000 brûlures de méduses ont ainsi été recensées aux Baléares durant l’été 2006 et, en 2008, près de 300 baigneurs ont dû être soignés pour les mêmes raisons rien qu’à Antibes en seulement six semaines.

Echouage de méduses pélagiques sur une plage de La Ciotat en 2014 (photo © France 3)

France 3 déplorait ainsi en juillet 2014 l’arrivée massive de ces méduses sur le littoral méditerranéen de Martigues jusqu’à Menton, mentionnant même que la baignade avait dû être interdite sur les plages de La Ciotat le 16 juillet. En juillet 2016, c’était le Midi Libre qui constatait que les plages et même les canaux autour de Sète étaient complètement envahis par leur prolifération, tandis qu’en avril 2018 FranceTVinfo se faisait l’écho d’un échouage massif de vélelles, petites méduses violettes totalement inoffensives mais qui font désordre sur les plages et rebutent les touristes…

Un échouage de vélelles sur une plage près d’Ajaccio en Corse (photo © Pierre-Antoine Fournil / Corse-Matin)

De nombreuses plages tout autour de la Méditerranée s’équipent désormais de filets de protection pour empêcher que les méduses en goguette ne viennent se frotter aux baigneurs. Un réseau d’observation et de suivi a aussi été mis en place le long des côtes françaises de Méditerranée, dans le cadre du projet de recherche JELLYWATCH, initié en 2009 par l’Observatoire océanologique de Villefranche-sur-mer et co-financé par la Région PACA.

Avec l’aide du bureau d’études ACRI-ST, un portail d’observation a été élaboré, accessible sur internet et via une application pour smartphones, permettant à chacun de signaler ses observations de méduses et donc de savoir, jour par jour, où elles sont présentes. Un outil pratique et collaboratif, qui mérite d’être largement partagé pour limiter les risques de se trouver nez-à-nez avec une méduse pélagique et d’en garder un souvenir pour le moins cuisant…

L.V.

Climat : ça chauffe de plus en plus !

3 août 2018

En matière climatique, et contrairement à l’adage bien connu, les années se suivent et se ressemblent de plus en plus…

En janvier 2015, un article du site Futura Science indiquait que selon les données publiées par le NOAA (National Oceanic and Atmospheric Administration) et par le GISS (Goddard Institut for Space Studies), un organisme scientifique rattaché à la NASA, l’année 2014 avait été la plus chaude jamais observée depuis que les mesures de température ont été généralisées dans le monde, à partir des années 1880. A cette date, les deux autres années considérées comme les plus chaudes jusque-là étaient 2005 et 2010, suivies de près par l’année 2013.

Les anomalies de température dans le monde depuis 1890 : écarts entre les températures moyennes observées (sur terre et sur mer) par rapport aux moyennes calculées sur l’ensemble du XXe siècle (infographie © Simon Malfatto / AFP)

Un an plus tard, le 22 janvier 2016, Science et Avenir, parmi d’autres, publiait un article indiquant que selon les analyses de ces mêmes organismes, issues du traitement (selon des algorithmes différents mais qui aboutissent à des conclusions convergentes) de plus de 6300 points de suivi de température répartis à la surface du globe, sur terre comme en mer, l’année 2015 avait été la plus chaude jamais observée sur Terre… La température moyenne du globe, cette année-là, a été en moyenne supérieure de 0,9 °C par rapport à la moyenne enregistrée au cours de l’ensemble du XXe siècle, et d’environ 0,23 °C par rapport à l’année précédente qui détenait jusque-là le record.

Il faut dire que cette année 2015 s’était caractérisée par un phénomène climatique El Niño particulièrement marqué, avec en particulier des températures anormalement élevées enregistrées durant le mois de décembre. Ce mécanisme de courant côtier chaud observé périodiquement (tous les 3 à 5 ans en moyenne) et qui se manifeste par une inversion des alizés sous l’effet du réchauffement des eaux du Pacifique le long des côtes américaines, explique en partie les températures moyennes très inhabituelles observées cette année-là.

Une planète en cours de réchauffement accéléré… (source © Shutterstock / Barnaby Chambers)

Sauf que le 18 janvier 2016, les lecteurs du Monde apprenaient que « Sans surprise, 2016 a été l’année la plus chaude sur la planète depuis le début des relevés de températures en 1880, marquant le troisième record annuel consécutif de chaleur, a annoncé mercredi 18 janvier l’Agence américaine océanique et atmosphérique (NOAA) ». Autrement dit, pour la troisième année consécutive, les records de chaleur en moyenne sur l’ensemble du globe étaient battus. Par rapport aux valeurs moyennes du XXe siècle, les températures étaient pour 2016 supérieures de 0,94 °C par rapport aux normales, soit encore davantage qu’en 2015 où l’écart avait été évalué à 0,9 °C. A la surface des océans, la différence est un peu moindre, de l’ordre de 0,75 °C, mais sur les continents, l’écart moyen atteint 1,43 °C, ce qui est considérable.

Certes, localement, l’année 2016 a été marquée par des températures très basses, notamment au large de l’Antarctique, mais cela a été largement compensé, à l’échelle planétaire, par de nombreux records de chaleur enregistrés en particulier dans l’est de la Russie, à l’extrême ouest du Canada, dans l’est des États-Unis, ainsi qu’en Amérique centrale, au nord de l’Amérique du Sud, en Afrique de l’Ouest ou encore en Australie. L’Alaska a ainsi connu en 2016 son année la plus chaude depuis le début des relevés dans cet État en 1925.

Températures moyennes enregistrées en 2016 dans 190 pays du globe (source : Futura Sciences)

Bien entendu, les météorologues ont expliqué que cette nouvelle année de tous les records s’expliquait en grande partie par la récurrence du courant équatorial chaud du Pacifique El Niño, qui avait largement persisté jusqu’au printemps 2016, annonçant que « l’année 2017 sera probablement moins chaude ».

Et voilà que, dès le 7 novembre 2017, le site Futura Science annonce que « 2017 s’annonce comme l’année la plus chaude jamais enregistrée en l’absence d’El Niño. Elle talonne ainsi 2016 qui, elle, fut empreinte du phénomène météorologique et conserve le record historique. Les trois dernières années ont été les plus chaudes enregistrées, confirmant une tendance de fond au réchauffement climatique global ».

Une affirmation qui a été effectivement confirmée depuis comme le détaille un article publié dans le Monde le 1er août dernier, sur la base du Rapport sur l’état du climat en 2017, publié ce même jour par la NOAA, une synthèse établie en collaboration avec l’American Meteorological Society, par compilation de plusieurs dizaines de milliers de mesures recueillies et analysées par plus de 500 scientifiques issus de 65 pays à travers la planète.

Ce nouveau record établi en l’absence de manifestation du phénomène climatique d’El Niño confirme sans conteste la tendance de fond au réchauffement climatique global, en lien avec l’activité humaine, d’autant qu’il s’accompagne d’un nouveau pic de concentration, dans l’atmosphère, de gaz à effets de serre (dioxyde de carbone, méthane, protoxyde d’azote…). La teneur moyenne en CO2 a ainsi atteint un nouveau record mondial avec 405 ppm (parties par million), soit 2,2 ppm de plus qu’en 2016 et une valeur jamais atteinte depuis au moins 800 000 ans au vu de l’étude de la composition des gaz atmosphériques conservés dans les carottes glaciaires…

Au cours de cette année 2017, plusieurs pays, comme l’Argentine, la Bulgarie, l’Espagne ou l’Uruguay ont ainsi enregistré des records absolus de températures annuelles moyennes. Des pointes de 43,4 °C ont été relevées en janvier, en Argentine, et de 53,5 °C en août, dans l’ouest du Pakistan. Les températures moyennes à la surface des océans sont certes restées légèrement en dessous de celles de 2016, mais la partie supérieure des océans qui absorbe l’essentiel de l’augmentation de température liée à l’accumulation de gaz à effets de serre poursuit son réchauffement global, ce qui se traduit notamment dans les océans Atlantique, Indien et Pacifique, par des mortalités sans précédent de certaines formations coralliennes. Quant au niveau moyen des mers, il a atteint lui aussi un nouveau record, en se situant 7,7 cm plus haut qu’en 1993, début des mesures altimétriques par satellites, ce qui correspond à une élévation de 31 cm par siècle.

Coraux morts du fait du réchauffement climatique dans la Grande barrière de corail (photo © archives AFP)

Avec une température terrestre très supérieure à la moyenne dans les régions les plus australes, l’étendue maximale de la glace en mer arctique, début mars, a été la plus faible constatée depuis le début des observations satellitaires en 1980, et son extension minimale, en septembre, était inférieure de 25 % à la moyenne de la période de référence.

Quant aux événements climatiques extrêmes survenus en 2017, ils se sont caractérisés comme on pouvait s’y attendre par de violents cyclones et des épisodes torrentiels dévastateurs en Inde, durant la saison des moussons, au Venezuela et au Nigeria, en août et septembre, tandis que les sécheresses sévères n’ont épargné aucun continent, à l’exception de l’Amérique du Nord, provoquant notamment des incendies très destructeurs en Colombie britannique, en Espagne ou au Portugal, et même au Groenland

Et tout indique que l’année 2018, avec la période caniculaire que l’on vit actuellement, pourrait tenir un rang honorable dans ce cortège d’années records : décidément, ça chauffe de plus en plus !

L.V. 

Système d’alerte SAIP : l’État jette l’éponge

1 juin 2018

Alerter les populations en cas de péril grave et imminent, voilà qui relève pleinement du rôle régalien de l’État. Après les cornes de brume, la sonnerie du tocsin puis les sirènes installées sur le toit de l’école ou de la mairie, il est apparu nécessaire de moderniser et de rendre plus efficace les dispositifs d’alerte, pour faire face à des menaces qui ne se limitent plus à l’état de guerre et aux éventuelles attaques aériennes mais qui englobent aussi les risques d’attentat, de catastrophe naturelle ou d’accident technologique.

C’est ainsi qu’a été initié en 2009 le dispositif SAIP, un acronyme comme le Ministère de l’Intérieur les adore, et qui signifie « système d’alerte et d’information des populations ». Ce système est en fait destiné à remplacer le « Réseau national d’alerte », mis en place après la dernière guerre et qui s’appuyait sur un réseau de 4500 sirènes, testées tous les mercredis, mais qui n’avaient quasiment jamais été actionnées pour déclencher l’alerte en 50 ans d’existence et dont la maintenance devenait de plus en plus problématique du fait de l’obsolescence du dispositif.

Le nouveau SAIP continue néanmoins à s’appuyer sur ce réseau de sirènes qui a été complété et surtout modernisé à grands frais. Il vise à permettre aux acteurs de la gestion de crise de lancer l’alerte dans une zone géographique donnée en une unique opération sur différents vecteurs simultanément : sirènes, téléphones mobiles, mais aussi via Radio France, France Télévision et même sur les panneaux à message variable des gestionnaires d’infrastructures et des collectivités territoriales.

Remplacement des sirènes d’alerte sur le toit de la mairie de Fréjus (source © Ville de Fréjus)

Testé dans 3 départements en 2009, le dispositif a été étendu à la France entière et prévoyait le lancement de SMS d’alerte via les opérateurs de téléphonie mobile. Contrairement aux sirènes qui ne font qu’alerter, la diffusion de messages d’alerte sur les téléphones mobiles permet en effet de diffuser des messages plus complets et plus ciblés qui informent chacun quant au meilleur comportement à adopter en fonction de la nature effective du danger.

Dans ce domaine, il existe différentes technologies comme l’explique un rapport sénatorial très pédagogique (et plutôt critique) déposé en 2017 par le sénateur LR de la Sarthe, Jean-Pierre Vogel. La plus adaptée, utilisée notamment aux Pays-Bas depuis 2012, mais aussi au Japon depuis 2007 et aux États-Unis, dite de diffusion cellulaire (cell broadcast) permet d’envoyer, via le réseau de téléphonie mobile un même message à tous les utilisateurs présents dans une zone géographique donnée (correspondant à une ou plusieurs cellules du réseau). Ce système est particulièrement adapté car il ne crée pas de surcharge sur le réseau, les messages étant transmis par des canaux de contrôle spécifiques, et ne nécessite pas de connaître les numéros de téléphone des destinataires, mais il ne permet pas de savoir qui a effectivement reçu le message.

Une autre possibilité consiste à diffuser des SMS ciblés aux seuls usagers présents dans le secteur géographique concerné, en s’appuyant sur la géolocalisation de leur téléphone, un dispositif qui peut néanmoins conduire à saturer rapidement le réseau et qui ne permet pas de distinguer les SMS d’alerte de tous les autres. Ces deux pistes ont été explorées en 2011 mais abandonnées par le Ministère de l’Intérieur du fait de la mauvaise volonté des opérateurs de téléphonie mobile et des coûts envisagés.

C’est la raison pour laquelle l’État a choisi plutôt une troisième voie qui consiste à développer une application spécifique pour smartphones, permettant d’envoyer des messages d’alerte aux usagers. Ce choix était acté depuis 2011, mais il a fallu attendre fin 2015, au lendemain des attentats du 13 novembre, pour que le Ministère se décide à rédiger le cahier des charges et lancer la consultation, dans l’urgence puisque l’objectif était que le dispositif soit opérationnel pour l’Euro de football prévu en France depuis 2010 et qui devait débuter en juin 2016 !

Ecran d’alerte de l’application défunte SAIP

Le marché a été notifié le 27 mai 2016 à la société Deveryware, spécialisée dans les services s’appuyant sur la géolocalisation en temps réel et qui a dû développer en catastrophe un dispositif particulièrement sophistiqué puisqu’il s’agissait d’identifier tous les abonnés effectivement présents dans une zone géographique donnée à un instant t, sans toutefois que la liste de ces destinataires ne soit répertoriée sur un serveur central, ceci pour se conformer aux exigences de respect de la vie privée de chacun.

Le camion qui a provoqué la mort de 84 personnes à Nice le 14 juillet 2016 (photo © Eric Gaillard / Reuters)

Cette précipitation dans l’élaboration du dispositif explique en partie sa faiblesse puisque le système a été actionné dès le 14 juillet 2016, à l’occasion de l’attentat sur la Promenade des Anglais à Nice. Et pour ce premier test en vraie grandeur, le dispositif ne s’est guère montré performant puisqu’il a fallu 3 heures pour que l’alerte soit effectivement transmise aux personnes présentes sur place, alors que tout danger était écarté depuis bien longtemps, et plus d’un mois pour que les personnes présentes à Nice reçoivent le message de fin d’alerte…

Depuis, le système a gagné en efficacité mais il reste dépendant des services préfectoraux en charge de déclencher l’alerte, ce qui explique que l’application est restée étrangement muette à l’occasion de la prise d’otage au Super U de Trèbes en mars 2018 ou lorsqu’un militaire a été attaqué au Louvre l’été dernier, tandis qu’il ne manquait pas en revanche de relayer en 2016 un supposé attentat dans une église parisienne alors qu’il s’agissait d’un simple canular.

Deux ans après la mise en service de cette application, le Ministère de l’Intérieur vient d’annoncer que le contrat le liant à la société Deveyware ne sera pas reconduit et que le dispositif était purement et simplement abandonné. Les services de l’État reconnaissent, comme le relaie Le Monde, avoir fait fausse route avec cette application qui exigeait d’être téléchargée au préalable, ce qu’ont fait seulement 900 000 personnes (alors que plus de 30 millions de Français sont inscrits sur Facebook…), et qui, pour être fonctionnelle, nécessitait d’être ouverte en permanence, ce qui peut être rédhibitoire selon les forfaits et selon l’état des batteries de téléphone !

Humour noir signé Delucq : « Pas de bras, pas d’appli »

Un échec cuisant donc et qui nécessite de revoir complètement la stratégie d’alerte des populations. Pour cela, le Ministère prévoit désormais de faire allégeance à Google, Facebook et Twitter qui ont donc définitivement gagné la bataille… Google promet ainsi de mettre en avant les messages du Ministère de l’Intérieur pour les internautes recherchant des informations sur un attentat ou une catastrophe, tandis que Facebook et Twitter relaieront ces mêmes messages en cas d’alerte, au même titre que la RATP, Vinci Autoroutes ou encore Radio France.

Une preuve de plus que les multinationales de l’internet sont incontournables, même pour une mission aussi fondamentale par laquelle l’État cherche à informer sa population d’un danger imminent : dure leçon pour un État régalien aux abois !

L.V.

La Russie joue les apprentis sorciers…

30 mai 2018

Le climat de la planète se réchauffe chaque jour davantage, mais c’est le cadet des soucis de la plupart des responsables politiques. Ceci est vrai aux États-Unis où Donald Trump relance à tout va l’exploitation des gaz de schiste et du charbon, tout en renonçant officiellement aux engagements pourtant minimalistes pris lors de la COP 21, mais aussi dans bien d’autres pays guère plus vertueux.

Plate-forme pétrolière au large de l’île de Sakhaline, exploitée dans le cadre d’une coopération russo-japonaise (photo © NGC Videsh LTD. / Bloomberg)

C’est le cas notamment de la Russie pourtant située dans un des secteurs les plus directement menacés par le changement climatique global, avec notamment des risques de fonte massive du permafrost aux conséquences potentiellement dévastatrices. Mais les Russes n’ont pas froid aux yeux et sont prêts à tout pour augmenter encore leur production d’hydrocarbures qui représente plus de 25 % du PIB national et couvrait en 2014 plus de la moitié du budget de l’État.

Les réserves de gaz et de pétrole situées majoritairement en Oural et dans le sud de la Sibérie étant en voie d’épuisement, c’est désormais vers le nord que se tournent les Russes qui profitent justement du réchauffement climatique global pour développer l’exploitation au nord de la Sibérie, dans les eaux arctiques, un secteur jusque-là relativement préservé du fait de la rigueur des conditions climatiques mais qui attire de plus en plus les convoitises du fait de la fonte rapide de la banquise.

Les Russes ne sont d’ailleurs pas les seuls sur le coup. Donald Trump a ainsi annoncé en début d’année, le 4 janvier 2018, l’ouverture de l’ensemble des eaux littorales américaines à l’exploitation d’hydrocarbures, en particulier au large de l’Alaska, une zone que Barak Obama avait pourtant tenté de sanctuariser. Les Norvégiens s’activent également et viennent coup sur coup de régler un vieux conflit frontalier avec la Russie pour le partage des ressources en mer de Barents, tout en se débarrassant devant les tribunaux d’une série de recours déposés par un groupe d’ONG mené par Greenpeace. Le géant pétrolier norvégien Statoil lance ainsi un projet de 5 milliards d’euros pour l’exploitation de ce nouveau champ pétrolier en mer de Barents.

Nettoyage des côtes de l’Alaska suite au naufrage de l’Exxon Valdez en 1989 (photo © Natalie Fobes / Corbis)

Même Total, pourtant réticent à se lancer dans l’exploitation pétrolière dans ces zones écologiquement très vulnérables, où le naufrage de l’Exxon Valdez en 1989, au large de l’Alaska, a laissé des traces indélébiles sur l’écosystème, n’a pas hésité à investir 20 % du projet russe gigantesque de 23 milliards d’euros, lancé en 2017 sur la presqu’île de Yamal pour l’exploitation de gaz, transporté par méthaniers brise-glace. Le projet est titanesque et a nécessité de mobiliser des dizaines de milliers d’ouvriers pour construire un port, un aéroport, une usine et des réservoirs, malgré un froid extrême. A partir de 2019, il devrait livrer 16,5 millions de tonnes de méthane par an et devrait être prolongé à partir de 2022 par un second site d’exploitation du nom d’Arctique 2.

Usine en construction sur le site de la péninsule de Yamal en Sibérie (photo © Novatek)

La fonte des glaces dans l’océan arctique rend en effet de plus en plus accessible cette route maritime du nord-est par laquelle la Russie peut désormais exporter une partie croissante de sa production directement vers la Chine et l’Asie du sud-est, n’hésitant pas à rouvrir d’anciennes bases militaires désaffectées pour sécuriser ce trafic maritime croissant tandis que la Chine voit d’un très bon œil le développement de cette nouvelle voie plus courte vers ses clients et fournisseurs : une des nouvelles routes de la soie passe désormais par le pôle nord…

Capture d’écran d’une vidéo diffusée par Greenpeace alertant sur la fonte record de la banquise en Arctique (source © Goddard Space Flight Center/NASA)

Mais l’Extrême-Orient russe est aussi une zone de forte convoitise pour l’exploitation d’hydrocarbures et, là encore, les Russes ne reculent devant rien pour aller y développer leurs forages pétroliers. On a vu ainsi tout récemment, le 19 mai 2018, s’amarrer dans le port de Moumansk, une gigantesque barge flottante de 144 m de long et 30 m de large, de couleur marron et moutarde, l’Akademik Lomonossov, remorquée depuis le port de Saint-Petersbourg où elle avait été construite.

La centrale nucléaire flottante amarrée dans le port de Mourmansk (photo © Alexander Nemenov / AFP)

Cet immense bloc flottant qui pèse pas moins de 21 000 tonnes, n’est en fait rien d’autre qu’une centrale nucléaire destinée à être guidée en 2019 jusque dans le port de Pevek, dans le district autonome de Tchoukotka, à 350 km au nord du cercle arctique, justement pour approvisionner en énergie, non seulement la petite ville elle-même et ses 5000 habitants, mais surtout les nombreuses plates-formes pétrolières installées au large.

Les pays riverains s’étaient opposés à ce que la centrale flottante soit chargée en combustible radioactif sur son lieu de construction mais le chargement est bel et bien prévu à Mourmansk, et c’est donc bien une centrale nucléaire flottante en activité qui va ainsi être remorquée sur des milliers de kilomètres dans un écosystème particulièrement fragile et dans des conditions de navigation difficiles.

Route maritime entre Mourmansk (à l’ouest) et Pevek (à l’est) au nord de la Sibérie (source © William Dunlap / Université de Durham)

Le conglomérat public nucléaire russe Rosatom, qui a construit cette centrale comportant deux réacteurs nucléaires de 35 MW chacun, se vante d’avoir réalisé une première mondiale et considère que cette technologie des centrales nucléaires mobiles, à laquelle s’intéressent également les Chinois, est appelée à se développer. A écouter la propagande officielle de Rosatom, « cette installation dispose des systèmes de sécurité les plus modernes et devrait être l’une des installations nucléaires les plus sûres au monde ». Elle devrait même permettre d’économiser près de 50 000 tonnes de CO2 chaque année, en évitant d’avoir recours aux hydrocarbures voire au charbon pour assurer cette alimentation en énergie.

Une véritable prouesse technologie donc, qui laisse en effet sans voix, à l’exception de quelques militants associatifs de Greenpeace, toujours soupçonneux, qui voient dans cette centrale nucléaire hors-normes – allez savoir pourquoi ? – un « Titanic nucléaire » voire un « Tchernobyl sur glace ». Certains ont vraiment l’esprit mal tourné…

L.V. 

Sous les ponts d’Ispahan coule…plus rien !

11 avril 2018

Vue de la ville d’Ispahan et de la rivière Zayandeh

La ville d’Ispahan, troisième d’Iran par sa population, avec plus de 2 millions d’habitants, fait partie de ces grandes métropoles urbaines qui se sont développées autour d’un cours d’eau, en l’occurrence le Zayandeh Rud, « le fleuve qui donne la vie » en persan. Prenant sa source dans les Monts Zagros, ce cours d’eau, l’un des rares permanents du pays, parcourt plus de 400 km avant de se jeter dans le lac Gavkhuni, un grand lac salé saisonnier perdu dans le désert.

Le madi Farshadi, canal d’irrigation destiné à répartir l’eau du Zayandeh

Située à plus de 1500 m d’altitude sur le plateau iranien aride, la ville est une oasis où la vie n’est possible que grâce au fleuve et aux multiples canaux d’irrigation, les madis, aménagés dès le 17e siècle qui distribuent l’eau à travers toute la ville et ses environs, y compris dans chaque maison organisée traditionnellement autour d’un patio intérieur cultivé et arboré. Avec une pluviométrie moyenne de 130 mm par an alors que l’évapotranspiration potentielle y atteint 1500 mm, aucune culture n’est en effet possible dans un tel contexte climatique sans irrigation.

C’est donc la rivière Zayandeh qui a permis à cette ville de se développer, au moins depuis le 4e siècle de notre ère puisque elle était un des centres urbains de l’empire sassanide avant la conquête musulmane, et de prospérer. C’est Malik Chah, un sultan seldjoukide qui en fait sa capitale après son accession au pouvoir en 1072.

La place meydān-e Naghsh-e Jahān au coeur de la ville d’Ispahan

Mise à sac par les troupes de Tamerlan en 1387, la ville redevient capitale à partir de 1597, à l’instigation de Chah Abbas, fondateur de la dynastie des Safavides, lequel transforme en profondeur la cité, aménageant notamment une grande place de 510 m de longueur, meydān-e Naghsh-e Jahān, une des plus grandes du monde, d’ailleurs classée au patrimoine mondial de l’humanité par l’UNESCO depuis 1979.

C’est de cette époque que date également la construction des grands ponts d’Ispahan, qui sont aujourd’hui au nombre de 11, permettant de franchir la rivière Zayandeh. Le plus ancien d’entre eux est probablement le pont Sharestan, dont les piles datent précisément de cette période sassanide entre le 3e et le 7e siècle après J.-C., mais dont les arches actuelles ont été reconstruites sous la dynastie des Seldjoukides aux alentours du 11e siècle.

Au pied du Si-o-Se Pol, l’un des plus célèbres ponts d’Ispahan, en 2002 (photo © Behrouz Mehri / AFP)

Le Si-o-Seh Pol, ou pont aux trente-trois arches, porte aussi le nom de son commanditaire Allahverdi Khan, un ministre de Chah Abbas, d’origine géorgienne, qui le fit construire vers 1608. Cet ouvrage sert non seulement pour le franchissement du cours d’eau mais a aussi une fonction de seuil, permettant de rehausser le niveau de l’eau à l’amont, pour permettre d’alimenter des prises d’eau qui irriguent les jardins de part et d’autre.

Le pont Khadju à Ispahan (photo © Kelly Cheng Travel Photography /Getty Images)

Comme le précédent, le pont Khadju, édifié cinquante ans plus tard sur les fondations d’un ouvrage préexistant, remplit également ce double office de pont et de barrage et sa structure est comparable, avec deux niveaux superposés, le second étant destiné à la promenade avec une allée centrale pour le passage des chevaux et des charrettes, et des allées latérales voûtées pour les piétons, mais aussi des cafés et des loggias permettant d’admirer le paysage. Pourvu de 23 arches, il présente une longueur totale de 133 m, pour une largeur de 12 m, ce qui en fait un ouvrage d’art remarquable pour cette période.

Ces ponts d’Ispahan, très prisés comme lieux de promenade, constituent un attrait touristique majeur. Sauf que la belle carte postale de l’eau coulant majestueusement entre les arches, formant au passage de joyeuses cascades, relève désormais du passé. Périodiquement asséchée au plus fort de l’été, la rivière Zayandeh a en effet purement et simplement disparu du paysage, ne laissant aux yeux du visiteur ébahi qu’un paysage aride de sable et de gravier ! A se demander même pourquoi l’empire perse a dépensé une telle énergie pour édifier de pareils ouvrages d’art alors que le lit de la rivière se traverse désormais à pied sec quasiment toute l’année…

Le pont Khadju dans son état actuel (source © Le site de Madeleine et Pascal)

La disparition du cours d’eau qui alimente depuis toujours la ville d’Ispahan date du début des années 2000. A l’époque, chacun accusait la sécheresse qui bien sûr n’est pas totalement étrangère au phénomène. Mais la vérité est que l’essentiel de l’eau du Zayandeh Rud est, depuis cette date, détournée en amont vers la région de Yadz qui se trouve être la ville natale de l’ancien président Mohammad Khatami.

Musée antique de l’eau à Yadz

Une ville oasis également, sans doute une des plus anciennes cités du monde puisque fondée aux alentours du troisième millénaire avant J.-C., située dans l’ancien empire des Mèdes, un des foyers de la religion zoroastrienne, puis une étape caravanière sur la Route de la Soie. Le canal qui détourne l’eau du Zarendeh vers cette zone désertique alimente d’ailleurs aussi la ville de Kerman, région natale d’un autre président, Hachemi Rafsandjani, lequel possède des champs de pistache qui en font un des premiers exportateurs du pays et pour lesquels les besoins d’irrigation sont prioritaires.

Cette disparition du fleuve détourné au profit d’autres régions alimente la colère des habitants d’Ispahan et surtout des agriculteurs de la région qui se désespèrent de voir leurs récoltes se dessécher sur pied. Plusieurs émeutes ont ainsi éclaté, les dernières datant de février 2013 selon Le Monde : les habitants du village de Varzaneh ont alors détruit les installations d’eau dans leur village, amenant les prêcheurs publics de la ville à les traiter d’« opportunistes égarés » et à les accuser de « collaboration avec l’ennemi ». La police n’a pas hésité à tirer, blessant trois manifestants avec des balles en caoutchouc, mais les habitants ont du moins obtenu, suite à ces incidents, la reconnaissance, par le procureur du tribunal révolutionnaire d’Ispahan, de la mauvaise gestion de certains anciens responsables du ministère de l’énergie dans la répartition de l’eau.

Manifestation d’agriculteurs devant le pont Khadju au centre d’Ispahan, le 7 avril 2018 (source : France Mojahedin)

De nouvelles émeutes se sont encore produites tout récemment, depuis le 16 février 2018, selon un communiqué du Conseil national de la résistance iranienne, les habitants de plusieurs quartiers périphériques d’Ispahan défilant en scandant « Rohani le menteur, où est notre rivière ? ». Le 18 mars dernier, un camion transportant des munitions a d’ailleurs pris feu alors qu’il venait ravitailler les forces spéciales anti-émeutes de la police à Varzaneh, de nouveau engagées contre les manifestations d’agriculteurs en colère.

Encore un exemple qui prouve à quel point les batailles de l’eau deviennent un enjeu majeur, surtout dans des régions en forte croissance démographique et confrontées à un climat aride pour lequel les effets du réchauffement climatique global ne vont certainement pas arranger les choses…

L.V.  

A Bangalore, il y a le feu au lac !

6 avril 2018

La ville de Bangalore, créée au 16ème siècle sur les plateaux du Dekkan, au sud de l’Inde, a longtemps gardé sa réputation de cité-jardin, plutôt verdoyante, baignée par pas moins de 285 lacs qui lui ont toujours fourni de l’eau en abondance. Devenue en 1956 capitale du nouvel État de Karnataka, la ville ne comptait alors que 800 000 habitants. Mais à partir des années 1990, Bangalore est devenu le pôle indien des nouvelles technologies, la Silicon Valley locale, et sa population a littéralement explosé sous l’effet d’un boom démographique peu courant puisqu’elle est passée de 3 millions d’habitants en 1991 à 10 millions actuellement.

Centre d’affaire UB City à Bangalore, mégapole de 10 millions d’habitants

Bien évidemment, cet afflux de population s’est traduit par une urbanisation foudroyante. De nombreux lacs ont été comblés et les espaces naturels bétonnés pour laisser place aux immeubles de bureaux et d’habitation, si bien qu’on ne compte plus que 192 plans d’eau désormais, mais qui sont devenus de véritables cloaques, réceptacles des eaux usées insuffisamment traitées et des déchets de toutes sortes.

A la surface du lac Bellandur, le plus grand de la ville, dont la surface est partiellement masquée par les plantes invasives qui s’y développent, et sur les canaux qui l’alimente, flotte régulièrement une espèce de mousse blanchâtre, issue d’un mélange entre les eaux usées qui se déversent directement dans le milieu naturel, et des produits toxiques provenant des usines chimiques proches de la ville. Lorsque le vent se lève, cette mousse se désagrège et vient retomber sur les habitants de Bangalore, comme une neige toxique qui irrite la peau et les bronches des plus fragiles.

Piétons sur un pont traversant le chenal d’entrée du Lac Bellandur recouvert de mousse en 2015 (photo © Manjunath Kiran/AFP/Getty Images)

Les autorités ont bien essayé de se prémunir de ce phénomène en posant des filets destinés à empêcher les envols de mousse, et en arrosant périodiquement la surface des eaux polluées pour disperser la mousse toxique, mais l’effet de ces mesures reste limité.

Le 19 janvier dernier, alors que la température ambiante dépassait allègrement les 30 °C, cette mousse a purement et simplement pris feu, dégageant une épaisse fumée blanche peu rassurante qui se répand au milieu des immeubles d’habitation tout proches. Les pompiers ont mis plusieurs heures pour éteindre cet incendie inhabituel se propageant à la surface du lac.

Incendie à la surface du lac Bellandur près de Bangalore, le 16 février 2017 (photo © Aaditya Sood / The Gardian)

Et cet incendie n’est que le quatrième en trois ans ! Un article très documenté publié dans The Guardian en mars 2017 rapporte en effet qu’un phénomène similaire s’était déjà produit le 16 février 2017, toujours sur le même lac Bellandur, les pompiers ayant alors mis plus de 12 heures pour en venir à bout. Ce même article rapporte qu’un autre incendie du même type avait aussi été observé en mai 2015.

D’après certains chercheurs qui observent depuis plus de 20 ans l’évolution des lacs Bellandur et Varthur, ce sont de l’ordre de 400 à 600 millions de litres d’eaux usées non traitées qui se déversent chaque jour dans ces lacs, entretenant un milieu particulièrement enrichi en matière organique. La surface des lacs étant recouverte par une épaisse couche de jacinthes d’eau qui empêche l’oxygénation des eaux, du méthane se développe dans les couches superficielles du lac, ce qui explique l’inflammabilité de ce dernier, le feu étant ensuite alimenté par la présence de pétrole et de phosphore flottant sur l’eau au milieu des nombreux déchets.

Poissons morts à la surface d’un lac de Bangalore en mars 2016 (source © L’Express)

De tels incendies à la surface de lacs lourdement pollués étaient d’ailleurs monnaie courante dans les années 1960 aux États-Unis, comme le rappelle Yann Quero sur son blog. Ce phénomène avait notamment été observé à plusieurs reprises à Cleveland (Ohio) dans la rivière Cuyahoga qui traverse la ville avant de se jeter dans le lac Érié. Dans ce cours d’eau, la concentration en produits chimiques a provoqué au moins une douzaine d’incendies et d’explosions, les plus graves ayant eu lieu en 1952 et en 1969.

A l’époque, cela avait amené les Américains à mettre en place, dans les années 1970, des normes plus sévères destinées à limiter la pollution des milieux aquatiques. Mais c’est aussi un des facteurs qui a poussé les Américains comme d’ailleurs les Européens à délocaliser leurs industries polluantes et dangereuses vers les pays du Sud, notamment en Inde et en Chine, qui ont connu à leur tour le spectacle pittoresque de la neige en été et des lacs qui prennent feu spontanément…

A Bangalore, cette pollution des eaux est d’autant plus inquiétante qu’elle concerne désormais non seulement les eaux superficielles où l’on ne compte plus les mortalités piscicoles, mais aussi les nappes souterraines dans lesquelles la ville s’approvisionne en eau potable. Science et Avenir relevait ainsi en mars dernier que près de la moitié de l’agglomération doit désormais être approvisionnée par des milliers de camions citernes qui transportent de l’eau pour les besoins quotidiens de la ville.

Camions citernes fournissant de l’eau à des logements de Bangalore, le 27 février 2018 (photo © Manjunath Kiran / AFP)

Il y a un mois, la Cour suprême a même dû intervenir pour arbitrer un accord de partage des eaux de la rivière Cauvery entre le Karnataka, région de Bangalore, et l’État voisin du Tamil Nadu. Ce cours d’eau qui traverse le Karnataka puis le Tamil Nadu avant de s’écouler dans le golfe du Bengale est en effet un enjeu majeur, âprement disputé entre les besoins de la ville de Bangalore et ceux des agriculteurs voisins. Il y a deux ans, une décision judiciaire ordonnant au Karnataka de lâcher de l’eau pour pallier une sécheresse qui menaçait les cultures du TamilNadu avait déclenché des émeutes mortelles à Bangalore et provoqué une situation de troubles quasi insurrectionnels.

C’est dire à quel point la bataille de l’eau a déjà commencé à cet endroit comme en de nombreux autres points du globe… La ville de Bangalore, dont la survie à moyen terme est désormais menacée du fait de ces difficultés d’approvisionnement en eau, n’est assurément pas la seule agglomération menacée ainsi de pénurie. Reste à savoir si ses habitants arriveront à réagir et à reconstituer des milieux aquatiques plus sains avant qu’il ne soit trop tard…

L.V. 

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

Changement climatique : pourquoi personne ne bouge ?

22 février 2018

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Inondations : on a trouvé les coupables !

3 février 2018

Une nouvelle fois, la France vient de connaître une vague d’inondations spectaculaires. A Paris, le niveau de la Seine est monté la semaine dernière à 5,85 m et aurait selon toute vraisemblance dépassé les 6,40 m sans l’action des quatre lacs-réservoirs situés en amont du Bassin parisien. A un tel niveau, certes très inférieur à celui observé en janvier 1910, mais qui n’avait pas été atteint depuis 1955, les dégâts sur les réseaux et infrastructures auraient pu être considérables, en particulier sur le réseau de transports et notamment le RER C qui commence à être sérieusement menacé au-delà de 6,20 m.

Les bords de Seine à Paris le 22 janvier 2018 (photo © Stéphane de Sakutin / AFP)

Et comme toujours dans ces cas-là, on cherche les coupables… Ainsi que lors de chaque épisode de ce type, les rumeurs les plus absurdes courent, alimentées par la certitude, aussi irrationnelle que récurrente, selon laquelle : « ils nous ont inondés pour protéger Paris » (ou tout autre ville d’ailleurs, selon l’endroit où l’on se place…). Il est toujours difficile d’admettre que l’on a été inondé parce qu’il a beaucoup plu et que l’on est situé en zone inondable, dans le lit majeur d’un cours d’eau…

Et ceci malgré tous les dispositifs de protection contre les inondations qui ont pu être mis en place et qui ont souvent joué un rôle atténuateur très bénéfique comme cela a été le cas en janvier 2018 avec les lacs-réservoirs qui ont dérivé et stocké en amont du bassin versant des centaines de millions de mètres cube d’eau, réduisant d’autant les débits en aval.

Alors, puisque l’on a vraiment besoin de trouver un bouc émissaire, ne cherchez-plus. L’explication à ces inondations, exceptionnelles par leur ampleur et leur durée, est parfaitement claire sur la photo suivante, prise le 31 janvier 2018 sur la commune de Montesson, dans les Yvelines, et garantie sans trucage : c’est simplement un étourdi qui a oublié de fermer le robinet…

A Montesson, le 31 janvier 2018 (photo © Frédéric Gache / EPTB Seine Grands Lacs)

Et pour les Parisiens qui ont une dent contre la politique menée depuis des années par la Ville de Paris en faveur de la réduction de la voiture en ville et de la réappropriation des voies sur berges par les piétons, voici une seconde explication, tout aussi recevable…

Dessin de Lacombe publié dans Marianne le 2 février 2018

Lorsque les forces de la nature dépassent l’entendement, il est toujours rassurant de se raccrocher à des explications simples et pleines de bon sens !

L.V.  

USA : le sapin de Noël détrôné par le cannabis

10 janvier 2018

Voilà une nouvelle qui a fait le buzz juste avant les fêtes de Noël mais dont on ne se lasse pas tant elle est emblématique des circuits de la mondialisation ! Cette année, les producteurs canadiens de sapins de Noël se frottent les mains, eux qui exportent plus de la moitié de leurs sapins vers les États-Unis voisins. Leurs ventes vers les USA ont en effet connu un bond en avant spectaculaire : + 40 % par rapport à 2015 ! Cette année, selon le Journal du Québec, ce sont près de 1,5 million de conifères qui ont ainsi été exportés vers les USA, soit un marché de plus de 35 millions de dollars. Pour le Canada, c’est Noël avant l’heure…

La raison de ce succès commercial inespéré ne réside pas dans un engouement inhabituel des Américains pour une tradition festive ancrée de longue date dans les mœurs locales, mais traduit simplement une pénurie de sapins dans les États américains traditionnellement producteurs. Comme souvent, plusieurs facteurs viennent expliquer cette pénurie.

Plantation de sapin dans l’Oregon (source RFI ; photo © UIG via Getty Images)

La sécheresse qui a sévi dans l’État de Washington mais aussi les incendies qui ont ravagé la Californie à plusieurs reprises cette année ont quelque peu contribué à cette situation. En octobre dernier, celui qui s’était déclaré dans la région de Santa Rosa, détruisant près de 6000 bâtiments et causant la mort de 42 personnes, avait en effet réduit en cendres pas moins de 864 km2 de zones résidentielles et de forêts, dont quelques pépinières.

Mais c’est un autre phénomène, de nature plus prosaïque, qui explique pour l’essentiel cette pénurie de sapins de Noël dans l’Ouest américain. En fait, les producteurs se sont tout simplement tournés vers une activité nettement plus lucrative, à savoir la culture du cannabis. Ainsi, dans l’Oregon, petit État de 4 millions d’habitants qui fut longtemps l’un des grands producteurs de sapins de Noël mais où la production de marijuana est en train de prendre de l’ampleur, la production de sapins ne cesse de chuter : de 6,4 millions de plants en 2013, elle devrait passer sous les 5 millions cette année. Le nombre de producteurs aurait, selon le département de l’agriculture de l’Oregon, diminué de 30 % entre 2010 et 2015.

Plantation de cannabis aux USA (crédit photo © The Lane Report)

Aux États-Unis, ce sont les États de Washington et du Colorado qui ont adopté les premiers, dès novembre 2012, une législation légalisant l’usage récréatif du cannabis. Depuis le 1er janvier 2014, un utilisateur de cannabis du Colorado est ainsi autorisé à cultiver librement pour ses propres besoins. Depuis le mois de juin de la même année, il en est de même dans l’État de Washington où des producteurs de marijuana sont désormais habilités à cultiver à titre commercial. L’Alaska leur a emboîté le pas à partir de novembre 2014. En Oregon, la consommation à usage récréatif est devenue licite en juillet 2015 mais il a fallu attendre début 2016 pour que soient autorisées les premières plantations.

Depuis, le mouvement s’est accéléré. A partir du 1er janvier 2018, la Californie est ainsi devenue le huitième État américain à légaliser le cannabis à usage récréatif alors que son utilisation à but thérapeutique y est déjà licite depuis 1996, comme désormais dans une vingtaine d’autres États américains. La décision y avait été prise par référendum, en novembre 2016 : en même temps que les Américains choisissaient en la personne de Donald Trump leur 45ème président fédéral, les habitants de la Californie, mais aussi leurs voisins du Nevada ainsi que ceux du Maine et du Massachusetts, sur la côte Est des États-Unis, décidaient de rendre légale la consommation de cannabis. La cohérence entre ces deux décisions prises simultanément confirme, s’il en était besoin, que dans une démocratie les avis peuvent être multiples…

Carte de la situation selon les États américains (infographie © Le Figaro)

Toujours est-il que les enjeux économiques d’une telle décision ne sont pas anodins et risquent d’avoir des répercussions au-delà du seul marché des sapins de Noël canadiens… Ainsi, dans le Colorado où la marijuana est en vente légale depuis 2014, on considère que le marché du cannabis a créé 18 000 emplois à temps plein en trois ans, ce qui n’est pas si mal pour un État peuplé de 5 millions d’habitants. L’afflux touristique s’est considérablement accru et surtout les rentrées fiscales ont été telles qu’il a fallu reverser aux contribuables le trop-perçu. En effet, la constitution du Colorado fixe un plafond aux contributions fiscales de chaque citoyen. L’État ayant décidé de taxer à hauteur de 30 % les ventes de cannabis s’est ainsi retrouvé à la tête d’un pactole inattendu de 50 millions de dollars supplémentaires, soit 30 de trop par rapport au plafond autorisé par la constitution, si bien que chaque habitant s’est vu crédité d’un chèque de 7,63 $…

Projection des ventes de cannabis à usage récréatif et thérapeutique d’ici 2021 (source © Arcview market research)

En 2016, selon une étude du Arcview market research, les Américains auraient ainsi dépensé de l’ordre de 6,7 milliards de dollars pour l’achat de cannabis légal, soit une augmentation de 34 % depuis 2015. Et le mouvement ne fait sans doute que commencer puisque les projections estiment que ce marché devrait atteindre de l’ordre de 22 milliards d’ici 2021, la plus forte croissance étant liée à l’usage récréatif du cannabis, dont le marché pourrait passer de 1,9 milliards en 2016 à près de 15 milliards d’ici 2021.

Le principal bénéficiaire de cette croissance juteuse en sera probablement la Californie qui devrait s’adjuger une part importante de ce marché en pleine expansion. Les producteurs de cannabis y seront taxés à hauteur de 15 % et les ventes à hauteur de 10 %, auxquels s’ajouteront des taxes communales variant entre 2 et 10 %, soit de belles rentrées fiscales supplémentaires en perspectives. De quoi peut-être donner des idées à notre gouvernement dans sa volonté de réduire le déficit de l’État sans forcément trop rogner sur les dépenses publiques ?

L.V.