Posts Tagged ‘changement climatique’

Nucléaire, quel avenir ?

16 octobre 2018

Les catastrophes naturelles de cette année 2018, dont certaines résultent en partie du dérèglement climatique consécutif à nos émissions de gaz à effet de serre nous incitent à réfléchir à nos modes de production d’énergie électrique.

Réacteur nucléaire et éoliennes sur le site de Cruas-Meysse en Ardèche (photo © Colin Matthieu / EDF)

En dehors de l’hydroélectricité, les énergies renouvelables sont pour la plupart intermittentes, ce qui nécessite de disposer d’une source complémentaire stable et suffisamment puissante. Au regard de ces constats, la création ou l’augmentation de cette source par l’intermédiaire de la combustion auto-génératrice de pollution doit être exclue.

Pour mémoire, on considère (même si ces chiffres sont probablement à moduler à la hausse si l’on raisonne en cycle de vie global) que l’éolien génère 20 g de CO2 par KWh produit, le nucléaire 35, le pétrole de 400 à 500 et le charbon ou le lignite 1200 ! La relance de l’industrie charbonnière aux USA, sous l‘impulsion de la présidence Trump et le recours encore important dans plusieurs pays européens, dont l’Allemagne ou la Pologne, à ce combustible fossile fortement émetteur de gaz à effet de serre ont donc des conséquences dramatiques pour l’accélération du réchauffement climatique…

Dans le Mix énergétique français, il est recouru principalement au nucléaire et, de manière très secondaire, à l’hydroélectricité et aux centrales thermiques (gaz principalement, fuel et charbon accessoirement), les autres énergies renouvelables ayant une contribution encore assez faible.

Centrale nucléaire de Bugey dans l’Ain (photo © EDF)

Pour toutes les centrales thermiques, qu’elles fonctionnent par combustion d’énergie fossile ou par fission nucléaire, la chaleur dégagée est utilisée pour obtenir de la vapeur d’eau qui, une fois pressurisée, assure la rotation de la turbine de chacun des turbo-alternateurs nécessaires. Ces ensembles génèrent de l’électricité caractérisée par une tension alternative sinusoïdale qui permet l’utilisation de transformateurs pour adapter facilement sa valeur aux besoins.

La production électrique d’origine nucléaire est réalisée dans des centrales qui sommairement comprennent :

  • 1 réacteur dans lequel la fission contrôlée se produit (une centrale comportant généralement plusieurs réacteurs)
  • 1 ensemble récupérateur de chaleur producteur de vapeur d’eau pressurisée
  • 1 ou plusieurs turbo-alternateurs
  • 1 système de refroidissement (qui suppose la présence d’eau en quantité à proximité immédiate)

Les principaux inconvénients de cette filière sont les suivants :

La matière première (l’uranium) utilisée pour la combustion est limitée et sa ressource connue devrait être épuisée dans environ 120 ans.

La mine d’uranium Ranger, en Australie, dans le Parc national de Kakadu, classé au Patrimoine mondial de l’UNESCO (photo © Gleen Campbell)

L’extraction de l’uranium n’est pas sans risque, y compris sur l’environnement, et se situe dans des pays éloignés des lieux d’implantation des centrales dont l’Afrique et peu stables politiquement.

La fission est une opération maîtrisée mais non sans risque qui fait l’objet de contrôles sérieux afin d’éviter les réactions en chaîne et les explosions.

Les déchets radioactifs ont une durée de vie qui peut atteindre 710 millions d’années !

Globalement, l’énergie nucléaire a mauvaise réputation depuis la réalisation de la bombe atomique. Elle fait peur et elle laisse des déchets radioactifs dangereux et difficiles à neutraliser.

Enfin, la production d’électricité d’origine nucléaire coûte cher. 1MWh nucléaire coûte en moyenne 50 € (et sans doute le double pour celui qui sera produit par l’EPR en construction à Flamanville) alors que la même énergie produite à partir du charbon revient à 10 € si ce dernier est extrait sur place.

En 2015, il existait à la surface de la Terre 432 réacteurs nucléaires (dont 58 en France) et plusieurs graves accidents ont déjà affecté ce parc, trois d’entre eux ayant eu un retentissement particulier.

Une équipe de nettoyage en train de décontaminer Three Mile Island (photo archives DR)

En 1979, à Three Mile Island, l’accident a commencé par la perte d’étanchéité de l’enceinte du circuit d’eau primaire, une vanne de décharge du pressuriseur étant restée bloquée en position ouverte. À la suite d’actions inadaptées, le refroidissement du cœur n’a plus été assuré, entraînant la fusion d’une partie du combustible. L’enceinte de confinement, qui constitue la troisième barrière de sécurité, a joué son rôle pour limiter les rejets radioactifs. Quand six ans plus tard, il a été possible de pénétrer dans l’enceinte, une caméra introduite dans la cuve a montré qu’une partie significative du combustible avait fondu mais qu’il n’avait pas traversé la cuve, le corium s’est stratifié en fond de cuve sans provoquer d’explosion (extrait du site Wikipedia, une analyse détaillée de l’accident étant accessible sur le site de l’IRSN).

En 1986, à Tchernobyl, un réacteur a explosé lors d’un test de contrôle destiné à vérifier l’efficacité des contrôles et de la sécurité du fait d’erreurs dans la conduite de ces tests. Du fait de l’absence d’enceinte de confinement, les conséquences de cette catastrophe ont été planétaires.

Le réacteur n°4 de la centrale de Tchernobyl quelques semaines après l’explosion (photo © Igor Kostine)

En 2011, à Fukushima, un tremblement de terre exceptionnel de magnitude 9 survient auquel la centrale résiste grâce au système de contrôle des quatre réacteurs. Le courant électrique alimentant la centrale est coupé et c’est alors que survient une vague de 15 m de hauteur provoquée par un tsunami. Les barrières de protection de la centrale ne mesurent que 6,50 m pour la première et 10 m pour la seconde. Les groupes électrogènes de secours de la centrale situés en sous-sol sont noyés et hors service. Le refroidissement du cœur du réacteur est interrompu. Les câbles électriques des groupes électrogènes dépêchés sur place sont trop courts ! Toutes sortes de moyens sont utilisés dont l’arrosage des réacteurs pour refroidir ces derniers. Ils s’avèrent inefficaces et des explosions dues à l’hydrogène se produisent engendrant des radiations dans un rayon de 50 km autour de la centrale.

On constate que ces trois accidents résultent d’imprévoyances et/ou d’actions inadaptées.

La fusion nucléaire, si on arrive à la réaliser industriellement, pourrait constituer une alternative à la fission qui est actuellement en forte perte de vitesse dans le monde (en dehors de la France et de certains pays comme la Chine qui vient de mettre en service un réacteur EPR). Elle développe cinq fois plus d’énergie que la fission, ne développe pas de réaction en chaîne car dès qu’on l’arrête, le plasma refroidit. Enfin, les déchets sont moindres. De plus, le Tritium, matière utilisée parmi d’autres, a une durée de vie de radiation limitée à 125 ans. Le rêve pour ceux qui suivent.

En conclusion, la combustion, on en connaît bien tous les effets nuisibles mais on a souvent tendance à oublier les êtres humains qui meurent à cause de la pollution qu’elle dégage (CO2 et microparticules). La fission nucléaire, malgré les risques qui lui sont inhérents, les déchets de très longue durée qu’elle génère et les coûts élevés d’exploitation (surtout si l’on intègre le démantèlement des réacteurs en fin de vie), a donc probablement encore de beaux jours devant elle, en attendant de trouver mieux pour la remplacer totalement…

Michel Bouvier

Publicités

Justice : les Pays-Bas condamnés pour inaction climatique

12 octobre 2018

Marjan Minnesma, présidente de l’association Urgenda (photo © Urgenda/Chantal Bekker)

Devant l’inaction des gouvernements face au changement climatique, tous les moyens sont bons pour essayer de faire bouger les choses, y compris les procédures judiciaires. C’est ce qu’a considéré Marjan Minnesma une militante écologiste de longue date, ancienne de Greenpeace et qui a créé sa propre association dénommée Urgenda. Inspirée en 2011 par la lecture du livre Revolution Justified, publié par l’avocat néerlandais Roger Cox, elle est à l’initiative d’un recours en justice déposé en 2012 par un groupe de 886 citoyens hollandais.

Ce groupe de militants, enseignants, artistes, entrepreneurs et personnalités locales n’a pas hésité à dépenser 200 000 € dans cette action en justice contre l’État néerlandais accusé de n’avoir pas pris les mesures adaptées pour lutter avec efficacité afin de limiter les émissions de gaz à effet de serre, exposant sa population aux conséquences dramatiques d’une augmentation désormais inéluctable du niveau de la mer, alors que 15 % de la superficie des Pays-Bas est situé sous le niveau de la mer et la majeure partie du pays est directement menacée par le risque d’inondation littorale ou fluviale.

Vue aérienne de maisons près d’Amsterdam le 24 avril 2018 (photo © Reuters / La Tribune)

Le 24 juin 2015, à la grande joie de cette poignée de militants déterminés, le tribunal de La Haye avait de fait estimé que les efforts engagés par le gouvernement néerlandais n’étaient pas à la hauteur des besoins pourtant clairement identifiés par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) pour contenir le réchauffement planétaire. Le jugement rendu alors estimait que « sur la base de la politique actuelle de l’Etat, les Pays-Bas auront réduit au mieux leurs émissions de 17 % en 2020 » par rapport à 1990, alors que cette réduction devrait être de 25 % au minimum pour espérer contenir le réchauffement climatique à un niveau acceptable.

Les membres de l’ONG Urgenda célèbrent avec leurs avocats la décision du tribunal en leur faveur, le 24 juin 2015 à La Haye (photo © Chantal Bekker / Le Monde)

Le gouvernement néerlandais avait immédiatement fait appel de ce jugement, mais le 9 octobre 2018, le tribunal de La Haye vient tout juste de confirmer ce verdict, alors même que le GIEC venait de rendre public, la veille, son dernier rapport approuvé par 197 États, sur la nécessité d’agir drastiquement et très rapidement si l’humanité veut éviter les conséquences catastrophiques d’un réchauffement dépassant 1,5 °C.

Une nouvelle claque donc pour l’État néerlandais qui est ainsi mis en face de ses responsabilités. Le verdict prononcé par la présidente de la juridiction, Marie-Anne Tan-de-Sonneville, est en effet sévère, rappelant notamment que « Le changement climatique est un grave danger. Tout report des réductions d’émissions exacerbe les risques liés au changement climatique. Le gouvernement néerlandais ne peut pas se cacher derrière les émissions d’autres pays. Il a le devoir indépendant de réduire les émissions de son propre territoire ».

Manifestation à Copenhague de citoyens pour la prise en compte de mesures contre le réchauffement climatique (photo © Christoffer Askman / Ritimo)

Un raisonnement qui pourrait s’appliquer à tous les pays de la planète qui ont tendance à s’abriter derrière l’inaction collective pour éviter de prendre les décisions qui pourtant s’imposent à eux. Selon le professeur de droit Laurent Neyret, cité par Le Monde suite à la première décision de justice rendue en 2015, ce jugement pourrait faire jurisprudence car « les juges ont habilement démonté l’argument de la défense selon lequel le changement climatique est un problème global qui ne peut être traité à une échelle nationale, lui opposant le devoir des pays à agir localement, au nom de l’obligation commune mais différenciée des Etats à lutter contre le réchauffement ».

De fait, les Pays-Bas ne sont pas nécessairement les plus mauvais élèves de la classe de la classe en matière de lutte contre le réchauffement climatique, même si leurs émissions de gaz à effet de serre sont supérieures à celles de la moyenne européenne, comparables en 2013 à celles de l’Allemagne notamment. En juin 2018, selon Libération, le pays s’est ainsi engagé sur un programme très ambitieux visant à réduire les émissions de gaz à effet de serre par rapport à 1990 de 49 % d’ici 2030 et de 95 % d’ici 2050. Le gouvernement envisage même d’atteindre la neutralité carbone pour son électricité d’ici 2050.

Les jeunes soutenus par l’association Our Children’s Trust, avec leur avocate Andrea Rodgers (photo © Our Children’s Trust)

Toujours est-il que cette retentissante victoire devant une juridiction néerlandaise pourrait conduire à une multiplication des recours en justice pour cause d’inaction climatique. Selon un rapport de l’ONU publié en mai 2017, ce sont pas moins de 884 actions en justice qui auraient ainsi été intentées sur cette question, dont 654 devant des juridictions américaines. Pour l’instant, les tribunaux des États-Unis ont tendance à se déclarer incompétents sur le sujet, mais fin 2016 un juge a néanmoins autorisé la poursuite d’une affaire portée par 21 jeunes soutenus par l’association Our Children’s Trust, devant un tribunal de l’Oregon, considérant que « les politiques actuelles du gouvernement violent leurs droits constitutionnels » en laissant se développer des concentrations de gaz à effet de serre très supérieures à ce que les climatologues considèrent comme acceptables pour éviter des évolutions climatiques aussi dramatiques qu’irréversibles.

En Belgique, selon le site Mr Mondialisation, une action collective en justice, initiée par l’association Klimaatzaak, présidée par l’entrepreneur Serge de Gheldere, soutenue initialement par une dizaine de militants mais portée désormais par 30 000 citoyens a été lancée en 2015, considérant que la réduction de CO2, qui atteint pourtant 1 % par an dans ce pays est très largement insuffisante en regard des enjeux. En 2017, le procès n’avait guère progressé, bloqué comme souvent en Belgique par de sordides querelles quant aux choix de la langue à utiliser, mais la victoire en appel que viennent d’enregistrer les militants néerlandais voisins va peut-être redynamiser la procédure…

Quant à la France, elle n’est pas à l’abri d’une telle démarche. En novembre 2017, l’association Notre affaire à tous, a adressé un courrier au Président de la République pour demander l’arrêt des subventions aux énergies fossiles, la réduction des émissions françaises de gaz à effet de serre et la reconnaissance du changement climatique comme un crime écologique. Faute de réponse, sa présidente Marie Toussaint menace d’entamer une action en justice contre l’État français.

A défaut d’être favorable pour les générations futures et pour notre environnement, le changement climatique pourrait donc se révéler à terme comme une affaire juteuse pour des bataillons de juristes…

L. V. 

La France tire la langue…

2 octobre 2018

Inondations rue de la République à Aubagne le 9 août 2018 (extrait vidéo © Mathieu Gratteloup)

Une fois n’est pas coutume, les Provençaux ne s’en sont guère aperçu, eux dont la région a subi des précipitations périodiques durant tout l’été, avec même un bel orage de pluie et de grêle le 9 août 2018, qui a fait de gros dégâts dans le secteur d’Aubagne. Mais pendant ce temps, une bonne partie du territoire national a lui souffert de la sécheresse.

Du Sud-Ouest jusqu’en Alsace, mais en Bretagne également (tout arrive !), les pluies se sont fait rares durant tout l’été. Depuis la mi-juin une bonne partie du territoire national a subi un fort déficit de précipitations par rapport aux normales saisonnières, alors même que les températures étaient particulièrement élevées, supérieures de 2 à 4 °C par rapport aux valeurs habituelles. La France vient de vivre son 4ème été le plus chaud depuis que l’on enregistre régulièrement les températures.

Rapport à la normale (1981-2010) du cumul mensuel de précipitations en France au mois d’août 2018 (source Météo-France)

Un cocktail explosif qui se traduit par une forte évapotranspiration, une dessiccation des sols et des débits très faibles dans les cours d’eau… Début septembre, les sols étaient exceptionnellement secs dans toute la partie centrale et le Nord-Est du pays. Et le mois de septembre a été, lui aussi, exceptionnellement chaud et sec, avec des températures maximales supérieures de plusieurs degrés par rapport aux normales, un ensoleillement rarement observé à cette période de l’année et un déficit de précipitations qui atteint 70 % en moyenne sur l’ensemble du pays : il est tombé en moyenne 24 mm durant le mois de septembre sur le territoire métropolitain, contre 78 mm habituellement…

Carte des secteurs touchés par des arrêtés préfectoraux de restriction d’usage liés à la sécheresse au 2 octobre 2018 (source Propluvia)

Du coup, beaucoup, en particulier parmi les agriculteurs, s’inquiètent, à juste titre, des conséquences de cette sécheresse persistante. Au 21 septembre, selon le site Propluvia géré par les ministères de l’écologie et de l’agriculture, pas moins de 62 départements étaient concernés par des restrictions d’usage suite à l’atteinte des seuils de vigilance, et on dénombrait à cette date 143 arrêtés préfectoraux détaillant des mesures de restriction.

Une situation météorologique qui arrange bien certaines professions dont les viticulteurs du Bordelais qui se réjouissent de conditions particulièrement favorables jusqu’à la période des vendanges. A Bordeaux, il n’est tombé que 3,2 mm de pluie durant le mois de septembre, contre 83 mm en moyenne : même le record de 1985 a été battu, qui avait enregistré un cumul de 3,6 mm !

Mais un contexte climatique catastrophique pour de nombreux agriculteurs et notamment pour les éleveurs. En Poitou-Charentes et dans le centre de la France, le fourrage se fait rare et de nombreux éleveurs sont contraints de vendre une partie de leur cheptel, alors même que les prix du bétail sont en chute libre du fait de cette augmentation de l’offre.

Dans le Cantal, il faut nourrir les vaches avec du fourrage (photo © Francis Campagnoni / La Montagne)

Dans le Puy-de-Dôme, le préfet a pris des mesures de restriction de certains usages de l’eau depuis le 11 août et vient de les prolonger jusqu’à fin octobre. Les éleveurs sont obligés de puiser dans leurs réserves de fourrages et de trouver de l’eau pour abreuver leurs bêtes. Les rendements de betteraves à sucre s’annoncent catastrophiques et le colza peine à lever, tandis que certaines activités industrielles subissent des restrictions d’activité faute de débit suffisant dans les cours d’eau pour assurer le refroidissement des machines ou l’eau de process nécessaire.

Irrigation par aspersion d’un champ de maïs (photo archives © La Nouvelle République)

Dans le Cher, malgré un hiver et un printemps plutôt humide, la sécheresse commence aussi à se faire sentir avec des précipitations qui, en septembre, n’ont pas dépassé 6 à 26 mm selon les endroits, très en deçà des normales mensuelles qui tournent plutôt entre 60 et 90 mm. De nouveaux arrêtés préfectoraux ont donc été pris le 1er octobre, en particulier sur le bassin du Cher qui est passé en situation de crise avec 117 communes concernées par des restrictions d’eau, dont Bourges et Vierzon.

Même dans le Cotentin, les conditions météorologiques ont conduit les cultivateurs de maïs à récolter avec 3 semaines d’avance pour l’ensilage, avant que la sécheresse ne vienne détériorer irrémédiablement leur récolte. Dans le Doubs ou en Corrèze, on a dû jongler durant tout l’été à certains endroits pour continuer à approvisionner la population en eau potable avec des rivières et des plans d’eau qui tarissaient précocement, sous l’effet justement des pompages agricoles destinés à l’irrigation du maïs, une plante particulièrement gourmande en eau et que certains agriculteurs envisagent sérieusement de remplacer par d’autres espèces.

Champ de sorgho en France

On voit ainsi de plus en plus se développer, jusque sur les collines des Vosges, des champs de sorgho, cette céréale omniprésente dans le Sahel, dont les besoins en eau sont inférieurs de 30 % à ceux du maïs et qui pourraient bien constituer une alternative judicieuse pour s’adapter aux nouvelles conditions climatiques qui sont en train de s’installer en France métropolitaine. L’agriculture a montré au cours des siècles sa grande capacité d’évolution et de transformation : sera-t-elle capable de s’adapter à cette évolution climatique globale qui est en train de s’imposer à nous à une vitesse inédite ? Espérons-le !

L. V.

Japon : l’été meurtrier…

8 septembre 2018

En 2018, comme d’ailleurs en 2017, la Terre a encore battu des records de chaleurs. En France, ces deux étés successifs se classent d’ailleurs comme les deux les plus chauds jamais enregistrés, avec du 1er juin au 31 août 2018, une température journalière moyenne supérieure de 3,2 °C par rapport aux normales saisonnières, de quoi peut-être convaincre, s’il en reste, les derniers climato-sceptiques quant à la réalité du réchauffement climatique global…

Dans l’Ouest américain, où de gigantesques incendies de forêts, une fois de plus, ont semé la mort et la désolation, on a enregistré la température record de 52,9 °C le 27 juillet 2018 dans la Vallée de la Mort qui n’a sans doute jamais aussi bien porté son nom. Même au Québec, une petite semaine de canicule, début juillet, a fait pas moins de 70 morts !

Le Japon quant à lui, a été particulièrement touché par cette vague de chaleur intense qui a sévi dans le pays entre avril et août. Des records de température y ont été atteints, le thermomètre étant monté jusqu’à 41,1 °C le 23 juillet dans la ville de Kumagaya. Ce sont pas moins de 125 morts dus à cette canicule qui ont été dénombrés dans le pays, dont une centaine pour la seule ville de Tokyo où on a même vu la nourriture factice exposée dans les vitrines des restaurants se liquéfier du fait de la chaleur.

Voitures piégées dans la boue après les inondations à Saka, le 8 juillet 2018 (photo © Martin Bureau / AFP)

Mais ce n’est pas tout puisque cette vague de chaleur meurtrière est elle-même venue s’intercaler entre deux épisodes de pluies exceptionnelles qui ont fait de gros dégâts dans le pays. Le 8 juillet 2018, selon Le Monde, le premier ministre japonais déclarait ainsi à l’issue d’une réunion de crise après 4 jours de pluies torrentielles qui s’étaient abattues sur plusieurs régions du pays : « Les secours, le sauvetage de vies et les évacuations sont une course contre la montre ».

Plus de 100 000 personnes avaient dû être évacuées en catastrophe, environ 75 000 secouristes mobilisés en toute urgence et au moins 220 morts ont été dénombrés, emportés par les flots boueux ou ensevelis sous leur maison effondrée sous l’effet du ruissellement torrentiel ou de multiples glissements de terrain.

Maison effondrée à Kumano en bord de cours d’eau, le 9 juillet 2018 (photo © Martin Bureau / AFP)

Un terrible bilan humain et matériel donc pour un pays, certes particulièrement exposé aux risques naturels, mais dont les constructions, souvent en bois et implantées dans des secteurs au relief accidenté, se sont révélées finalement assez vulnérables, malgré une forte culture de la prévention du risque.

Et ce n’est pas fini puisque, sitôt la vague de canicule terminée, le Japon a essuyé un des plus terribles cyclones de son histoire, sans précédent depuis 25 ans, le typhon Jebi, qui a ravagé l’île de Honshu le 4 septembre 2018, avec des vents soufflant jusqu’à plus de 220 km/h en rafale. Ce n’était que la 21ème  tempête tropicale de la saison, mais celle-ci n’a pas fait dans le détail, obligeant les autorités à lancer des ordres d’évacuation à l’attention de plus de 300 000 habitants.

Un camion renversé par le vent sur le pont de Seto-Ohashi, entre les îles japonaises de Honshu et Shikoku, le 4 septembre 2018 (photo © Jiji Press / Kagawa Prefectural Police / AFP)

Les vidéos disponibles sont particulièrement spectaculaires, montrant des véhicules soufflés comme des fétus de paille. Plus de 1,2 millions de foyers ont été privés d’électricité, 650 vols ont dû être annulés et au moins 11 personnes ont péri durant cet événement qui a fait de très nombreux blessés et de gros dégâts matériels. Un pétrolier est ainsi venu s’encastrer dans le pont reliant l’aéroport international de Kansai qui est lui-même fortement endommagé et a dû être provisoirement fermé.

Tanker encastré contre le pont reliant Kansai International Airport à la terre ferme, à la suite du typhon Jebi (photo © Yasufumi Nagao / AP / SIPA)

Et 48 heures seulement après ce terrible coup du sort, l’île d’Hokkaido, au nord du Japon, était à son tour victime d’un terrible séisme, provoquant de multiples glissements de terrain, causant la mort d’au moins 9 personnes et en blessant 300 autres.

Nombreux glissements de terrain provoqués par le séisme le 6 septembre 2019, à Atsuma sur l’île d’Hokkaïdo (photo © JIJI PRESS / AFP)

Un bilan relativement modeste au vu de la violence de l’événement, ce qui confirme une nouvelle fois la bonne préparation de ce pays face au risque sismique, même si chacun a encore en tête les images terribles du tremblement de terre de 2011 qui avait fait environ 18 000 victimes, 80 % d’entre elles étant décédées non pas des effets directs du mouvement sismique mais du fait du tsunami qui avait ensuite ravagé les côtes nippones, mettant à mal au passage les installations de la centrale nucléaire de Fukushima.

En tout cas, avec une telle succession de catastrophes naturelles en un laps de temps aussi court, le Japon confirme s’il en était besoin son exposition particulièrement élevée face aux risques naturels. L’institut pour l’environnement et la sécurité humaine des Nations unies (UNU-EHS), qui publie chaque année son palmarès selon un indice d’exposition aux catastrophes naturelles, classe d’ailleurs ce pays parmi les plus exposés, derrière les Philippines, le Bengladesh ou le Guatemala… Depuis l’an dernier, outre la canicule, le séisme, l’inondation et le typhon de cet été, le Japon a ainsi subi 4 autres catastrophes naturelles majeures enregistrées par le Centre for Research on the Epidemiology of Disasters : qui dit mieux ?

L. V.

Archéologie : les bienfaits de la sécheresse

19 août 2018

A Londres, des températures anormalement élevés depuis le mois de mai 2018 (photo © John Stillwell / PA Wire)

Le début de l’été a été chaud au Royaume-Uni cette année. Et pas seulement parce que les esprits s’échauffent quant aux modalités de sortie de l’Union européenne… Au point d’ailleurs, comme le relevait le Huffington Post, le 23 juillet dernier, que PaddyPower, l’un des plus grands opérateurs britanniques de paris sportifs, s’interroge : qui de cette interminable vague de chaleur ou de la Première ministre Theresa May, embourbée dans le dossier du Brexit, jettera l’éponge la première ?

Il n’est tombé que moins de 50 mm de pluie en Angleterre entre le 1er juin et le 16 juillet, du jamais vu depuis le début des enregistrements de données météorologiques, et les températures ont atteint des sommets pendant tout le mois de juillet, comme d’ailleurs dans tout le nord de l’Europe.

Un feu de broussailles inhabituel dans l’est londonien, le 15 juillet 2018 (source @MPSCannHall)

On a même vu l’herbe jaunir à Hyde Park, un crime de lèse-majesté, et il a fallu mobiliser plus de 200 pompiers pour venir à bout d’un feu de broussailles tout à fait inhabituel qui a ravagé près de 100 hectares au nord-est de Londres le 15 juillet dernier…

Les agriculteurs britanniques se font des cheveux blancs en voyant leurs cultures sécher sur pied face à une canicule d’une telle ampleur, mais les archéologues, eux se frottent les mains ! Rarement en effet les conditions n’ont été aussi favorables pour observer, depuis le ciel, les « marques de cultures » qui révèlent la présence, au milieu des prés ou des champs, de vestiges historiques même profondément enfouis et indétectables depuis le sol.

D’anciennes fondations, même totalement arasées au fil du temps et recouvertes d’une épaisse couche de limons et de terre végétale, surgissent ainsi du passé car les racines ne peuvent s’y développer aussi profondément qu’alentours, si bien que les plantes y jaunissent plus précocement en cas de conditions climatiques particulièrement sévères. Inversement, d’ancien fossés, depuis bien longtemps remblayés et dont il ne subsiste aucun vestige en surface, offrent à la végétation un surcroit de réserve d’humidité en profondeur, si bien que l’herbe y apparaitra plus verte lors d’une période de sécheresse. Des contrastes parfois très nets sur les photographies aériennes, et qui permettent de mettre en évidence des restes d’aménagements historiques invisibles sinon.

Schéma de principe des marques de culture laissées par la superposition dans le temps d’une ferme gallo-romaine sur le site d’une ancienne implantation de l’âge du fer, entourée d’un fossé circulaire (infographie © Historic England)

Les plus anciens se souviennent avec nostalgie des conditions météorologiques exceptionnelles de l’année 1976 qui avait déjà été marquée par son lot de belles découvertes, ou celles, plus récentes, de l’été 2011, au cours duquel plus de 1500 sites archéologiques avaient ainsi été découverts, principalement dans les terrains argileux de l’Est de l’Angleterre, ainsi que l’explique un responsable d’Historic England, l’organisme public en charge de la conservation du patrimoine historique britannique.

Du coup, les archéologues d’Outre-Manche ont mobilisé tout ce qui vole, bien aidé en cela par le développement des drones qui permettent d’obtenir facilement et à moindre frais des photographies aériennes de bonne qualité. Et les résultats sont à la hauteur des espérances les plus folles !

Vue aérienne des vestiges de cromlech découverts cet été en Irlande (photo © Anthony Murphy / Mythical Ireland / Twitter)

C’est ainsi que le 10 juillet 2018, deux photographes passionnés d’archéologie, Antony Murphy, fondateur du site Mythical Ireland, et Ken Williams, qui anime le blog Shadows & stone, ont mis en lumière, grâce à des survols de drone au-dessus du site de Newgrange, connu pour ses nombreux vestiges préhistoriques dans la région du Brú na Bóinne, à 50 km au nord de Dublin, un immense cromlech inconnu, un ancien cercle de menhirs de près de 200 m de diamètre, datant probablement de l’âge du bronze et totalement invisible au sol, au beau milieu d’un champ de blé. La nouvelle a vite fait le tour du monde, reprise en boucle par de nombreux médias enthousiastes.

Mais les découvertes de ce type se sont multipliés tout au long de l’été. Toujours en Irlande, les vestiges d’une ancienne garnison ont ainsi été identifiés dans un champ, à Magor, dans le sud du pays, tandis que les traces d’une ancienne ferme datant probablement de la préhistoire ont été repérés près de Newport au Pays de Galle. En Angleterre, plusieurs sites funéraires préhistoriques, ainsi que l’emplacement de deux monuments probablement érigés à l’époque néolithique, entre 3600 et 3000 avant JC, ont également été identifiés près de la ville de Milton Keynes, à une centaine de kilomètres au nord de Londres.

Vue aérienne révélant des vestiges préhistoriques de monuments funéraires et de fondations près d’Eynsham, dans l’Oxfordshire (photo © Historic England)

Une douzaine de vestiges d’habitations de forme ronde remontant à l’âge de fer, ainsi que des restes de l’âge de bronze ont aussi été observés en Cornouailles, au sud-ouest de l’Angleterre. Dans le Yorkshire, ce sont des tombes datant de l’âge du fer qui ont ainsi été repérées durant l’été par des survols aériens, tandis que dans le Suffolk, c’est un cimetière préhistorique qui a pu être ainsi retrouvé.

La liste des découvertes archéologiques inédites réalisées durant cet été de folie est longue. Elle intéresse même des périodes historiques plus récentes avec une visualisation très nette de l’aménagement des jardins et de certains bâtiments désormais disparus à Tixall Hall, dans le Staffordshire, une ancienne maison de campagne de la reine Elisabeth, construite en 1555, et de même à Gawthorpe Hall, une autre demeure élisabéthaine située dans le Lancashire.

Traces d’anciens bâtiments détruits à Tixall Hall (photo © Historic England)

Dans le Nottinghamshire, à Clumber Park, ce sont les traces d’un ancien manoir datant du 18ème siècle qui sont apparues alors que le bâtiment avait été entièrement détruit en 1938. Même d’anciens aérodromes datant de la Seconde Guerre mondiale ont été rendus visibles, notamment dans le Hampshire, où l’ancien aérodrome de Lasham, utilisé par la Royal Air Force entre 1942 et 1945, est désormais parfaitement repérable depuis le ciel, tandis que des traces d’anciens abris anti-aériens ont refait surface, notamment à Cambridge.

Pour les archéologues, cette fenêtre de tir très particulière les incite à mettre les bouchées doubles pour survoler le maximum de sites prometteurs pendant que les conditions climatiques sont favorables. Mais il a recommencé à pleuvoir au Royaume uni depuis le 9 août, permettant depuis aux températures caniculaires de revenir à des valeurs plus raisonnables, ce qui pourrait signifier, pour les archéologues, le retour au bureau afin d’exploiter leurs clichés et organiser les chantiers de fouilles qui ne devraient pas manquer de les occuper pour les années à venir…

L.V. 

Nucléaire : les centrales françaises ont eu chaud !

11 août 2018

Un dessin signé Deligne

La France, c’est bien connu, fait entièrement confiance à l’énergie nucléaire pour assurer son approvisionnement en électricité : le risque d’accident technologique n’est pas négligeable et les coûts de production sont un peu élevés, surtout si l’on devait prendre en compte les coûts réels de traitement des déchets radioactifs et de démantèlement des centrales, mais au moins cela ne produit pas trop d’émission de gaz à effet de serre. C’est même d’ailleurs l’argument principal mis en avant par EDF pour justifier de continuer à investir autant dans la filière malgré les innombrables déboires rencontrés, notamment sur le chantier de l’EPR de Flamanville.

Un dessin signé Lara publié dans le Canard enchaîné du 8 août 2018

Pour autant, le réchauffement climatique global dont les effets sont chaque jour un peu plus visibles, commence à faire planer des menaces supplémentaires sur cette filière. La période de canicule que vient de connaître la France s’est ainsi traduit par la mise à l’arrêt de quatre réacteurs nucléaires et le ralentissement de deux autres. Ajoutés aux 15 réacteurs arrêtés cet été pour cause de maintenance, cela représente 21 réacteurs actuellement hors service sur les 58 que compte le parc électronucléaire français, répartis sur 19 sites en activité.

Cela n’empêche pas EDF de continuer à exporter une partie de sa production encore excédentaire en cette période estivale où la consommation électrique des industriels est généralement moindre, et ceci même si le développement exponentiel de la climatisation fait régulièrement augmenter la demande d’électricité en période chaude.

Arrosage de la centrale de Fessenheim en 2003 (source : Sortir du nucléaire)

Ce n’est certes pas la première fois que les centrales nucléaires françaises révèlent leur vulnérabilité en cas de forte chaleur. En 2003 déjà, en pleine canicule, la France avait découvert, éberluée, les images d’un réacteur de la centrale nucléaire de Fessenheim arrosé à grands coups de jet d’eau pour tenter de refroidir la température de l’enceinte qui menaçait de dépasser les 50 °C autorisés ! Une tentative assez maladroite d’ailleurs cas il aurait fallu des semaines pour abaisser réellement par cette méthode la température à l’intérieur de l’enceinte dont le mur fait plus de 80 cm d’épaisseur…

Sur d’autres sites, dont ceux de Bugey, Tricastin et Saint-Alban, en bordure du Rhône, ou encore à Golfech, le long de la Garonne, EDF avait été alors été contraint de rejeter de l’eau plus chaude que les règles d’exploitation du nucléaire ne l’autorisent. Une entorse qui a ensuite été régularisée par des dérogations officielles. Et c’est la même situation qui se reproduit régulièrement depuis, lors de chaque période estivale un peu chaude, avec un risque d’emballement inquiétant maintenant que les périodes caniculaires sont de plus en plus fréquentes dans nos contrées.

Centrale nucléaire de Nogent-sur-Seine

En 2017, par exemple, sans les lâchers d’eau réalisés en permanence par les barrages situés en amont du Bassin Parisiens et gérés par l’établissement public de bassin Seine Grands lacs, les débits dans la Seine au droit de la centrale nucléaire de Nogent-sur-Seine, auraient été trop faibles pour permettre la poursuite de l’exploitation des réacteurs, descendant en dessous des seuils critiques et ceci pendant plusieurs semaines consécutives.

Cette année, dès le 27 juillet, une des unités de production de la centrale de Bugey, située en bordure du Rhône, a ainsi dû être arrêtée car la température du fleuve excédait les seuils admissibles. Le surlendemain, c’était le tour de l’unité de production n°1 de Saint-Alban, située le long du Rhône, qui subissait le même sort, les deux tranches de cette centrale ayant finalement dû être arrêtée jusqu’au 8 août, ainsi qu’une seconde unité de Bugey et finalement l’une des tranches de Fessenheim.

Comme l’explique l’IRSN, l’Institut de radioprotection et de sureté nucléaire, la forte dépendance des centrales nucléaires aux milieux naturels aquatiques tient à deux facteurs.

Un dessin signé Romboussard

Une centrale thermique, qu’elle soit nucléaire ou pas, n’est jamais qu’une grosse cocotte-minute produisant de la vapeur, laquelle fait tourner un alternateur. Pour chaque MWh d’électricité produite, il faut évacuer dans la nature 2 MWh de chaleur. Pour cela, il faut de grosses quantités d’eau pour refroidir le dispositif, eau qui est prélevée soit en rivière (c’est le cas de 44 des réacteurs français), soit dans la mer (pour les 14 autres tels que Flamanville, Paluel ou le Blayais). Cette eau de refroidissement est pour l’essentiel (à 98 % selon EDF) rejetée ensuite dans le milieu naturel soit sous forme de vapeur (ce sont les panaches blancs qui s’échappent des tours de refroidissement) soit sous forme liquide.

Le problème vient de ce l’eau qui est rejetée dans les cours d’eau en aval des centrales est plus chaude de quelques degrés par rapport à celle du milieu naturel. Cela ne prête pas à conséquence la majeure partie du temps, sauf justement en période de canicule, lorsque les débits dans les rivières sont au plus bas et que la température du milieu est déjà élevée. Au-delà d’un certain seuil, une augmentation même minime de la température peut alors avoir des conséquences écologiques dramatiques, entrainant des mortalités massives de certains poissons ou des développement d’algues toxiques. C’est la raison pour laquelle à partir de certaines limites de débit et de température, EDF n’a plus l’autorisation de prélever de l’eau pour refroidir ses centrales, n’ayant alors d’autres solution que de les mettre à l’arrêt.

Un dessin signé Cabu

Et il y a une deuxième raison qui oblige EDF à installer ses centrales nucléaires à proximité d’un milieu naturel aquatique, tout simplement pour y rejeter ses multiples effluents chimiques et radioactifs issus de ses installations. Comme tout site industriel, une centrale nucléaire produit en effet de nombreux effluents chimiques issus de certains procédés tels que la production d’eaux déminéralisée, mais aussi des rejets de sa propre station d’épuration.

A cela s’ajoutent certains effluents liquides radioactifs, riches notamment en bore, carbone 14 et surtout en tritium. Les rejets de toutes ces matières directement dans le milieu naturel doivent respecter des seuils de concentration maximale. Plus les débits des cours d’eau sont faibles, plus ces seuils sont atteints rapidement car l’effet de dilution est réduit. EDF est alors contraint de stocker ces éléments indésirables dans des bassins de rétention en attendant des jours meilleurs, mais ses capacités de stockage ne sont pas illimitées…

L’épisode de canicule récent, comme ceux de ces dernières années, dont l’amplitude et la fréquence semblent augmenter régulièrement sous l’effet du changement climatique, ne fait donc que confirmer cette forte vulnérabilité de la filière électronucléaire face à l’évolution de son environnement et au risque de diminution significative du débit d’étiage des cours d’eau qui se profile dans les années à venir. Quand on sait qu’une seule journée d’arrêt d’un réacteur nucléaire coûte de l’ordre de 1 million d’euros à EDF, on imagine avec quelle attention ses ingénieurs scrutent l’évolution des débits en période estivale !

Comme l’indiquait en 2011 Stéphane Lhomme, président de l’Observatoire du nucléaire, « contrairement à ce qu’on essaie de nous faire croire, c’est le changement climatique qui s’attaque au nucléaire et non l’inverse ». Un beau sujet de réflexion pour une prochaine épreuve de philosophe du baccalauréat ?

L. V.

Méduses en Méditerranée : un nouveau péril ?

8 août 2018

Un dessin signé Glez, dessinateur burkinabé (source : Cartooning for Peace)

Ces derniers temps, l’actualité se focalise sur les arrivées de populations qui tentent, au péril de leur vie, de traverser la Méditerranée pour fuir des situations de guerre, de misère et de désespérance sociale, en espérant trouver en Europe un avenir meilleur. Mais cette situation qui obnubile et angoisse certains ne doit pas faire oublier d’autres mouvements d’espèces naturelles, en l’occurrence véritablement invasives, et dont l’ampleur des déplacements, le plus souvent lié à l’activité humaine, pourrait s’accentuer sous l’effet du réchauffement climatique mondial.

Les exemples en Méditerranée sont innombrables. Rappelons, à titre indicatif que selon la DREAL PACA, sur les 4000 espèces végétales que comptent la région, 931 soit près d’une sur quatre sont considérées comme exotiques, certaines colonisant les fonds marins, à l’exemple de la fameuse « algue tueuse », Caulerpa taxifolia, relâchée accidentellement en 1984 par l’aquarium de Monaco et qui avait envahi en l’espace de 20 ans plus de 5000 ha avant de commencer à régresser.

Le tetraodon, cousin du Fugu, désormais présent en Méditerranée

Depuis le percement du canal de Suez, on considère que plus de 900 espèces exotiques ont pénétré en Méditerranée, dont le « poisson-lapin », Siganus luridus, qui broute les herbiers de posidonies, mettant à nu les fonds marins, ou encore le tétraodon, Lagocephalus sceleratus, cousin du Fugu des Japonais et potentiellement mortel.

Mnemiopsis leidyi (photo © Guillaume Marchessaux / IMO / LPED)

L’étang de Berre est ainsi confronté, depuis une quinzaine d’années, et après celui de Vaccarès, touché dès la fin des années 1990, à l’invasion de ce que les Anglo-Saxons appellent la « Noix de mer », Mnemiopsis leidyi, une sorte d’ovoïde gélatineux transparent muni de tentacules et qui évoque vaguement une forme de méduse sans être pour autant urticant ni dangereux.

Cette espèce est arrivée en Méditerranée en provenance de l’Atlantique nord, dans l’eau de ballast que les cargos chargent pour stabiliser leur coque et qu’ils déversent à leur arrivée, avec tous les micro et macro-organismes qu’elle contient et dont certains peuvent survivre pendant de longues semaines.

Dans l’étang de Berre, cette vaste lagune qui communique avec la Méditerranée par le chenal de Caronte, ce cténophore qui peut pondre jusqu’à 10 000 œufs par jour a proliféré à une vitesse inquiétante. Cette espèce carnivore détruit les œufs et larves des autres espèces et dévore le zooplancton, ce qui contribue à appauvrir fortement les populations de poissons. Il obstrue par ailleurs les filets des pêcheurs professionnels dont l’activité est en expansion sur cet étang dont la qualité des eaux s’améliore ces dernières années et pour lequel est désormais envisagée une inscription au patrimoine mondial de l’UNESCO.

Extrait d’une vidéo expliquant les effet de Mnemiopsis Leidyi dans l’étang de Berre

Une thèse est d’ailleurs en cours depuis 2015, à l’Institut méditerranéen d’océanologie et au Laboratoire Population Environnement Développement (LPED) de l’université d’Aix-Marseille, pour mieux comprendre les conditions de développement de cette espèce, considérée comme l’une des 50 espèces les plus invasives du monde, et en étudier les impacts socio-économiques, comme l’évoque un article de 20 minutes assorti d’une vidéo très pédagogique.

Cycle de reproduction de Mnemiopsis Leidyi

Les méduses urticantes, Pelagia noctiluca, quant à elles, sévissent périodiquement sur les côtes méditerranéennes, y compris à Marseille où elles sont portées par le courant ligure. Connues en traditionnellement selon des cycles d’une douzaine d’années (dont 9 à 10 ans de répit entre deux phases d’explosion). Toutefois, le réchauffement climatique semble avoir accéléré leur cycle en permettant leur reproduction même en période hivernale, ce qui permet aux adultes d’être bien présents pour la saison estivale.

Méduse pélagique en Italie

Leur nombre a été multiplié par 4 en Méditerranée depuis les années 2000 et on les observe désormais chaque année sur nos côtes depuis 1999. Il arrive même que leur aire de répartition s’étende très au nord, comme en novembre 2007, lorsque leur prolifération a fait des ravages dans les élevages de saumon en Irlande du Nord…

La presse se fait régulièrement l’écho de ces arrivées massives de méduses pélagiques, les « piqueurs mauves » dont la rencontre inopportune provoque de sérieuses brûlures chez les baigneurs qui, s’ils paniquent sous l’effet de la vive douleur qui en résulte, peuvent même se noyer. Près de 70.000 brûlures de méduses ont ainsi été recensées aux Baléares durant l’été 2006 et, en 2008, près de 300 baigneurs ont dû être soignés pour les mêmes raisons rien qu’à Antibes en seulement six semaines.

Echouage de méduses pélagiques sur une plage de La Ciotat en 2014 (photo © France 3)

France 3 déplorait ainsi en juillet 2014 l’arrivée massive de ces méduses sur le littoral méditerranéen de Martigues jusqu’à Menton, mentionnant même que la baignade avait dû être interdite sur les plages de La Ciotat le 16 juillet. En juillet 2016, c’était le Midi Libre qui constatait que les plages et même les canaux autour de Sète étaient complètement envahis par leur prolifération, tandis qu’en avril 2018 FranceTVinfo se faisait l’écho d’un échouage massif de vélelles, petites méduses violettes totalement inoffensives mais qui font désordre sur les plages et rebutent les touristes…

Un échouage de vélelles sur une plage près d’Ajaccio en Corse (photo © Pierre-Antoine Fournil / Corse-Matin)

De nombreuses plages tout autour de la Méditerranée s’équipent désormais de filets de protection pour empêcher que les méduses en goguette ne viennent se frotter aux baigneurs. Un réseau d’observation et de suivi a aussi été mis en place le long des côtes françaises de Méditerranée, dans le cadre du projet de recherche JELLYWATCH, initié en 2009 par l’Observatoire océanologique de Villefranche-sur-mer et co-financé par la Région PACA.

Avec l’aide du bureau d’études ACRI-ST, un portail d’observation a été élaboré, accessible sur internet et via une application pour smartphones, permettant à chacun de signaler ses observations de méduses et donc de savoir, jour par jour, où elles sont présentes. Un outil pratique et collaboratif, qui mérite d’être largement partagé pour limiter les risques de se trouver nez-à-nez avec une méduse pélagique et d’en garder un souvenir pour le moins cuisant…

L.V.

Climat : ça chauffe de plus en plus !

3 août 2018

En matière climatique, et contrairement à l’adage bien connu, les années se suivent et se ressemblent de plus en plus…

En janvier 2015, un article du site Futura Science indiquait que selon les données publiées par le NOAA (National Oceanic and Atmospheric Administration) et par le GISS (Goddard Institut for Space Studies), un organisme scientifique rattaché à la NASA, l’année 2014 avait été la plus chaude jamais observée depuis que les mesures de température ont été généralisées dans le monde, à partir des années 1880. A cette date, les deux autres années considérées comme les plus chaudes jusque-là étaient 2005 et 2010, suivies de près par l’année 2013.

Les anomalies de température dans le monde depuis 1890 : écarts entre les températures moyennes observées (sur terre et sur mer) par rapport aux moyennes calculées sur l’ensemble du XXe siècle (infographie © Simon Malfatto / AFP)

Un an plus tard, le 22 janvier 2016, Science et Avenir, parmi d’autres, publiait un article indiquant que selon les analyses de ces mêmes organismes, issues du traitement (selon des algorithmes différents mais qui aboutissent à des conclusions convergentes) de plus de 6300 points de suivi de température répartis à la surface du globe, sur terre comme en mer, l’année 2015 avait été la plus chaude jamais observée sur Terre… La température moyenne du globe, cette année-là, a été en moyenne supérieure de 0,9 °C par rapport à la moyenne enregistrée au cours de l’ensemble du XXe siècle, et d’environ 0,23 °C par rapport à l’année précédente qui détenait jusque-là le record.

Il faut dire que cette année 2015 s’était caractérisée par un phénomène climatique El Niño particulièrement marqué, avec en particulier des températures anormalement élevées enregistrées durant le mois de décembre. Ce mécanisme de courant côtier chaud observé périodiquement (tous les 3 à 5 ans en moyenne) et qui se manifeste par une inversion des alizés sous l’effet du réchauffement des eaux du Pacifique le long des côtes américaines, explique en partie les températures moyennes très inhabituelles observées cette année-là.

Une planète en cours de réchauffement accéléré… (source © Shutterstock / Barnaby Chambers)

Sauf que le 18 janvier 2016, les lecteurs du Monde apprenaient que « Sans surprise, 2016 a été l’année la plus chaude sur la planète depuis le début des relevés de températures en 1880, marquant le troisième record annuel consécutif de chaleur, a annoncé mercredi 18 janvier l’Agence américaine océanique et atmosphérique (NOAA) ». Autrement dit, pour la troisième année consécutive, les records de chaleur en moyenne sur l’ensemble du globe étaient battus. Par rapport aux valeurs moyennes du XXe siècle, les températures étaient pour 2016 supérieures de 0,94 °C par rapport aux normales, soit encore davantage qu’en 2015 où l’écart avait été évalué à 0,9 °C. A la surface des océans, la différence est un peu moindre, de l’ordre de 0,75 °C, mais sur les continents, l’écart moyen atteint 1,43 °C, ce qui est considérable.

Certes, localement, l’année 2016 a été marquée par des températures très basses, notamment au large de l’Antarctique, mais cela a été largement compensé, à l’échelle planétaire, par de nombreux records de chaleur enregistrés en particulier dans l’est de la Russie, à l’extrême ouest du Canada, dans l’est des États-Unis, ainsi qu’en Amérique centrale, au nord de l’Amérique du Sud, en Afrique de l’Ouest ou encore en Australie. L’Alaska a ainsi connu en 2016 son année la plus chaude depuis le début des relevés dans cet État en 1925.

Températures moyennes enregistrées en 2016 dans 190 pays du globe (source : Futura Sciences)

Bien entendu, les météorologues ont expliqué que cette nouvelle année de tous les records s’expliquait en grande partie par la récurrence du courant équatorial chaud du Pacifique El Niño, qui avait largement persisté jusqu’au printemps 2016, annonçant que « l’année 2017 sera probablement moins chaude ».

Et voilà que, dès le 7 novembre 2017, le site Futura Science annonce que « 2017 s’annonce comme l’année la plus chaude jamais enregistrée en l’absence d’El Niño. Elle talonne ainsi 2016 qui, elle, fut empreinte du phénomène météorologique et conserve le record historique. Les trois dernières années ont été les plus chaudes enregistrées, confirmant une tendance de fond au réchauffement climatique global ».

Une affirmation qui a été effectivement confirmée depuis comme le détaille un article publié dans le Monde le 1er août dernier, sur la base du Rapport sur l’état du climat en 2017, publié ce même jour par la NOAA, une synthèse établie en collaboration avec l’American Meteorological Society, par compilation de plusieurs dizaines de milliers de mesures recueillies et analysées par plus de 500 scientifiques issus de 65 pays à travers la planète.

Ce nouveau record établi en l’absence de manifestation du phénomène climatique d’El Niño confirme sans conteste la tendance de fond au réchauffement climatique global, en lien avec l’activité humaine, d’autant qu’il s’accompagne d’un nouveau pic de concentration, dans l’atmosphère, de gaz à effets de serre (dioxyde de carbone, méthane, protoxyde d’azote…). La teneur moyenne en CO2 a ainsi atteint un nouveau record mondial avec 405 ppm (parties par million), soit 2,2 ppm de plus qu’en 2016 et une valeur jamais atteinte depuis au moins 800 000 ans au vu de l’étude de la composition des gaz atmosphériques conservés dans les carottes glaciaires…

Au cours de cette année 2017, plusieurs pays, comme l’Argentine, la Bulgarie, l’Espagne ou l’Uruguay ont ainsi enregistré des records absolus de températures annuelles moyennes. Des pointes de 43,4 °C ont été relevées en janvier, en Argentine, et de 53,5 °C en août, dans l’ouest du Pakistan. Les températures moyennes à la surface des océans sont certes restées légèrement en dessous de celles de 2016, mais la partie supérieure des océans qui absorbe l’essentiel de l’augmentation de température liée à l’accumulation de gaz à effets de serre poursuit son réchauffement global, ce qui se traduit notamment dans les océans Atlantique, Indien et Pacifique, par des mortalités sans précédent de certaines formations coralliennes. Quant au niveau moyen des mers, il a atteint lui aussi un nouveau record, en se situant 7,7 cm plus haut qu’en 1993, début des mesures altimétriques par satellites, ce qui correspond à une élévation de 31 cm par siècle.

Coraux morts du fait du réchauffement climatique dans la Grande barrière de corail (photo © archives AFP)

Avec une température terrestre très supérieure à la moyenne dans les régions les plus australes, l’étendue maximale de la glace en mer arctique, début mars, a été la plus faible constatée depuis le début des observations satellitaires en 1980, et son extension minimale, en septembre, était inférieure de 25 % à la moyenne de la période de référence.

Quant aux événements climatiques extrêmes survenus en 2017, ils se sont caractérisés comme on pouvait s’y attendre par de violents cyclones et des épisodes torrentiels dévastateurs en Inde, durant la saison des moussons, au Venezuela et au Nigeria, en août et septembre, tandis que les sécheresses sévères n’ont épargné aucun continent, à l’exception de l’Amérique du Nord, provoquant notamment des incendies très destructeurs en Colombie britannique, en Espagne ou au Portugal, et même au Groenland

Et tout indique que l’année 2018, avec la période caniculaire que l’on vit actuellement, pourrait tenir un rang honorable dans ce cortège d’années records : décidément, ça chauffe de plus en plus !

L.V. 

Climatisation, ou la tentation mortelle…

29 juillet 2018

C’est l’un des paradoxes de notre société : tout le monde ou presque a pris conscience que le mode de vie adopté depuis un siècle par les pays développés et désormais par une grande partie de l’humanité n’est pas durable. Il entraîne un tel gaspillage des ressources naturelles et provoque de telles nuisances en termes de pollution et de réchauffement climatique que sa généralisation conduit inéluctablement l’humanité à sa perte dans un délai de plus en plus proche.

Et pourtant, personne ou presque n’est prêt à se passer du confort que ce mode de vie nous apporte au quotidien… Une preuve de plus, s’il en était vraiment besoin, que l’intérêt collectif n’a jamais été la somme des intérêts individuels, quoi qu’en pensent les libéraux, Adam Smith en tête.

Un dessin de Xavier Gorce

Un exemple parmi tant d’autres ? La climatisation. Une invention merveilleuse qui date de 1902, même si l’Écossais James Harrison avait dès 1851 mis au point un système très astucieux consistant à comprimer de l’éther pour le transformer en liquide, puis à le laisser revenir à l’état gazeux, ce qui produit du froid, utilisé en l’occurrence pour rafraichir une brasserie australienne puis pour y produire de la glace. Le procédé a ensuite été amélioré en utilisant des compresseurs à pistons, puis en remplaçant l’éther par de l’ammoniac, ce qui améliore le rendement.

Dès 1925, l’invention fait un tabac aux États-Unis quand la climatisation a commencé à être installée dans les salles de cinéma. Depuis, le nombre de climatiseurs utilisés dans le monde n’a cessé d’augmenter. L’Agence internationale de l’énergie l’estimait en 2017 à environ 1,6 milliards d’appareils en fonctionnement, dont la moitié environ aux États-Unis et en Chine, et le parc est en croissance exponentielle avec de l’ordre de 135 millions d’unité nouvelles installées chaque année, soit trois fois plus qu’il y a 20 ans. A ce rythme, on devrait atteindre 5,6 milliards de climatiseurs en fonctionnement d’ici 2050 !

En 2017, la consommation d’énergie utilisée dans le monde pour le refroidissement des logements et bureaux, ainsi que la réfrigération des aliments et des médicaments, est estimée à 3900 TWh, ce qui représenterait 3 à 4 % de la consommation énergétique mondiale (mais déjà 6 % dans un pays comme les États-Unis). Cela paraît peu mais c’est déjà huit fois la consommation annuelle totale d’électricité d’un pays comme la France et les projections actuelles indiquent que d’ici quelques années, cela devrait correspondre, peu ou prou, à la consommation d’un pays comme la Chine (qui a utilisé en 2017 de l’ordre de 6800 TWh pour son usage propre). Quant à la climatisation des automobiles, l’ADEME estime que son utilisation se traduit par un surcroît de consommation de 1 l / 100 km, ce qui est loin d’être négligeable !

Au-delà de cette consommation énergétique qui explose, le risque principal que fait courir le développement mondial de la climatisation est lié aux rejets de gaz à effet de serre qui en résultent. Les fluides frigorigènes utilisés pour la production de froid s’échappent en effet inévitablement d’un climatiseur en fonctionnement.

Les plus dangereux pour la couche d’ozone (chlorofluorocarbone et hydrochlorofluorocarbone notamment) ont certes été interdits via l’adoption du Protocole de Montréal dès 1985. Mais ceux qui sont utilisés actuellement, les HFC (hudrofluorocarbures), présentent un effet de serre colossal : plus de 2800 fois en moyenne celui du CO2 et jusqu’à 11 000 fois pour certains d’entre eux. On connaît désormais des fluides frigorigènes dont l’effet de serre est plus faible, en particulier les hydrofluoroléfines, mais ils présentent l’inconvénient d’être légèrement inflammables…

Climatiseurs en façade d’un immeuble chinois (photo © Zhang Bin / AFP)

On assiste donc à un cercle vicieux mortel : plus le climat se réchauffe, plus on installe de climatiseurs et plus on accélère le réchauffement climatique ! Et ce n’est que le début, comme cela a été encore rappelé récemment à l’occasion du dernier colloque de la profession, Bâti’Frais, qui s’est précisément tenu à Marseille le 6 juillet 2018.

Colloque Bâti’Frais à Marseille en juillet 2018 (source © Bâti’Frais)

Une représentante du Groupe régional d’experts sur le climat en PAC y a justement rappelé que « la dernière décennie a été la plus chaude depuis le début du XXe siècle. Et, dans la région PACA, 2016 aura été l’année la plus chaude depuis des lustres ». Selon les scénarios du GIEC, l’augmentation moyenne de température atteindra entre 1,9 et 4,6 °C d’ici 2100, avec des variations probables selon les sites. Il faut ainsi s’attendre à une augmentation moyenne de l’ordre de 3,4 °C dans une ville comme Aix-en-Provence, avec à la clé des épisodes orageux cévennols encore plus intenses et des canicules estivales plus marquées.

Sont notamment attendues des « nuits tropicales » plus fréquentes, de ces nuits d’été où la température reste supérieure à 20 °C et qui sont particulièrement éprouvantes pour les organismes. A Nice, on est ainsi passé d’une quinzaine de nuits tropicales par an dans les années 1960 à une soixantaine dans les années 1980, et les projections indiquent que ce nombre devrait encore grimper pour atteindre bientôt 90, réchauffement climatique aidant, de quoi créer de fortes tentations de pousser encore un peu la climatisation…

Face à une telle impasse, certains rappellent qu’il existe sans doute d’autres voies à explorer pour mieux adapter notre habitat à un environnement en mutation. Améliorer sans cesse l’isolation thermique en concevant des bâtiments toujours plus étanches dans lesquels la température et la ventilation sont pilotés de manière automatisée aboutit trop souvent à une impasse car ceux qui habitent ces logements n’ont de cesse d’ouvrir les fenêtres et d’ajouter des chauffages ou climatiseurs d’appoint pour leur confort personnel.

Peut-être est-il temps désormais de revenir à des techniques et des comportements éprouvés et moins impactant ? Adapter les ouvertures et l’orientation des façades en fonction du lieu était une règle de base pour la construction de logements en milieu méditerranéen, trop souvent oubliée des architectes modernes. Instaurer une ventilation naturelle au moyen du puits provençal traditionnel, déjà parfaitement maîtrisé à l’époque romaine, constitue aussi une solution simple et peu coûteuse. Et dormir dehors pendant les nuits les plus chaudes est une pratique très courante dans le monde entier qui mériterait peut-être d’être réhabilitée dans nos contrées ?

Lutter contre le chaud à moindre frais, un slogan pour une transition énergétique réussie ?

L. V. 

Bilan énergétique mondial : le rapport qui fait honte !

8 juillet 2018

La société de conseil et d’études Enerdata, créée en 1986 à Grenoble et spécialisée dans l’analyse des données mondiales de consommation et de production énergétique, vient de publier son dernier bilan énergétique mondial, sous le titre peu rassurant « Un pas en arrière dans la transition énergétique ? »

Un titre un rien provocateur, deux ans et demi après la COP 21 qui s’était tenue à Paris en décembre 2015 et qui avait débouché sur un accord, présenté à l’époque comme historique et de nature à contenir la hausse du réchauffement climatique mondial d’ici 2100 dans la limite des 2°C. La France venait tout juste d’adopter sa « loi de transition énergétique pour la croissance verte », un bel oxymore pour nombre d’écologistes considérant qu’il faudrait au contraire plutôt s’orienter vers un objectif de décroissance progressive. Les objectifs affichés étaient ambitieux mais, moins de trois ans plus tard, le retour à la réalité est un peu moins glorieux…

Que dit donc ce bilan énergétique mondial qui porte sur l’année 2017 ? Il n’est certes pas exhaustif puisqu’il ne prend en compte que les pays du G20 (dont l’ensemble des pays européens), mais ceux-ci représentent néanmoins 80 % des émissions planétaires de gaz à effet de serre, ce qui est donc très largement représentatif.

Le premier élément à retenir est que la croissance s’est nettement accélérée en 2017 avec un taux de croissance économique moyen de 3,7 % pour cette année alors que ce taux n’était que de 3,5 % en 2016 et de 3,1 % sur la période 2005-2015. Les effets de la crise économique mondiale de 2008 s’estompent donc et on en revient à grands pas vers le business as usual !

Evolution de la consommation d’énergie par les pays du G20 (en pourcentage de croissance annuelle) – source © Enerdata

La demande mondiale d’énergie est par conséquence en hausse très sensible, de 2,1 % en 2017 contre 1 % seulement en 2016. Du coup, bien évidemment les émissions de gaz à effet de serre, qui stagnaient depuis 3 ans et avaient même reculé de 0,5 % en 2016 après avoir progressé de 1,6 % en moyenne annuelle entre 2005 et 2015, sont reparties à la hausse avec un bond de 2,1 % en 2017, confirmant s’il en était besoin, que toutes les belles promesses de la COP 21 n’ont pas connu le moindre début de mise en œuvre…

Curieusement, et malgré les rodomontades de Donald Trump qui s’est assis sans vergogne sur le traité de Paris et a tout fait pour relancer l’activité charbonnière, les États-Unis s’en sortent honorablement avec une stabilisation de leurs émissions de gaz à effet de serre en 2017 malgré une croissance soutenue. La Chine et l’Europe ne peuvent pas en dire autant, elles dont les émissions de gaz à effet de serre ont fait un bond de respectivement 2,1 et 1,9 % en 2017 !

En décembre 2015, chacun se félicitait de l’accord de Paris à l’issue de la COP 21, mais la mise en œuvre est bien loin des engagements de l’époque… (photo © Stéphane Bouissou / MEDDE)

Avec un tel constat, on s’écarte d’autant plus des objectifs vertueux du traité de Paris qui nécessitait de réduire en moyenne jusqu’en 2050 de 2,9 % chaque année nos émissions de gaz à effet de serre. Il faudrait maintenant mettre les bouchées doubles et viser plutôt une réduction annuelle de 3,5 % mais on n’en prend manifestement pas le chemin.

Après trois années successives de déclin, la consommation de charbon est repartie de plus belle et la demande mondiale tant en électricité qu’en gaz et même en pétrole a fortement augmenté en 2017, prouvant bien que, jusqu’à présent, l’humanité ne fait pas suffisamment d’effort en vue d’opérer la véritable transition énergétique qui s’imposerait si elle voulait vraiment contenir dans les limites viables le changement climatique global comme elle s’y était engagée en 2015…

Centrale thermique à charbon de Drax, dans le Yorkshire (Royaume-Uni), produisant 7 % de l’électricité de toute l’Angleterre

Curieusement, en Europe, les bons élèves de la classe, outre le Danemark et la Finlande qui ont réussi à réduire de près de 6 % leurs émissions de CO2 entre 2016 et 2017, sont à rechercher du côté du Royaume-Uni qui a baissé ses émissions de 3,3 % sur cette même période en adoptant des mesures fortes pour accélérer sa sortie du charbon.

Inversement, les plus mauvais élèves sont des pays tels que Malte, l’Estonie ou encore le Portugal, pourtant souvent cité en exemple pour son implication dans le développement des énergies renouvelables, mais qui ont connu une augmentation de plus de 11 % de leurs émissions de gaz à effet de serre en 2017. L’Espagne et les Pays-Bas ne s’en sortent pas très bien non plus avec une hausse supérieure à 6 % sur cette même période. Quant à la France et l’Allemagne, grandes donneuses de leçon en la matière, leurs émissions ont progressé respectivement de 2,2 et 2,4 % en 2017, soit davantage que la moyenne mondiale, ce qui n’est guère reluisant…

Nicolas Hulot : un bilan pour l’instant très mitigé du plan climat engagé en juillet 2017 (photo © Fabrice Coffrini / AFP)

Le ministre Nicolas Hulot a bien dû reconnaître lui-même, en tirant le bilan de la première année de sa feuille de route, vendredi 6 juillet 2018, que les résultats étaient bien loin de ses attentes. L’objectif de ce plan, annoncé il a un an était d’atteindre la neutralité carbone d’ici 2050 avec quelques mesures phare comme l’arrêt de la vente des voitures diesel et à essence d’ici 2040 ou le passage de la part des énergies renouvelables dans le mix énergétique à 32 % d’ici 2032.

Les chiffres communiqués par le CITEPA (Centre interprofessionnel technique d’études de la pollution atmosphérique) confirment au contraire que la situation n’en finit pas de se dégrader avec notamment une augmentation des émissions dans le domaine des transports. Même si la flotte de voitures diesel diminue désormais de 70 000 unités par an, cela n’est aucunement significatif eu égard à l’importance du parc automobile qui est de 21 millions de voitures particulières en France !

Même dans le domaine de la production d’énergie, l’arrêt de plusieurs centrales nucléaires s’est traduit en 2017 par un recours accru au charbon. Or ce dernier, s’il ne participe qu’à hauteur de 2 % du mix énergétique français, représente encore 25 % des émissions de gaz à effet de serre du secteur…

Il y a donc encore bien loin de la coupe aux lèvres et la France ne peut guère, jusqu’à présent et malgré tous ses efforts de communication en la matière, s’enorgueillir d’un engagement effectif dans la voie d’une transition énergétique réelle : encore un petit effort, Messieurs les Français !

L. V. 

La Mède : la raffinerie de tous les dangers…

26 juin 2018

Mise en route en juin 1935, en bordure de l’étang de Berre, sur la commune de Châteauneuf-les-Martigues, la raffinerie de La Mède, qui n’en finit pas de faire parler d’elle, fait partie de ces monstres technologiques engendrés par notre société de consommation empêtrée dans ses contradictions et ses choix technologiques hasardeux !

Raffinerie de La Mède, en bordure de l’étang de Barre (photo © MaxPPP)

Lors de sa construction, par ce qui s’appelait alors la Compagnie française de raffinage et qui s’est fondu depuis dans le groupe pétrolier Total, la raffinerie dite alors « de Provence » était alimentée par un port pétrolier dédié, désormais désaffecté, et disposait d’une capacité de raffinage de 400 000 t de pétrole brut par an, une misère à l’aune des standards actuels, mais largement suffisant à une époque où l’automobile commençait tout juste à se démocratiser.

Le 9 novembre 1992, alors que la raffinerie de la Mède, qui emploie alors 430 personnes et dont la capacité de raffinage dépasse désormais les 6,6 millions de tonnes tourne à plein régime, malgré un état de délabrement et de vétusté sans cesse dénoncé, une forte explosion se produit à 5h20 du matin. Entendue à 30 km à la ronde, cette explosion, qui provoque l’embrasement des unités de traitement les plus proches, est suivie de plusieurs autres. Deux réservoirs d’hydrocarbure et plusieurs canalisations prennent feu, ainsi qu’un réservoir de soude usée et d’essence qui explose à son tour vers 9h50.

Vue de la salle de contrôle de la raffinerie lors de l’accident de 1992 (source DGPR / BARPI)

Il faut attendre 13h pour que les pompiers parviennent tant bien que mal à maîtriser le sinistre, laissant néanmoins plusieurs brasiers se poursuivre pour achever de brûler les gaz et réduire la pression. Le bilan est sévère puisqu’il fait état de 6 morts et un blessé grave parmi le personnel, mais aussi 37 blessés plus légers dont 2 pompiers. La raffinerie est dévastée sur au moins 2 ha et il faudra attendre 2 ans avant que son activité puisse reprendre.

Le voisinage a été sérieusement atteint avec des bris de vitres constatés dans un rayon de 1 km et, ponctuellement jusqu’à 8 km du site. Lors du procès, qui intervient en 2002, quelques mois après la catastrophe d’AZF et alors que Total Fina annonce des bénéfices records, le procureur juge accablante la responsabilité des dirigeants de Total, mais se contente de simples condamnations avec sursis.

Vue aérienne des traces de relâchement d’hydrocarbure à la raffinerie de La Mède en 2005 (source DGPR / IMPEL)

Le 7 août 2005, rebelote avec cette fois un nuage de 10 à 20 tonnes d’hydrocarbures liquides et gazeux qui s’échappent accidentellement de la raffinerie. Un vent fort pousse ce nuage vers la commune de Sausset-les-Pins, à 7 km de là, endommageant une centaine d’habitations mais évitant une nouvelle catastrophe qui se serait inévitablement produite si les vapeurs d’hydrocarbures avaient stagné sur le site à proximité des torchères… Total sera d’ailleurs lourdement condamné en 2007 pour négligence et non-respect des procédures suite à cet accident.

Et en novembre 2014, le site fait de nouveau parler de lui, suite cette fois au débordement de deux bassins d’hydrocarbures qui se déversent directement dans l’étang de Berre, souillant sa rive sud.

En avril 2015, le site est paralysé par des grèves suite à l’annonce d’un plan de restructuration qui prévoit la disparition de 180 postes, alors que les capacités de raffinage sur le sol français sont jugées excédentaires. La raffinerie de la Mède, lourdement déficitaire, est fermée par Total fin 2015 mais reconvertie afin d’y sauvegarder 250 emplois.

Il s’agit alors de transformer, d’ici mi-2018, le site en « bio-raffinerie » pour y produire 500 000 tonnes par an de biodiesel à partir d’un tiers d’huiles alimentaires usagées recyclées et de deux-tiers d’huile végétale, projet consacré par la délivrance en mars 2018 d’une autorisation préfectorale, imposant le recours à au moins 25 % d’huile recyclée.

Vue des nouvelles installations de production de bio-carburant à la raffinerie de La mède (photo © IMRE Nedim / TOTAL)

Un projet qui déclenche la fureur des associations environnementales, dont l’ONG Les amis de la Terre, qui dénonce l’importation massive, pour alimenter la raffinerie, de 300 à 400 000 t d’huile de palme par an, en provenance de Malaisie et d’Indonésie, où ces plantations industrielles de palmiers à huile se font en rognant sans cesse davantage sur les forêts tropicales primaires : pour produire de telles quantités d’huile de palme, on considère qu’il faut détruire 1500 km2 de forêt, ce qui revient à hâter d’autant plus la disparition de la faune associée, sachant qu’il faut par exemple 1 km2 de forêt pour permettre à un orang outang de survivre.

Mais curieusement, ce ne sont pas les défenseurs de l’environnement qui se sont fait le plus entendre dans ce dossier polémique à souhait, mais plutôt les agriculteurs de la FNSEA qui ont défrayé la chronique en venant manifester en juin 2018 contre ce projet, n’hésitant pas à bloquer 13 raffineries et dépôts de carburant sur toute la France.

Manifestation d’agriculteurs de la FNSEA devant la raffinerie Total La Mède, le 11 juin 2018 (photo © Jean-Paul Pelissier / Reuters)

Plus que le sort de l’orang outang et du tigre de Sumatra, ces agriculteurs chantres de l’agro-industrie, venaient en réalité défendre les intérêts des producteurs d’oléagineux, colza et tournesol en tête, qui servent aussi à produire du biodiesel. Une filière industrielle dominée par le géant de l’agro-business, la société Avril, dont le regretté patron était l’ex-président de la FNSEA, le richissime Xavier Beulin, récemment disparu. Peu connue du grand public, cette société dont le chiffre d’affaire atteint pourtant 7 milliards d’euros et qui emploie pas moins de 8200 salariés, est le premier producteur et transformateur européen d’oléagineux, un concurrent direct de Total donc, propriétaire accessoirement des marques Lessieur et Puget, mais aussi leader français de la nutrition animale et qui commercialise un quart des œufs vendus sur le territoire national…

Une petite entreprise, en pointe donc contre la déforestation en Indonésie, mais qui n’hésite pas à importer, pour son compte 200 000 t d’huile de palme chaque année, garantie « zéro déforestation », cela va de soi, car, pour des raisons économiques fort respectables, le biodiesel produit intègre une forte proportion d’huile de palme, nettement moins chère sur le marché mondial que le colza français. D’ailleurs le groupe Avril détient, selon le Canard enchaîné, 34 % des actions de la société PalmElit, leader mondial des semences de palmier à huile.

Plantations de palmiers à huile en Indonésie (photo © François de Sury / voir-et-agir CH)

Et n’allez surtout pas vous demander s’il est bien raisonnable de développer ainsi des « carburants verts » pour alimenter le réservoir de votre voiture, tandis que les terres arables nécessaires à l’alimentation humaine se dégradent à vue d’œil. Une étude récente commandée par la Commission européenne et publiée par Transport et environnement, indique qu’utiliser du biodiesel à base d’huile de palme revient à émettre trois fois plus de gaz à effet de serre que d’utiliser du diesel classique !

Encore un choix technologique manifestement soigneusement réfléchi et qui devrait nous permettre d’avancer à grande vitesse vers le mur où l’humanité ne devrait pas tarder à s’écraser en klaxonnant bien fort…

L. V.

Les tribulation d’un Groenlandais à Marseille…

15 juin 2018

Fin mai 2018 se tenait au palais du Pharo à Marseille le 97ème congrès de l’ASTEE, l’Association scientifique et technique pour l’eau et l’environnement, laquelle avait invité, en ouverture de son grand raout annuel, un soi-disant expert groenlandais venu expliquer doctement aux 400 congressistes, tous professionnels du domaine de l’eau et de la gestion des déchets, comment ses ancêtres vikings avaient dû abandonner les terres du Groenland à la fin du XVe siècle, un peu avant que Christophe Colomb ne découvre l’Amérique.

L’expert en question n’était en réalité qu’un acteur jouant le rôle d’un universitaire groenlandais, venu retracer devant un parterre d’experts français de l’eau et de l’environnement, un fait historique un peu tombé dans les oubliettes de l’Histoire mais dont le rappel ne manque pourtant pas d’intérêt en ces temps où l’on parle beaucoup de transition énergétique et d’adaptation au changement climatique.

Le Saga Siglar, copie d’un navire viking découvert au Danemark

Petit retour en arrière donc, jusqu’en l’an de grâce 983 (ou à peu près car les dates varient selon les sources). A cette date, comme le rappelle un article de Science et Avenir, un certain Erik le Rouge, débarque sur les côtes du Groenland à la tête d’un groupe de quelques centaines de Vikings en provenance de l’Islande et qui ont fait la traversée sur leurs navires aux proues sculptées de monstres marins. L’aventure n’est pas sans danger comme le relatent les sagas scandinaves puisque 11 des 25 navires de l’expédition sombrent en route.

Le « pays vert » (Green Land) où ils abordent n’est pas si verdoyant que son nom l’indique mais plutôt inhospitalier, orné d’un maigre tapis de bruyère arctique et partiellement recouvert d’une épaisse calotte glaciaire. On est alors à l’optimum climatique médiéval qui permet la survie de quelques pâturages herbeux et de saules clairsemés, aujourd’hui quasiment disparus, mais c’est quand même un territoire particulièrement rude où s’installent ces pionniers qui ne peuvent s’en remettre pour leur survie qu’à Thor, Odin ou encore Jésus puisque certains viennent depuis peu de se convertir au christianisme.

Vestiges de l’église viking de Brattahild, près de la ferme d’Erik-le-rouge

Malgré ces difficultés, les Viking fondent deux colonies distinctes, l’une au sud de l’île et l’autre à 400 km au nord, près de Nuuk, la capitale actuelle, leur population atteignant sans doute autour de 5000 individus à son apogée. Les colons scandinaves qui sont venus avec leur bétail développent un peu d’élevage. Mais les recherches archéologiques les plus récentes montrent qu’ils vivent en réalité surtout du commerce. Les bateaux vikings qui desservent régulièrement le territoire permettent d’exporter les fourrures de renards arctiques et d’ours polaires, mais surtout les défenses de morses et de narval dont l’ivoire était particulièrement prisé au Moyen-Age.

Figurines de jeu d’échec en ivoire du Groenland, retrouvées en Ecossse

En échange, les colons font venir pour leurs besoins le blé qu’ils n’arrivent pas à faire pousser sur l’île à cause de la brièveté de la période estivale, mais surtout le bois et le fer qui sont inexistants sur place. Mais malgré cette relative prospérité liée au commerce, la vie est rude d’autant que le climat est de plus en plus froid au cours du Petit âge glaciaire : à partir du milieu du XIIIe siècle, les glaciers progressent sensiblement au Groenland. Les Viking ont de plus en plus de mal à poursuivre leurs activités d’élevage et se tournent davantage, pour se nourrir, vers les produits de la mer, poissons et phoques en particulier, qui finissent par constituer 80 % de leur alimentation.

En 1367, le navire qui desservait régulièrement le Groenland fait naufrage et il ne sera pas remplacé de sitôt, laissant les colons vikings dans un isolement fatal. Il faut dire qu’entre-temps l’Europe a découvert l’ivoire des éléphants d’Afrique qui remplace avantageusement celui des morses…

Avec le refroidissement climatique, les Vikings du Groenland se retrouvent désormais confrontés à un autre groupe ethnique, les Inuits, venus du Canada pour se réfugier sur des terres plus hospitalières.

Inuit du Groenland avec ses chiens

Contrairement aux Viking, les Inuits sont parfaitement adaptés à ces terres glacées. Ils maîtrisent parfaitement la chasse hivernale au phoque, lorsqu’il s’agit de découper un trou dans la banquise, technique que les Viking ignorent et qui rend leur subsistance si précaire durant les longs hivers. Leurs igloos et leurs tentes sont nettement plus confortables que les huttes en pierres sèches où s’abritent les Vikings. Leurs kayaks légers et effilés leur donnent une extrême mobilité et en font de redoutables chasseurs et pêcheurs. Ils s’habillent de cuirs et de fourrures, beaucoup plus faciles à se procurer que les lainages des Vikings. Leurs armes sont taillées dans l’os et l’ivoire local, certes moins efficaces que celles en bois et en fer des Scandinaves, sauf que celles-ci viennent rapidement à manquer lorsque les liaisons maritimes s’espacent. Les Inuits n’ont pas besoin de tourbe ou de bois pour se chauffer et s’éclairer, préférant pour cela plutôt la graisse animale.

En kayak au milieu des icebergs

Les Vikings méprisent souverainement ces Esquimaux avec leur anorak graisseux et leurs armes rudimentaires. Ils se gardent bien de les côtoyer de trop près, ce qui ne leur permet pas de s’approprier leurs techniques de chasse et leur mode de vie. Du coup, leur isolement et leurs difficultés d’adaptation au climat local les rend particulièrement vulnérables. Contre toute attente, ce sont donc les Inuits qui prennent le dessus tandis que les Vikings finissent par disparaître. Les derniers contacts écrits avec la colonie groenlandaise datent de 1408 et il semble que la colonie se sont complètement éteinte autour des années 1450, sans qu’on sache très bien si les derniers colons survivants ont été rapatriés vers la mère patrie où s’ils sont morts sur place.

Vestiges d’une implantation viking à Gardar, dans l’Est du Groenland

La disparition des Vikings du Groenland, racontée notamment dans l’ouvrage intitulé Effondrement, publié en 2006 par Jared Diamond, est emblématique de ces situations de crise où une population a besoin de s’adapter à un monde en profonde mutation, climatique mais aussi sociale, économique, technologique. En l’occurrence, ils n’ont pas réussi à s’imposer durablement sur ce territoire arctique, malgré les exploits guerriers et la formidable expansion dont ont su faire preuve ces populations qui avaient, entre le IXe et le XIe siècle, pillé et colonisé une bonne partie de l’Europe.

Plus frustres et plus aptes à tirer profit des ressources locales, les Inuits au contraire, ont réussi à traverser les siècles et à coloniser durablement le Groenland. De là à conclure que l’adaptation au changement climatique nécessitera d’abandonner quelques-uns de nos préjugés et certains acquis de notre civilisation, voire de sacrifier une part de notre confort auquel nous sommes tant habitués, il y a un grand pas que l’on se gardera bien évidemment de franchir, quoique…

L.V. 

 

Hydrogène : le carburant de l’avenir ?

5 juin 2018

Dessin de Jiho publié dans Marianne le 1er juin 2018

Contrairement à ce que certains médias laissent parfois entendre, et malgré toutes les couleuvres qu’il a dû avaler, depuis qu’il est ministre de la transition écologique et solidaire, comme d’ailleurs tous ses prédécesseurs à ce poste, Nicolas Hulot est toujours au gouvernement… Il n’a certes pas réussi à convaincre le ministre de l’agriculture à inscrire dans la loi l’interdiction du glyphosate et il n’en est pas à sa première renonciation depuis qu’il est devenu ministre, mais gouverner en démocratie nécessite forcément des compromis

En tout cas, Nicolas Hulot vient de faire beaucoup parler de lui en annonçant vendredi 1er juin 2018 un plan ambitieux doté de 100 millions d’euros pour soutenir la production d’hydrogène décarboné, le stockage électrique et déployer des flottes de véhicules fonctionnant à l’hydrogène. « Ça fait des lustres que j’entends parler d’hydrogène, accompagné par cette phrase : « c’est bien, mais ça ne marchera jamais » ou « c’est bien, mais c’est trop cher ». Mais aujourd’hui ma raison est faite : l’hydrogène pourra jouer un rôle dans la transition énergétique », tel est le credo du ministre, expliqué aux médias dont Actu-environnement.

Loïk Le Floch-Prigent (photo © DR)

Selon lui, l’hydrogène serait un véritable « couteau suisse de la transition énergétique » et il importe donc que la France pour une fois ne passe pas à côté d’un tel enjeu technologique. Une déclaration qui a fait méchamment ricaner le toujours vert (si l’on peut dire) Loïk Le Floch-Prigent, ancien PDG de Rhône-Poulenc, d’Elf Aquitaine, de Gaz de France et de la SNCF, passé un temps par la case prison, condamné à plusieurs reprises et encore sous le coup d’une procédure judiciaire en cours, mais toujours donneur de leçon malgré tout.

Qu’en est-il donc de ce fameux hydrogène et que peut-on donc bien en attendre ? Une des pistes évoquées dans ce fameux plan dévoilé par Nicolas Hulot est de développer les véhicules fonctionnant avec des moteurs à hydrogène. Le procédé n’est pas totalement révolutionnaire puisqu’un brevet, déposé en 1799 par un certain Lebon, prévoyait déjà que son « gaz hydrogène » pourrait fournir « une force applicable à toutes espèces de machine ».

En 1970, Paul Dieges dépose à son tour un brevet concernant une modification des moteurs à combustion interne qui autorise la consommation d’hydrogène, dans le but d’en supprimer la pollution, puisque la réaction de combustion de l’hydrogène en présence d’oxygène, outre l’énergie qu’elle libère, ne rejette que de l’eau (d’où l’expression de « moteur à eau ») et en tout cas pas de CO2, ce qui est bon pour la planète ! Techniquement, l’utilisation de tels moteurs est au point et il existe déjà une voiture de série commercialisée depuis 2006, la BMW Hydrogen 7, mais vendue seulement à une centaine d’exemplaires et arrêtée depuis, tandis que des bus à hydrogène circulent déjà dans certaines villes.

Bus expérimental électrique à hydrogène testé à Cherbourg (source © projet européen CHIC)

Une autre approche permettant d’utiliser l’hydrogène comme carburant est la pile à combustible, autrement dit un moteur électrique alimenté par une pile dans laquelle le réducteur est l’hydrogène et l’oxydant l’oxygène. Un système tout simple en apparence et qui ne rejette que de l’eau, mais très coûteux dans l’état actuel de la technologie car exigeant beaucoup de platine (catalyseur) et des membranes échangeuses d’ions particulièrement sophistiquées.

Là aussi, il existe déjà des véhicules électriques commercialisés avec ce type de pile à combustible, dont la Honda Clarity, vendue en Europe depuis 2016. La société basque Pragma commercialise elle des vélos électriques fonctionnant selon ce même principe et dont les premiers exemplaires ont été mis en circulation fin 2017 à Saint-Lô, une ville qui possède déjà une flotte de 17 véhicules à hydrogène, comme l’a relaté Le Monde. Ces vélos présentent l’avantage de se recharger en 2 mn seulement alors qu’il faut 3 heures avec un vélo électrique classique et l’autonomie est de 200 km.

Vélo électrique à hydrogène en service dans la ville de Saint-Lô (photo © DR)

Que ce soit pour les moteurs à combustion directe ou pour les véhicules électriques alimentés par une pile à combustible, les difficultés liées à l’utilisation de l’hydrogène sont multiples. Un des problèmes majeurs du procédé vient du stockage de l’hydrogène et de son transport via des réseaux de distribution et, plus encore, à bord d’un véhicule. L’hydrogène gazeux est en effet explosif et inflammable, ce qui incite à le transporter plutôt sous forme liquide, mais sa liquéfaction à basse température consomme beaucoup d’énergie… D’autres solutions sont donc testées, y compris la cryo-compression ou des réservoirs gazeux sous forte pression, mais le sujet n’est pas si simple !

Une autre difficulté provient de la fabrication de l’hydrogène nécessaire, lequel est pour l’instant essentiellement produit par transformation soit par gazéification du charbon soit par vaporeformage du gaz naturel, principalement composé de méthane : au-delà de 700 °C et sous forte pression, la vapeur d’eau réagit avec le méthane pour donner de l’hydrogène. Mais cette réaction libère également de grosses quantités de CO2 (13 tonnes pour 1 t d’hydrogène produit !), ce qui n’est guère favorable pour notre environnement. C’est la raison pour laquelle le plan Hulot insiste sur la nécessité de développer des filières de production d’hydrogène décarboné, issu non pas des hydrocarbures mais obtenus soit à partir de biogaz produits par méthanisation, soit par électrolyse de l’eau en utilisant comme source d’énergie de l’électricité verte d’origine éolienne ou solaire.

Nicolas Hulot présentant son plan hydrogène le 1er juin 2018 (source © MTES)

Une proposition qui fait s’étrangler Loïk Le Floch-Prigent dans l’article publié sur Atlantico. Selon lui en effet, produire de l’hydrogène par électrolyse est une hérésie car les rendements sont trop faibles et le procédé bien trop coûteux par comparaison avec la filière pétrochimique classique. Au passage, il considère que seul un régime quasi-totalitaire comme la Chine, qui ambitionne de faire rouler 50 000 véhicules électriques à hydrogène d’ici 2025, est en mesure d’imposer à sa population une telle révolution : sans coercition, point de salut face au défi du changement climatique !

Ce n’est certes pas le pari de Nicolas Hulot qui estime que la forte baisse du prix des piles à combustible permet désormais d’envisager le développement progressif d’une production d’hydrogène par électrolyse. Dans cette hypothèse, le recours à cette filière pourrait apporter des solutions de stockage de l’électricité, en particulier dans les secteurs non desservis par le réseau national. Cela pourrait surtout permettre d’améliorer sensiblement les capacités des véhicules électriques actuels, y compris pour les poids-lourds voire pour des trains sur le réseau non électrifié.

Utopie absurde ou pari technologique audacieux ? L’avenir le dira…

L.V. 

La Russie joue les apprentis sorciers…

30 mai 2018

Le climat de la planète se réchauffe chaque jour davantage, mais c’est le cadet des soucis de la plupart des responsables politiques. Ceci est vrai aux États-Unis où Donald Trump relance à tout va l’exploitation des gaz de schiste et du charbon, tout en renonçant officiellement aux engagements pourtant minimalistes pris lors de la COP 21, mais aussi dans bien d’autres pays guère plus vertueux.

Plate-forme pétrolière au large de l’île de Sakhaline, exploitée dans le cadre d’une coopération russo-japonaise (photo © NGC Videsh LTD. / Bloomberg)

C’est le cas notamment de la Russie pourtant située dans un des secteurs les plus directement menacés par le changement climatique global, avec notamment des risques de fonte massive du permafrost aux conséquences potentiellement dévastatrices. Mais les Russes n’ont pas froid aux yeux et sont prêts à tout pour augmenter encore leur production d’hydrocarbures qui représente plus de 25 % du PIB national et couvrait en 2014 plus de la moitié du budget de l’État.

Les réserves de gaz et de pétrole situées majoritairement en Oural et dans le sud de la Sibérie étant en voie d’épuisement, c’est désormais vers le nord que se tournent les Russes qui profitent justement du réchauffement climatique global pour développer l’exploitation au nord de la Sibérie, dans les eaux arctiques, un secteur jusque-là relativement préservé du fait de la rigueur des conditions climatiques mais qui attire de plus en plus les convoitises du fait de la fonte rapide de la banquise.

Les Russes ne sont d’ailleurs pas les seuls sur le coup. Donald Trump a ainsi annoncé en début d’année, le 4 janvier 2018, l’ouverture de l’ensemble des eaux littorales américaines à l’exploitation d’hydrocarbures, en particulier au large de l’Alaska, une zone que Barak Obama avait pourtant tenté de sanctuariser. Les Norvégiens s’activent également et viennent coup sur coup de régler un vieux conflit frontalier avec la Russie pour le partage des ressources en mer de Barents, tout en se débarrassant devant les tribunaux d’une série de recours déposés par un groupe d’ONG mené par Greenpeace. Le géant pétrolier norvégien Statoil lance ainsi un projet de 5 milliards d’euros pour l’exploitation de ce nouveau champ pétrolier en mer de Barents.

Nettoyage des côtes de l’Alaska suite au naufrage de l’Exxon Valdez en 1989 (photo © Natalie Fobes / Corbis)

Même Total, pourtant réticent à se lancer dans l’exploitation pétrolière dans ces zones écologiquement très vulnérables, où le naufrage de l’Exxon Valdez en 1989, au large de l’Alaska, a laissé des traces indélébiles sur l’écosystème, n’a pas hésité à investir 20 % du projet russe gigantesque de 23 milliards d’euros, lancé en 2017 sur la presqu’île de Yamal pour l’exploitation de gaz, transporté par méthaniers brise-glace. Le projet est titanesque et a nécessité de mobiliser des dizaines de milliers d’ouvriers pour construire un port, un aéroport, une usine et des réservoirs, malgré un froid extrême. A partir de 2019, il devrait livrer 16,5 millions de tonnes de méthane par an et devrait être prolongé à partir de 2022 par un second site d’exploitation du nom d’Arctique 2.

Usine en construction sur le site de la péninsule de Yamal en Sibérie (photo © Novatek)

La fonte des glaces dans l’océan arctique rend en effet de plus en plus accessible cette route maritime du nord-est par laquelle la Russie peut désormais exporter une partie croissante de sa production directement vers la Chine et l’Asie du sud-est, n’hésitant pas à rouvrir d’anciennes bases militaires désaffectées pour sécuriser ce trafic maritime croissant tandis que la Chine voit d’un très bon œil le développement de cette nouvelle voie plus courte vers ses clients et fournisseurs : une des nouvelles routes de la soie passe désormais par le pôle nord…

Capture d’écran d’une vidéo diffusée par Greenpeace alertant sur la fonte record de la banquise en Arctique (source © Goddard Space Flight Center/NASA)

Mais l’Extrême-Orient russe est aussi une zone de forte convoitise pour l’exploitation d’hydrocarbures et, là encore, les Russes ne reculent devant rien pour aller y développer leurs forages pétroliers. On a vu ainsi tout récemment, le 19 mai 2018, s’amarrer dans le port de Moumansk, une gigantesque barge flottante de 144 m de long et 30 m de large, de couleur marron et moutarde, l’Akademik Lomonossov, remorquée depuis le port de Saint-Petersbourg où elle avait été construite.

La centrale nucléaire flottante amarrée dans le port de Mourmansk (photo © Alexander Nemenov / AFP)

Cet immense bloc flottant qui pèse pas moins de 21 000 tonnes, n’est en fait rien d’autre qu’une centrale nucléaire destinée à être guidée en 2019 jusque dans le port de Pevek, dans le district autonome de Tchoukotka, à 350 km au nord du cercle arctique, justement pour approvisionner en énergie, non seulement la petite ville elle-même et ses 5000 habitants, mais surtout les nombreuses plates-formes pétrolières installées au large.

Les pays riverains s’étaient opposés à ce que la centrale flottante soit chargée en combustible radioactif sur son lieu de construction mais le chargement est bel et bien prévu à Mourmansk, et c’est donc bien une centrale nucléaire flottante en activité qui va ainsi être remorquée sur des milliers de kilomètres dans un écosystème particulièrement fragile et dans des conditions de navigation difficiles.

Route maritime entre Mourmansk (à l’ouest) et Pevek (à l’est) au nord de la Sibérie (source © William Dunlap / Université de Durham)

Le conglomérat public nucléaire russe Rosatom, qui a construit cette centrale comportant deux réacteurs nucléaires de 35 MW chacun, se vante d’avoir réalisé une première mondiale et considère que cette technologie des centrales nucléaires mobiles, à laquelle s’intéressent également les Chinois, est appelée à se développer. A écouter la propagande officielle de Rosatom, « cette installation dispose des systèmes de sécurité les plus modernes et devrait être l’une des installations nucléaires les plus sûres au monde ». Elle devrait même permettre d’économiser près de 50 000 tonnes de CO2 chaque année, en évitant d’avoir recours aux hydrocarbures voire au charbon pour assurer cette alimentation en énergie.

Une véritable prouesse technologie donc, qui laisse en effet sans voix, à l’exception de quelques militants associatifs de Greenpeace, toujours soupçonneux, qui voient dans cette centrale nucléaire hors-normes – allez savoir pourquoi ? – un « Titanic nucléaire » voire un « Tchernobyl sur glace ». Certains ont vraiment l’esprit mal tourné…

L.V. 

Le mirage de la mer à boire…

14 mai 2018

Dessaler l’eau de mer pour satisfaire nos besoins en eau douce : la solution technique paraît séduisante pour faire face à la raréfaction des ressources en eau douce, menacées par les épisodes de sécheresse et contaminées par les pollutions. Sachant que les océans recouvrent 70 % de la surface du globe terrestre, l’eau de mer apparaît pour beaucoup comme une ressource inépuisable. La transformer en eau potable après élimination de ses sels minéraux pourrait donc constituer, aux yeux de nombreux responsables politiques, une solution d’avenir à généraliser.

Usine de dessalement de l’eau de mer de Fujairah aux Émirats arabes unis (source © Suez)

En apparence, la solution technique n’est pas compliquée et les marins grecs la mettaient déjà en œuvre dans l’Antiquité en appliquant une recette concoctée par Aristote et qui consiste simplement à chauffer l’eau et à récupérer par condensation la vapeur ainsi émise. C’est le principe de la distillation, utilisé dans la marine de manière industrielle dès le XIXème siècle.

Depuis, il a fait naturellement l’objet de multiples améliorations techniques, avec notamment le développement de la vaporisation multi-flash qui consiste à faire passer l’eau, initialement chauffée sous pression, dans des enceintes à pression de plus en plus réduite qui entraînent sa vaporisation quasi instantanée. C’est ce type de procédé qui est notamment employé à grande échelle dans les pays du Golfe où l’énergie à base d’hydrocarbures ne coûte pas très cher.

Vue de la plus grande usine de dessalement de l’eau de mer fonctionnant en Europe, près de Barcelone

Car – est-il besoin de le préciser ? – l’opération est particulièrement gourmande en énergie. Certes, dans nombre de pays, comme le Qatar, qui recourt massivement au dessalement de l’eau de mer pour son approvisionnement en eau potable, l’eau est distribuée gratuitement et son prix de revient n’est donc pas considéré comme un problème. Ce qui explique d’ailleurs qu’un Qatari consomme en moyenne 1200 litres d’eau par jour, là où un Allemand n’en utilise que 95 litres !

L’usine de dessalement de l’eau de mer construite en 2010 à Hadera, au nord de Tel-Aviv en Israël

Heureusement, la technique a fait de nombreux progrès en la matière et on a de plus en plus recours à d’autres procédés nettement moins énergivores comme celui de l’osmose inverse. Là encore, le principe est simple puisqu’il consiste en une ultrafiltration sous pression à travers une membrane poreuse semi-perméable qui retient les sels. C’est cette technique qui est notamment utilisée couramment en Israël où près de 70 % de l’eau consommée par les particuliers provient du dessalement de l’eau de mer.

Pour autant, même avec ce type de procédé, dessaler l’eau de mer consomme encore cinq fois plus d’énergie que les usines de traitement d’eau douce classiques. Certes, on développe désormais de plus en plus d’installations de dessalement alimentées par des énergies renouvelables, comme c’est le cas par exemple sur l’île d’El Hierro aux Canaries, où trois usines fonctionnent grâce à l’énergie éolienne ou hydraulique et on commence à exploiter, pour l’instant à titre expérimental, des systèmes de distillation à four solaire.

Principe de fonctionnement de l’alimentation électrique d’une station de dessalement d’eau de mer sur l’île El Hierro, aux Canaries (source © Futura Sciences)

Mais tout cela ne résout pas le problème majeur qui est celui des rejets : la saumure concentrée et les produits destinés à limiter l’entartrage des installations, sont purement et simplement rejetés en mer où ils s’avèrent particulièrement néfastes pour le milieu naturel, surtout dans une mer fermée comme l’est la Méditerranée. Poussé à l’extrême, le principe consiste à augmenter sans cesse la salinité de l’eau laissée en mer, alors que cette salinité, qui est en moyenne de 35 g/l dans les océans atteint déjà 39 à 40 g/l en Méditerranée, 42 g/l dans le Golfe Persique et dépasse 50 g/l dans la Mer Rouge.

Sans aller jusqu’à prétendre, bien évidemment, que c’est à cause des usines de dessalement que l’eau de mer est salée, il n’en reste pas moins que les impacts environnementaux des rejets de ces installations apparaissent comme des plus préoccupants, en particulier sur les fonds marins où la saumure se dépose et perturbe non seulement la vie benthique mais aussi les courants marins.

Là aussi, les ingénieurs ne manquent pas d’imagination pour rechercher des solutions techniques. C’est ainsi qu’un cabinet canadien a imaginé, dans le cadre d’un appel à projet pour la production d’eau potable à Santa Monica, en Californie, une construction en forme de gros cigare posé à quelques encablures de la côte et qui devrait permettre de produire, grâce à l’énergie solaire, 4,5 millions de m3 d’eau potable par an tout en rejetant les saumures dans un bassin central à usage thermal : de quoi faire d’une pierre deux coups…

Maquette du projet The Pipe destiné à dessaler l’eau de mer près de Santa Monica en Californie (source © Khalili Engineers – Land Art Generator Initiative Design)

Mais l’on se rend compte aussi que l’alimentation en eau potable à partir d’eau de mer dessalée peut être à l’origine de carences graves en magnésium et en iode, comme c’est déjà le cas en Israël. Il faut donc rajouter ces éléments dans l’eau douce après s’être évertué à les enlever de l’eau de mer, ce qui du coup rend le procédé encore moins économique.

Globalement, le dessalement de l’eau de mer reste en tout cas un procédé coûteux qui n’est envisagé que faute d’alternative plus simple permettant d’exploiter les eaux de surface ou les nappes souterraines. Pourtant, on constate que certains pays n’hésitent pas à utiliser de l’eau dessalée y compris pour l’irrigation agricole. C’est le cas désormais en Espagne où, dès 2006, 40 % de l’eau produite par dessalement était en fait destinée à la production de tomates sous serres, en particulier dans la région d’Alméria.

Serres de cultures intensives près d’Alméria, alimentée à l’eau de mer dessalée (source © Ecotoxicologie)

Une telle situation paraît aberrante mais répond à une logique purement économique : cette production d’eau douce est indispensable pour répondre à l’afflux saisonnier de touristes dans une région où l’aridité du climat rend les ressources en eau douce trop rares, et le meilleur moyen de rentabiliser de tels investissements est de les faire fonctionner toute l’année en approvisionnant les agriculteurs pour la production maraîchère de contre-saison qui permet d’inonder tout le marché européen à bas coût.

Pas sûr que cette démarche soit la plus rationnelle en termes d’exploitation raisonnée et durable des ressources naturelles, mais dans le domaine de l’alimentation en eau, comme dans beaucoup d’autres, ce sont bien souvent d’autres critères qui dictent les investisseurs économiques…

L.V. 

Sous les ponts d’Ispahan coule…plus rien !

11 avril 2018

Vue de la ville d’Ispahan et de la rivière Zayandeh

La ville d’Ispahan, troisième d’Iran par sa population, avec plus de 2 millions d’habitants, fait partie de ces grandes métropoles urbaines qui se sont développées autour d’un cours d’eau, en l’occurrence le Zayandeh Rud, « le fleuve qui donne la vie » en persan. Prenant sa source dans les Monts Zagros, ce cours d’eau, l’un des rares permanents du pays, parcourt plus de 400 km avant de se jeter dans le lac Gavkhuni, un grand lac salé saisonnier perdu dans le désert.

Le madi Farshadi, canal d’irrigation destiné à répartir l’eau du Zayandeh

Située à plus de 1500 m d’altitude sur le plateau iranien aride, la ville est une oasis où la vie n’est possible que grâce au fleuve et aux multiples canaux d’irrigation, les madis, aménagés dès le 17e siècle qui distribuent l’eau à travers toute la ville et ses environs, y compris dans chaque maison organisée traditionnellement autour d’un patio intérieur cultivé et arboré. Avec une pluviométrie moyenne de 130 mm par an alors que l’évapotranspiration potentielle y atteint 1500 mm, aucune culture n’est en effet possible dans un tel contexte climatique sans irrigation.

C’est donc la rivière Zayandeh qui a permis à cette ville de se développer, au moins depuis le 4e siècle de notre ère puisque elle était un des centres urbains de l’empire sassanide avant la conquête musulmane, et de prospérer. C’est Malik Chah, un sultan seldjoukide qui en fait sa capitale après son accession au pouvoir en 1072.

La place meydān-e Naghsh-e Jahān au coeur de la ville d’Ispahan

Mise à sac par les troupes de Tamerlan en 1387, la ville redevient capitale à partir de 1597, à l’instigation de Chah Abbas, fondateur de la dynastie des Safavides, lequel transforme en profondeur la cité, aménageant notamment une grande place de 510 m de longueur, meydān-e Naghsh-e Jahān, une des plus grandes du monde, d’ailleurs classée au patrimoine mondial de l’humanité par l’UNESCO depuis 1979.

C’est de cette époque que date également la construction des grands ponts d’Ispahan, qui sont aujourd’hui au nombre de 11, permettant de franchir la rivière Zayandeh. Le plus ancien d’entre eux est probablement le pont Sharestan, dont les piles datent précisément de cette période sassanide entre le 3e et le 7e siècle après J.-C., mais dont les arches actuelles ont été reconstruites sous la dynastie des Seldjoukides aux alentours du 11e siècle.

Au pied du Si-o-Se Pol, l’un des plus célèbres ponts d’Ispahan, en 2002 (photo © Behrouz Mehri / AFP)

Le Si-o-Seh Pol, ou pont aux trente-trois arches, porte aussi le nom de son commanditaire Allahverdi Khan, un ministre de Chah Abbas, d’origine géorgienne, qui le fit construire vers 1608. Cet ouvrage sert non seulement pour le franchissement du cours d’eau mais a aussi une fonction de seuil, permettant de rehausser le niveau de l’eau à l’amont, pour permettre d’alimenter des prises d’eau qui irriguent les jardins de part et d’autre.

Le pont Khadju à Ispahan (photo © Kelly Cheng Travel Photography /Getty Images)

Comme le précédent, le pont Khadju, édifié cinquante ans plus tard sur les fondations d’un ouvrage préexistant, remplit également ce double office de pont et de barrage et sa structure est comparable, avec deux niveaux superposés, le second étant destiné à la promenade avec une allée centrale pour le passage des chevaux et des charrettes, et des allées latérales voûtées pour les piétons, mais aussi des cafés et des loggias permettant d’admirer le paysage. Pourvu de 23 arches, il présente une longueur totale de 133 m, pour une largeur de 12 m, ce qui en fait un ouvrage d’art remarquable pour cette période.

Ces ponts d’Ispahan, très prisés comme lieux de promenade, constituent un attrait touristique majeur. Sauf que la belle carte postale de l’eau coulant majestueusement entre les arches, formant au passage de joyeuses cascades, relève désormais du passé. Périodiquement asséchée au plus fort de l’été, la rivière Zayandeh a en effet purement et simplement disparu du paysage, ne laissant aux yeux du visiteur ébahi qu’un paysage aride de sable et de gravier ! A se demander même pourquoi l’empire perse a dépensé une telle énergie pour édifier de pareils ouvrages d’art alors que le lit de la rivière se traverse désormais à pied sec quasiment toute l’année…

Le pont Khadju dans son état actuel (source © Le site de Madeleine et Pascal)

La disparition du cours d’eau qui alimente depuis toujours la ville d’Ispahan date du début des années 2000. A l’époque, chacun accusait la sécheresse qui bien sûr n’est pas totalement étrangère au phénomène. Mais la vérité est que l’essentiel de l’eau du Zayandeh Rud est, depuis cette date, détournée en amont vers la région de Yadz qui se trouve être la ville natale de l’ancien président Mohammad Khatami.

Musée antique de l’eau à Yadz

Une ville oasis également, sans doute une des plus anciennes cités du monde puisque fondée aux alentours du troisième millénaire avant J.-C., située dans l’ancien empire des Mèdes, un des foyers de la religion zoroastrienne, puis une étape caravanière sur la Route de la Soie. Le canal qui détourne l’eau du Zarendeh vers cette zone désertique alimente d’ailleurs aussi la ville de Kerman, région natale d’un autre président, Hachemi Rafsandjani, lequel possède des champs de pistache qui en font un des premiers exportateurs du pays et pour lesquels les besoins d’irrigation sont prioritaires.

Cette disparition du fleuve détourné au profit d’autres régions alimente la colère des habitants d’Ispahan et surtout des agriculteurs de la région qui se désespèrent de voir leurs récoltes se dessécher sur pied. Plusieurs émeutes ont ainsi éclaté, les dernières datant de février 2013 selon Le Monde : les habitants du village de Varzaneh ont alors détruit les installations d’eau dans leur village, amenant les prêcheurs publics de la ville à les traiter d’« opportunistes égarés » et à les accuser de « collaboration avec l’ennemi ». La police n’a pas hésité à tirer, blessant trois manifestants avec des balles en caoutchouc, mais les habitants ont du moins obtenu, suite à ces incidents, la reconnaissance, par le procureur du tribunal révolutionnaire d’Ispahan, de la mauvaise gestion de certains anciens responsables du ministère de l’énergie dans la répartition de l’eau.

Manifestation d’agriculteurs devant le pont Khadju au centre d’Ispahan, le 7 avril 2018 (source : France Mojahedin)

De nouvelles émeutes se sont encore produites tout récemment, depuis le 16 février 2018, selon un communiqué du Conseil national de la résistance iranienne, les habitants de plusieurs quartiers périphériques d’Ispahan défilant en scandant « Rohani le menteur, où est notre rivière ? ». Le 18 mars dernier, un camion transportant des munitions a d’ailleurs pris feu alors qu’il venait ravitailler les forces spéciales anti-émeutes de la police à Varzaneh, de nouveau engagées contre les manifestations d’agriculteurs en colère.

Encore un exemple qui prouve à quel point les batailles de l’eau deviennent un enjeu majeur, surtout dans des régions en forte croissance démographique et confrontées à un climat aride pour lequel les effets du réchauffement climatique global ne vont certainement pas arranger les choses…

L.V.  

Le Bulgare et la cigogne

30 mars 2018

Décimées dans les années 1970, date à laquelle les populations de cigognes blanches avaient quasiment disparu du sol français, sous l’effet cumulé des pratiques agricoles, de la pollution, de la chasse mais aussi des épisodes de sécheresse en Afrique, ces populations d’échassiers migrateurs, désormais protégés en France depuis 1981, se sont peu à peu reconstituées.

Nids de cigognes sur les toits alsaciens

Alors qu’il ne subsistait que 11 couples nicheurs recensés sur le sol national en 1974, principalement en Alsace, les efforts menés depuis pour réintroduire l’espèce mais surtout protéger son habitat en restaurant certaines zones humides ont porté leurs fruits puisque l’on comptait en France plus de 1600 couples en 2010.

Pour autant, certaines régions d’Europe orientale restent nettement plus attractives pour ces oiseaux migrateurs que l’on voit arriver au printemps et repartir à l’automne pour leur migration africaine. Ainsi, on estime que plus de 50 000 cigognes, soit 20 % de la population mondiale connue, passent l’été en Pologne. Sciences et Avenir cite ainsi en exemple le petit hameau de Zywkowo situé à l’extrême nord du territoire polonais, tout près de l’enclave russe de Kaliningrad : dans les années 1960, on y dénombrait 120 habitants et 20 cigognes, mais désormais les chiffres se sont inversés et les rares habitants restés sur place consacrent tout leur temps à entretenir les mares et installer des plateformes sur leur toit pour faciliter l’accueil de ces migrateurs africains.

Nid de cigognes à Zywkowo en Pologne (source © Sciences et Avenir)

Et la Pologne n’est pas le seul pays d’Europe de l’Est à se montrer aussi accueillant envers ces populations émigrées, malgré les dérives nationalistes de ses responsables politiques. C’est une dépêche de l’AFP, relayées par plusieurs médias dont le Point, qui s’en est fait récemment l’écho : en Bulgarie, les premières cigognes arrivées en mars en pleine vague de froid polaire, se sont retrouvées littéralement congelées et ont dû être secourues par les habitants du cru.

Safet Halil, un employé de voirie quinquagénaire de Zarista, au nord-est de la Bulgarie, s’est ainsi distingué en recueillant au bord de la route cinq cigognes blanches aux ailes gelées. Il les a transportées dans sa demeure, par ailleurs fort modeste, a allumé le poêle pour les réchauffer et leur a acheté du poisson. Deux jours plus tard, les cigognes étaient toujours installées dans leur foyer d’hébergement provisoire, profitant de l’hospitalité du Bulgare au grand cœur avec qui elles avaient manifestement sympathisé, poussant même la familiarité jusqu’à lui donner quelques coups de bec amicaux.

Safet Halil et les cigognes qu’il héberge à domicile (photo © Dimitar Dilkoff / AFP)

Et le cas n’est pas isolé puisqu’une quarantaine d’habitants de la région l’auraient imité, récupérant de nombreuses cigognes en détresse du fait de la vague de froid et des chutes de neige qui ont sévi toute la semaine dernière dans ce secteur. Mises à l’abri dans des garages et des hangars agricoles, nombre de cigognes ont ainsi pu être sauvées. Une situation peu courante et qui a suscité de nombreux échanges sur les réseaux sociaux dans un pays où la population de cigognes est en hausse puisque le dernier recensement effectué en 2016 fait état de plus de 6000 de ces volatiles soit 1000 de plus qu’en 2010 : un afflux migratoire sans précédent mais dont les Bulgares se réjouissent.

Puissent tous les populations de migrants en provenance de régions africaines bénéficier d’un accueil aussi chaleureux dans nos contrées…

L.V. 

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

Biomasse bois : 3 projets retenus en PACA

3 mars 2018

Le bois, source renouvelable d’énergie (photo © Frédéric Douard)

C’est un communiqué du Ministère de la transition écologique et solidaire qui l’a annoncé, le 28 février 2018 : la deuxième tranche de l’appel à projets lancé en vue de soutenir, via un complément de rémunération, des projets de développement d’unités de production de biomasse, a retenu 11 projets dont trois qui se situent en région PACA : un beau succès pour le développement de la production énergétique à partir de la biomasse forestière dans notre région !

La première tranche de cet appel à projets lancé en février 2016 visait explicitement à encourager à la fois les projets de méthanisation, autrement dit la production de biogaz à partir de déchets ou de matière végétale brute, mais aussi la production directe d’électricité à partir de la combustion du bois. Ce développement de la biomasse en France est une nécessité comme l’affirme Nicolas Hulot : « La France a voté en décembre dernier une loi mettant fin à la recherche et à l’exploitation des hydrocarbures sur tout notre territoire. En parallèle, notre pays doit monter en puissance sur le développement des énergies renouvelables pour répondre aux objectifs fixés dans le Plan climat. Les projets annoncés aujourd’hui répondent à cette ambition de soutenir des filières créatrices d’emplois ».

Stock de copeaux de bois destinés à la filière bois énergie (photo © Richard Mayer / La Gazette)

A l’échelle mondiale, on estime que l’électricité produite à partir de la biomasse représente de l’ordre de 58 GW mais que cette puissance pourrait atteindre 86 GW d’ici 2021, ce qui représente un potentiel de croissance remarquable. En France, c’est moins de 1 % de l’électricité produite qui provient de la biomasse, même si cette fillière représentait déjà en 2014 de l’ordre de 7,5 % de la production d’électricité d’origine renouvelable (loin derrière l’hydroélectricité et l’éolien, mais devant le solaire néanmoins).

Le principe de la filière bois-énergie est des plus simples puisqu’il se limite à faire brûler le bois pour chauffer de l’eau et produire de la vapeur qui actionnera une turbine comme dans n’importe quelle centrale électrique. Il faut environ 4 tonnes de bois pour produire autant d’électricité qu’avec une tonne de pétrole, mais le CO2 qui est relâché dans l’atmosphère à cette occasion correspond à la seule quantité qui a été séquestrée durant la croissance des arbres, d’où un bilan neutre en termes d’émission de gaz à effet de serre, contrairement à ce qui se passe via l’utilisation d’un combustible fossile.

Digesteur à méthanisation de Marnay Energie à Feux dans le Cher, construite par Xergi (photo © Xergi)

Dans le cadre de la méthanisation, le procédé est plus complexe puisqu’on récupère d’abord le biogaz issu de la fermentation de la matière organique utilisée (déchets organiques, résidus végétaux, boues issues de stations d’épuration, ou déchets provenant de certaines activités agro-industrielles) et que c’est ce biogaz qui sert ensuite soit pour produire de l’électricité soit pour se chauffer.

Toujours est-il que l’on est désormais rentré dans un véritable processus visant à encourager ce type de production en France et cet appel à projets du ministère y contribue. Ce sont en effet 45 dossiers de candidatures qui ont été reçus à l’occasion de cette seconde tranche de l’appel à projet, sachant que la troisième tranche sera ouverte à compter du 29 juin 2018 et devrait permettre de sélectionner encore de nouveaux projets industiels.

Le ministre Nicolas Hulot visitant la plateforme expérimentale Gaya à Saint-Fons (production de biométhane à partie de biomasse sèche) le 26 juillet 2017 (photo © ENGIE)

Sur les 11 projets ainsi retenus, 2 correspondent à des installations de méthanisation prévues respectivement en Bretagne et dans le Médoc. Tous les autres sont des projet bois-énergie pour des puissances installées unitaires supérieures à 300 kW, l’ensemble des projets totalisant une puissance globale installée de près de 53 MW (à comparer avec une tranche de réacteur nucléaire de type Fessenheim dont la puissance nominale est de 900 MW).

La plus ambitieuse de ces installations est justement prévue dans les Bouches-du-Rhône, à Tarascon, portée par la société marseillaise Bio-Watt, pour une puissance totale de 25 MW. Les deux autres projets implantés en région PACA sont d’ampleur nettement plus limitée avec des puissances visées oscillant entre 1MW pour le projet de Campus SAG Sud Luberon à Villelaure, dans le Vaucluse, et 1,2 MW pour celui porté par la société Pérénia à Clans, une commune forestière située dans la vallée de la Tinée, dans les Alpes-Maritimes.

Ces désignations interviennent alors que le projet de plus grande centrale biomasse de France prévu à Gardanne, porté initialement par le groupe énergétique allemand E.ON puis repris par sa filiale, la société Uniper France Power, continue à faire polémique. Pour rappel, le Tribunal administratif de Marseille avait annulé le 8 juin 2017 l’autorisation d’exploitation accordée par l’État en 2012, au motif que l’étude d’impact n’analysait pas « les effets négatifs indirects et permanents du projet sur les espaces forestiers de la zone d’approvisionnement » de la centrale, située dans un rayon de 400 km.

Vue de l’unité de la centrale thermique de Provence, à Gardanne destinée à produire de l’électricité à partir de la biomasse (photo © Serge Guéroult / La Provence)

Il faut dire que le projet était particulièrement ambitieux, voire totalement démesuré pour ses détracteurs qui évoquent « un véritable aspirateur à forêts » destiné à raser les châtaigneraies des Cévennes et à faire disparaître toute la forêt méditerranéenne… Il consistait à transformer, moyennant un investissement de 265 millions d’euros, la tranche 4 de l’ancienne centrale à lignite de Gardanne, en une vaste centrale à biomasse, d’une puissance de 150 MW (soit 6 % de la consommation totale de la région PACA), capable de brûler d’ici 2024, 850 000 tonnes de bois par an, dont 445 000 tonnes provenant de boisements locaux, le reste étant a priri constitué de déchets verts et de bois recyclé.

Les deux parcs naturels régionaux du Luberon et du Verdon sont vent debout contre ce projet de centrale à biomasse, au grand dam du Président de la Région, Renaud Muselier, qui menace du coup de leur couper les vivres, estimant dans un communiqué que « l’écologie doit être mise au service de l’économie pour faire de la croissance verte un atout ». Mettre l’écologie au service de l’économie, les écologistes apprécieront certainement…

En juillet 2017, Nicolas Hulot a malgré tout décidé de faire appel du jugement du Tribunal administratif. Quant aux parcs naturels régionaux, ils ont fini par rentrer dans le rang. Comme l’a raconté Reporterre, le 29 septembre dernier, les deux PNR réunis à Valensole ont accepté de signer un protocole d’accord avec Uniper, décidant de l’abandon de leurs poursuites devant le Tribunal administratif et de l’accompagnement de la nouvelle étude d’impact qui s’est du coup déroulé fin 2017 dans la plus grande discrétion. L’association France Nature Environnement PACA, elle-même très opposée au projet a aussi rendu les armes, effrayée par les baisses de subvention annoncées par la Région. Un passage en force donc et qui a déjà permis à l’unité de biomasse de produire 250 MWh au cours de 2200 heures de fonctionnement accumulés pendant les phases d’essais en 2017.

Pour l’instant, 55 % de la ressource utilisée à Gardanne est importée, pour l’essentiel de plantations d’eucalyptus situées en Espagne et au Brésil, 20 % étant issu de la production forestière locale, le reste provenant de déchets de récupération et de bois en fin de vie. Un progrès sans doute par rapport au charbon qui alimentait jusque là cette centrale thermique, l’une des 4 dernières encore en activité dans l’hexagone, mais qui est encore loi d’apaiser toutes les craintes des défenseurs locaux de l’environnement !

L.V.  

La voiture électrique est-elle écologique ?

1 mars 2018

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V.