Posts Tagged ‘changement climatique’

Japon : l’été meurtrier…

8 septembre 2018

En 2018, comme d’ailleurs en 2017, la Terre a encore battu des records de chaleurs. En France, ces deux étés successifs se classent d’ailleurs comme les deux les plus chauds jamais enregistrés, avec du 1er juin au 31 août 2018, une température journalière moyenne supérieure de 3,2 °C par rapport aux normales saisonnières, de quoi peut-être convaincre, s’il en reste, les derniers climato-sceptiques quant à la réalité du réchauffement climatique global…

Dans l’Ouest américain, où de gigantesques incendies de forêts, une fois de plus, ont semé la mort et la désolation, on a enregistré la température record de 52,9 °C le 27 juillet 2018 dans la Vallée de la Mort qui n’a sans doute jamais aussi bien porté son nom. Même au Québec, une petite semaine de canicule, début juillet, a fait pas moins de 70 morts !

Le Japon quant à lui, a été particulièrement touché par cette vague de chaleur intense qui a sévi dans le pays entre avril et août. Des records de température y ont été atteints, le thermomètre étant monté jusqu’à 41,1 °C le 23 juillet dans la ville de Kumagaya. Ce sont pas moins de 125 morts dus à cette canicule qui ont été dénombrés dans le pays, dont une centaine pour la seule ville de Tokyo où on a même vu la nourriture factice exposée dans les vitrines des restaurants se liquéfier du fait de la chaleur.

Voitures piégées dans la boue après les inondations à Saka, le 8 juillet 2018 (photo © Martin Bureau / AFP)

Mais ce n’est pas tout puisque cette vague de chaleur meurtrière est elle-même venue s’intercaler entre deux épisodes de pluies exceptionnelles qui ont fait de gros dégâts dans le pays. Le 8 juillet 2018, selon Le Monde, le premier ministre japonais déclarait ainsi à l’issue d’une réunion de crise après 4 jours de pluies torrentielles qui s’étaient abattues sur plusieurs régions du pays : « Les secours, le sauvetage de vies et les évacuations sont une course contre la montre ».

Plus de 100 000 personnes avaient dû être évacuées en catastrophe, environ 75 000 secouristes mobilisés en toute urgence et au moins 220 morts ont été dénombrés, emportés par les flots boueux ou ensevelis sous leur maison effondrée sous l’effet du ruissellement torrentiel ou de multiples glissements de terrain.

Maison effondrée à Kumano en bord de cours d’eau, le 9 juillet 2018 (photo © Martin Bureau / AFP)

Un terrible bilan humain et matériel donc pour un pays, certes particulièrement exposé aux risques naturels, mais dont les constructions, souvent en bois et implantées dans des secteurs au relief accidenté, se sont révélées finalement assez vulnérables, malgré une forte culture de la prévention du risque.

Et ce n’est pas fini puisque, sitôt la vague de canicule terminée, le Japon a essuyé un des plus terribles cyclones de son histoire, sans précédent depuis 25 ans, le typhon Jebi, qui a ravagé l’île de Honshu le 4 septembre 2018, avec des vents soufflant jusqu’à plus de 220 km/h en rafale. Ce n’était que la 21ème  tempête tropicale de la saison, mais celle-ci n’a pas fait dans le détail, obligeant les autorités à lancer des ordres d’évacuation à l’attention de plus de 300 000 habitants.

Un camion renversé par le vent sur le pont de Seto-Ohashi, entre les îles japonaises de Honshu et Shikoku, le 4 septembre 2018 (photo © Jiji Press / Kagawa Prefectural Police / AFP)

Les vidéos disponibles sont particulièrement spectaculaires, montrant des véhicules soufflés comme des fétus de paille. Plus de 1,2 millions de foyers ont été privés d’électricité, 650 vols ont dû être annulés et au moins 11 personnes ont péri durant cet événement qui a fait de très nombreux blessés et de gros dégâts matériels. Un pétrolier est ainsi venu s’encastrer dans le pont reliant l’aéroport international de Kansai qui est lui-même fortement endommagé et a dû être provisoirement fermé.

Tanker encastré contre le pont reliant Kansai International Airport à la terre ferme, à la suite du typhon Jebi (photo © Yasufumi Nagao / AP / SIPA)

Et 48 heures seulement après ce terrible coup du sort, l’île d’Hokkaido, au nord du Japon, était à son tour victime d’un terrible séisme, provoquant de multiples glissements de terrain, causant la mort d’au moins 9 personnes et en blessant 300 autres.

Nombreux glissements de terrain provoqués par le séisme le 6 septembre 2019, à Atsuma sur l’île d’Hokkaïdo (photo © JIJI PRESS / AFP)

Un bilan relativement modeste au vu de la violence de l’événement, ce qui confirme une nouvelle fois la bonne préparation de ce pays face au risque sismique, même si chacun a encore en tête les images terribles du tremblement de terre de 2011 qui avait fait environ 18 000 victimes, 80 % d’entre elles étant décédées non pas des effets directs du mouvement sismique mais du fait du tsunami qui avait ensuite ravagé les côtes nippones, mettant à mal au passage les installations de la centrale nucléaire de Fukushima.

En tout cas, avec une telle succession de catastrophes naturelles en un laps de temps aussi court, le Japon confirme s’il en était besoin son exposition particulièrement élevée face aux risques naturels. L’institut pour l’environnement et la sécurité humaine des Nations unies (UNU-EHS), qui publie chaque année son palmarès selon un indice d’exposition aux catastrophes naturelles, classe d’ailleurs ce pays parmi les plus exposés, derrière les Philippines, le Bengladesh ou le Guatemala… Depuis l’an dernier, outre la canicule, le séisme, l’inondation et le typhon de cet été, le Japon a ainsi subi 4 autres catastrophes naturelles majeures enregistrées par le Centre for Research on the Epidemiology of Disasters : qui dit mieux ?

L. V.

Publicités

Archéologie : les bienfaits de la sécheresse

19 août 2018

A Londres, des températures anormalement élevés depuis le mois de mai 2018 (photo © John Stillwell / PA Wire)

Le début de l’été a été chaud au Royaume-Uni cette année. Et pas seulement parce que les esprits s’échauffent quant aux modalités de sortie de l’Union européenne… Au point d’ailleurs, comme le relevait le Huffington Post, le 23 juillet dernier, que PaddyPower, l’un des plus grands opérateurs britanniques de paris sportifs, s’interroge : qui de cette interminable vague de chaleur ou de la Première ministre Theresa May, embourbée dans le dossier du Brexit, jettera l’éponge la première ?

Il n’est tombé que moins de 50 mm de pluie en Angleterre entre le 1er juin et le 16 juillet, du jamais vu depuis le début des enregistrements de données météorologiques, et les températures ont atteint des sommets pendant tout le mois de juillet, comme d’ailleurs dans tout le nord de l’Europe.

Un feu de broussailles inhabituel dans l’est londonien, le 15 juillet 2018 (source @MPSCannHall)

On a même vu l’herbe jaunir à Hyde Park, un crime de lèse-majesté, et il a fallu mobiliser plus de 200 pompiers pour venir à bout d’un feu de broussailles tout à fait inhabituel qui a ravagé près de 100 hectares au nord-est de Londres le 15 juillet dernier…

Les agriculteurs britanniques se font des cheveux blancs en voyant leurs cultures sécher sur pied face à une canicule d’une telle ampleur, mais les archéologues, eux se frottent les mains ! Rarement en effet les conditions n’ont été aussi favorables pour observer, depuis le ciel, les « marques de cultures » qui révèlent la présence, au milieu des prés ou des champs, de vestiges historiques même profondément enfouis et indétectables depuis le sol.

D’anciennes fondations, même totalement arasées au fil du temps et recouvertes d’une épaisse couche de limons et de terre végétale, surgissent ainsi du passé car les racines ne peuvent s’y développer aussi profondément qu’alentours, si bien que les plantes y jaunissent plus précocement en cas de conditions climatiques particulièrement sévères. Inversement, d’ancien fossés, depuis bien longtemps remblayés et dont il ne subsiste aucun vestige en surface, offrent à la végétation un surcroit de réserve d’humidité en profondeur, si bien que l’herbe y apparaitra plus verte lors d’une période de sécheresse. Des contrastes parfois très nets sur les photographies aériennes, et qui permettent de mettre en évidence des restes d’aménagements historiques invisibles sinon.

Schéma de principe des marques de culture laissées par la superposition dans le temps d’une ferme gallo-romaine sur le site d’une ancienne implantation de l’âge du fer, entourée d’un fossé circulaire (infographie © Historic England)

Les plus anciens se souviennent avec nostalgie des conditions météorologiques exceptionnelles de l’année 1976 qui avait déjà été marquée par son lot de belles découvertes, ou celles, plus récentes, de l’été 2011, au cours duquel plus de 1500 sites archéologiques avaient ainsi été découverts, principalement dans les terrains argileux de l’Est de l’Angleterre, ainsi que l’explique un responsable d’Historic England, l’organisme public en charge de la conservation du patrimoine historique britannique.

Du coup, les archéologues d’Outre-Manche ont mobilisé tout ce qui vole, bien aidé en cela par le développement des drones qui permettent d’obtenir facilement et à moindre frais des photographies aériennes de bonne qualité. Et les résultats sont à la hauteur des espérances les plus folles !

Vue aérienne des vestiges de cromlech découverts cet été en Irlande (photo © Anthony Murphy / Mythical Ireland / Twitter)

C’est ainsi que le 10 juillet 2018, deux photographes passionnés d’archéologie, Antony Murphy, fondateur du site Mythical Ireland, et Ken Williams, qui anime le blog Shadows & stone, ont mis en lumière, grâce à des survols de drone au-dessus du site de Newgrange, connu pour ses nombreux vestiges préhistoriques dans la région du Brú na Bóinne, à 50 km au nord de Dublin, un immense cromlech inconnu, un ancien cercle de menhirs de près de 200 m de diamètre, datant probablement de l’âge du bronze et totalement invisible au sol, au beau milieu d’un champ de blé. La nouvelle a vite fait le tour du monde, reprise en boucle par de nombreux médias enthousiastes.

Mais les découvertes de ce type se sont multipliés tout au long de l’été. Toujours en Irlande, les vestiges d’une ancienne garnison ont ainsi été identifiés dans un champ, à Magor, dans le sud du pays, tandis que les traces d’une ancienne ferme datant probablement de la préhistoire ont été repérés près de Newport au Pays de Galle. En Angleterre, plusieurs sites funéraires préhistoriques, ainsi que l’emplacement de deux monuments probablement érigés à l’époque néolithique, entre 3600 et 3000 avant JC, ont également été identifiés près de la ville de Milton Keynes, à une centaine de kilomètres au nord de Londres.

Vue aérienne révélant des vestiges préhistoriques de monuments funéraires et de fondations près d’Eynsham, dans l’Oxfordshire (photo © Historic England)

Une douzaine de vestiges d’habitations de forme ronde remontant à l’âge de fer, ainsi que des restes de l’âge de bronze ont aussi été observés en Cornouailles, au sud-ouest de l’Angleterre. Dans le Yorkshire, ce sont des tombes datant de l’âge du fer qui ont ainsi été repérées durant l’été par des survols aériens, tandis que dans le Suffolk, c’est un cimetière préhistorique qui a pu être ainsi retrouvé.

La liste des découvertes archéologiques inédites réalisées durant cet été de folie est longue. Elle intéresse même des périodes historiques plus récentes avec une visualisation très nette de l’aménagement des jardins et de certains bâtiments désormais disparus à Tixall Hall, dans le Staffordshire, une ancienne maison de campagne de la reine Elisabeth, construite en 1555, et de même à Gawthorpe Hall, une autre demeure élisabéthaine située dans le Lancashire.

Traces d’anciens bâtiments détruits à Tixall Hall (photo © Historic England)

Dans le Nottinghamshire, à Clumber Park, ce sont les traces d’un ancien manoir datant du 18ème siècle qui sont apparues alors que le bâtiment avait été entièrement détruit en 1938. Même d’anciens aérodromes datant de la Seconde Guerre mondiale ont été rendus visibles, notamment dans le Hampshire, où l’ancien aérodrome de Lasham, utilisé par la Royal Air Force entre 1942 et 1945, est désormais parfaitement repérable depuis le ciel, tandis que des traces d’anciens abris anti-aériens ont refait surface, notamment à Cambridge.

Pour les archéologues, cette fenêtre de tir très particulière les incite à mettre les bouchées doubles pour survoler le maximum de sites prometteurs pendant que les conditions climatiques sont favorables. Mais il a recommencé à pleuvoir au Royaume uni depuis le 9 août, permettant depuis aux températures caniculaires de revenir à des valeurs plus raisonnables, ce qui pourrait signifier, pour les archéologues, le retour au bureau afin d’exploiter leurs clichés et organiser les chantiers de fouilles qui ne devraient pas manquer de les occuper pour les années à venir…

L.V. 

Nucléaire : les centrales françaises ont eu chaud !

11 août 2018

Un dessin signé Deligne

La France, c’est bien connu, fait entièrement confiance à l’énergie nucléaire pour assurer son approvisionnement en électricité : le risque d’accident technologique n’est pas négligeable et les coûts de production sont un peu élevés, surtout si l’on devait prendre en compte les coûts réels de traitement des déchets radioactifs et de démantèlement des centrales, mais au moins cela ne produit pas trop d’émission de gaz à effet de serre. C’est même d’ailleurs l’argument principal mis en avant par EDF pour justifier de continuer à investir autant dans la filière malgré les innombrables déboires rencontrés, notamment sur le chantier de l’EPR de Flamanville.

Un dessin signé Lara publié dans le Canard enchaîné du 8 août 2018

Pour autant, le réchauffement climatique global dont les effets sont chaque jour un peu plus visibles, commence à faire planer des menaces supplémentaires sur cette filière. La période de canicule que vient de connaître la France s’est ainsi traduit par la mise à l’arrêt de quatre réacteurs nucléaires et le ralentissement de deux autres. Ajoutés aux 15 réacteurs arrêtés cet été pour cause de maintenance, cela représente 21 réacteurs actuellement hors service sur les 58 que compte le parc électronucléaire français, répartis sur 19 sites en activité.

Cela n’empêche pas EDF de continuer à exporter une partie de sa production encore excédentaire en cette période estivale où la consommation électrique des industriels est généralement moindre, et ceci même si le développement exponentiel de la climatisation fait régulièrement augmenter la demande d’électricité en période chaude.

Arrosage de la centrale de Fessenheim en 2003 (source : Sortir du nucléaire)

Ce n’est certes pas la première fois que les centrales nucléaires françaises révèlent leur vulnérabilité en cas de forte chaleur. En 2003 déjà, en pleine canicule, la France avait découvert, éberluée, les images d’un réacteur de la centrale nucléaire de Fessenheim arrosé à grands coups de jet d’eau pour tenter de refroidir la température de l’enceinte qui menaçait de dépasser les 50 °C autorisés ! Une tentative assez maladroite d’ailleurs cas il aurait fallu des semaines pour abaisser réellement par cette méthode la température à l’intérieur de l’enceinte dont le mur fait plus de 80 cm d’épaisseur…

Sur d’autres sites, dont ceux de Bugey, Tricastin et Saint-Alban, en bordure du Rhône, ou encore à Golfech, le long de la Garonne, EDF avait été alors été contraint de rejeter de l’eau plus chaude que les règles d’exploitation du nucléaire ne l’autorisent. Une entorse qui a ensuite été régularisée par des dérogations officielles. Et c’est la même situation qui se reproduit régulièrement depuis, lors de chaque période estivale un peu chaude, avec un risque d’emballement inquiétant maintenant que les périodes caniculaires sont de plus en plus fréquentes dans nos contrées.

Centrale nucléaire de Nogent-sur-Seine

En 2017, par exemple, sans les lâchers d’eau réalisés en permanence par les barrages situés en amont du Bassin Parisiens et gérés par l’établissement public de bassin Seine Grands lacs, les débits dans la Seine au droit de la centrale nucléaire de Nogent-sur-Seine, auraient été trop faibles pour permettre la poursuite de l’exploitation des réacteurs, descendant en dessous des seuils critiques et ceci pendant plusieurs semaines consécutives.

Cette année, dès le 27 juillet, une des unités de production de la centrale de Bugey, située en bordure du Rhône, a ainsi dû être arrêtée car la température du fleuve excédait les seuils admissibles. Le surlendemain, c’était le tour de l’unité de production n°1 de Saint-Alban, située le long du Rhône, qui subissait le même sort, les deux tranches de cette centrale ayant finalement dû être arrêtée jusqu’au 8 août, ainsi qu’une seconde unité de Bugey et finalement l’une des tranches de Fessenheim.

Comme l’explique l’IRSN, l’Institut de radioprotection et de sureté nucléaire, la forte dépendance des centrales nucléaires aux milieux naturels aquatiques tient à deux facteurs.

Un dessin signé Romboussard

Une centrale thermique, qu’elle soit nucléaire ou pas, n’est jamais qu’une grosse cocotte-minute produisant de la vapeur, laquelle fait tourner un alternateur. Pour chaque MWh d’électricité produite, il faut évacuer dans la nature 2 MWh de chaleur. Pour cela, il faut de grosses quantités d’eau pour refroidir le dispositif, eau qui est prélevée soit en rivière (c’est le cas de 44 des réacteurs français), soit dans la mer (pour les 14 autres tels que Flamanville, Paluel ou le Blayais). Cette eau de refroidissement est pour l’essentiel (à 98 % selon EDF) rejetée ensuite dans le milieu naturel soit sous forme de vapeur (ce sont les panaches blancs qui s’échappent des tours de refroidissement) soit sous forme liquide.

Le problème vient de ce l’eau qui est rejetée dans les cours d’eau en aval des centrales est plus chaude de quelques degrés par rapport à celle du milieu naturel. Cela ne prête pas à conséquence la majeure partie du temps, sauf justement en période de canicule, lorsque les débits dans les rivières sont au plus bas et que la température du milieu est déjà élevée. Au-delà d’un certain seuil, une augmentation même minime de la température peut alors avoir des conséquences écologiques dramatiques, entrainant des mortalités massives de certains poissons ou des développement d’algues toxiques. C’est la raison pour laquelle à partir de certaines limites de débit et de température, EDF n’a plus l’autorisation de prélever de l’eau pour refroidir ses centrales, n’ayant alors d’autres solution que de les mettre à l’arrêt.

Un dessin signé Cabu

Et il y a une deuxième raison qui oblige EDF à installer ses centrales nucléaires à proximité d’un milieu naturel aquatique, tout simplement pour y rejeter ses multiples effluents chimiques et radioactifs issus de ses installations. Comme tout site industriel, une centrale nucléaire produit en effet de nombreux effluents chimiques issus de certains procédés tels que la production d’eaux déminéralisée, mais aussi des rejets de sa propre station d’épuration.

A cela s’ajoutent certains effluents liquides radioactifs, riches notamment en bore, carbone 14 et surtout en tritium. Les rejets de toutes ces matières directement dans le milieu naturel doivent respecter des seuils de concentration maximale. Plus les débits des cours d’eau sont faibles, plus ces seuils sont atteints rapidement car l’effet de dilution est réduit. EDF est alors contraint de stocker ces éléments indésirables dans des bassins de rétention en attendant des jours meilleurs, mais ses capacités de stockage ne sont pas illimitées…

L’épisode de canicule récent, comme ceux de ces dernières années, dont l’amplitude et la fréquence semblent augmenter régulièrement sous l’effet du changement climatique, ne fait donc que confirmer cette forte vulnérabilité de la filière électronucléaire face à l’évolution de son environnement et au risque de diminution significative du débit d’étiage des cours d’eau qui se profile dans les années à venir. Quand on sait qu’une seule journée d’arrêt d’un réacteur nucléaire coûte de l’ordre de 1 million d’euros à EDF, on imagine avec quelle attention ses ingénieurs scrutent l’évolution des débits en période estivale !

Comme l’indiquait en 2011 Stéphane Lhomme, président de l’Observatoire du nucléaire, « contrairement à ce qu’on essaie de nous faire croire, c’est le changement climatique qui s’attaque au nucléaire et non l’inverse ». Un beau sujet de réflexion pour une prochaine épreuve de philosophe du baccalauréat ?

L. V.

Méduses en Méditerranée : un nouveau péril ?

8 août 2018

Un dessin signé Glez, dessinateur burkinabé (source : Cartooning for Peace)

Ces derniers temps, l’actualité se focalise sur les arrivées de populations qui tentent, au péril de leur vie, de traverser la Méditerranée pour fuir des situations de guerre, de misère et de désespérance sociale, en espérant trouver en Europe un avenir meilleur. Mais cette situation qui obnubile et angoisse certains ne doit pas faire oublier d’autres mouvements d’espèces naturelles, en l’occurrence véritablement invasives, et dont l’ampleur des déplacements, le plus souvent lié à l’activité humaine, pourrait s’accentuer sous l’effet du réchauffement climatique mondial.

Les exemples en Méditerranée sont innombrables. Rappelons, à titre indicatif que selon la DREAL PACA, sur les 4000 espèces végétales que comptent la région, 931 soit près d’une sur quatre sont considérées comme exotiques, certaines colonisant les fonds marins, à l’exemple de la fameuse « algue tueuse », Caulerpa taxifolia, relâchée accidentellement en 1984 par l’aquarium de Monaco et qui avait envahi en l’espace de 20 ans plus de 5000 ha avant de commencer à régresser.

Le tetraodon, cousin du Fugu, désormais présent en Méditerranée

Depuis le percement du canal de Suez, on considère que plus de 900 espèces exotiques ont pénétré en Méditerranée, dont le « poisson-lapin », Siganus luridus, qui broute les herbiers de posidonies, mettant à nu les fonds marins, ou encore le tétraodon, Lagocephalus sceleratus, cousin du Fugu des Japonais et potentiellement mortel.

Mnemiopsis leidyi (photo © Guillaume Marchessaux / IMO / LPED)

L’étang de Berre est ainsi confronté, depuis une quinzaine d’années, et après celui de Vaccarès, touché dès la fin des années 1990, à l’invasion de ce que les Anglo-Saxons appellent la « Noix de mer », Mnemiopsis leidyi, une sorte d’ovoïde gélatineux transparent muni de tentacules et qui évoque vaguement une forme de méduse sans être pour autant urticant ni dangereux.

Cette espèce est arrivée en Méditerranée en provenance de l’Atlantique nord, dans l’eau de ballast que les cargos chargent pour stabiliser leur coque et qu’ils déversent à leur arrivée, avec tous les micro et macro-organismes qu’elle contient et dont certains peuvent survivre pendant de longues semaines.

Dans l’étang de Berre, cette vaste lagune qui communique avec la Méditerranée par le chenal de Caronte, ce cténophore qui peut pondre jusqu’à 10 000 œufs par jour a proliféré à une vitesse inquiétante. Cette espèce carnivore détruit les œufs et larves des autres espèces et dévore le zooplancton, ce qui contribue à appauvrir fortement les populations de poissons. Il obstrue par ailleurs les filets des pêcheurs professionnels dont l’activité est en expansion sur cet étang dont la qualité des eaux s’améliore ces dernières années et pour lequel est désormais envisagée une inscription au patrimoine mondial de l’UNESCO.

Extrait d’une vidéo expliquant les effet de Mnemiopsis Leidyi dans l’étang de Berre

Une thèse est d’ailleurs en cours depuis 2015, à l’Institut méditerranéen d’océanologie et au Laboratoire Population Environnement Développement (LPED) de l’université d’Aix-Marseille, pour mieux comprendre les conditions de développement de cette espèce, considérée comme l’une des 50 espèces les plus invasives du monde, et en étudier les impacts socio-économiques, comme l’évoque un article de 20 minutes assorti d’une vidéo très pédagogique.

Cycle de reproduction de Mnemiopsis Leidyi

Les méduses urticantes, Pelagia noctiluca, quant à elles, sévissent périodiquement sur les côtes méditerranéennes, y compris à Marseille où elles sont portées par le courant ligure. Connues en traditionnellement selon des cycles d’une douzaine d’années (dont 9 à 10 ans de répit entre deux phases d’explosion). Toutefois, le réchauffement climatique semble avoir accéléré leur cycle en permettant leur reproduction même en période hivernale, ce qui permet aux adultes d’être bien présents pour la saison estivale.

Méduse pélagique en Italie

Leur nombre a été multiplié par 4 en Méditerranée depuis les années 2000 et on les observe désormais chaque année sur nos côtes depuis 1999. Il arrive même que leur aire de répartition s’étende très au nord, comme en novembre 2007, lorsque leur prolifération a fait des ravages dans les élevages de saumon en Irlande du Nord…

La presse se fait régulièrement l’écho de ces arrivées massives de méduses pélagiques, les « piqueurs mauves » dont la rencontre inopportune provoque de sérieuses brûlures chez les baigneurs qui, s’ils paniquent sous l’effet de la vive douleur qui en résulte, peuvent même se noyer. Près de 70.000 brûlures de méduses ont ainsi été recensées aux Baléares durant l’été 2006 et, en 2008, près de 300 baigneurs ont dû être soignés pour les mêmes raisons rien qu’à Antibes en seulement six semaines.

Echouage de méduses pélagiques sur une plage de La Ciotat en 2014 (photo © France 3)

France 3 déplorait ainsi en juillet 2014 l’arrivée massive de ces méduses sur le littoral méditerranéen de Martigues jusqu’à Menton, mentionnant même que la baignade avait dû être interdite sur les plages de La Ciotat le 16 juillet. En juillet 2016, c’était le Midi Libre qui constatait que les plages et même les canaux autour de Sète étaient complètement envahis par leur prolifération, tandis qu’en avril 2018 FranceTVinfo se faisait l’écho d’un échouage massif de vélelles, petites méduses violettes totalement inoffensives mais qui font désordre sur les plages et rebutent les touristes…

Un échouage de vélelles sur une plage près d’Ajaccio en Corse (photo © Pierre-Antoine Fournil / Corse-Matin)

De nombreuses plages tout autour de la Méditerranée s’équipent désormais de filets de protection pour empêcher que les méduses en goguette ne viennent se frotter aux baigneurs. Un réseau d’observation et de suivi a aussi été mis en place le long des côtes françaises de Méditerranée, dans le cadre du projet de recherche JELLYWATCH, initié en 2009 par l’Observatoire océanologique de Villefranche-sur-mer et co-financé par la Région PACA.

Avec l’aide du bureau d’études ACRI-ST, un portail d’observation a été élaboré, accessible sur internet et via une application pour smartphones, permettant à chacun de signaler ses observations de méduses et donc de savoir, jour par jour, où elles sont présentes. Un outil pratique et collaboratif, qui mérite d’être largement partagé pour limiter les risques de se trouver nez-à-nez avec une méduse pélagique et d’en garder un souvenir pour le moins cuisant…

L.V.

Climat : ça chauffe de plus en plus !

3 août 2018

En matière climatique, et contrairement à l’adage bien connu, les années se suivent et se ressemblent de plus en plus…

En janvier 2015, un article du site Futura Science indiquait que selon les données publiées par le NOAA (National Oceanic and Atmospheric Administration) et par le GISS (Goddard Institut for Space Studies), un organisme scientifique rattaché à la NASA, l’année 2014 avait été la plus chaude jamais observée depuis que les mesures de température ont été généralisées dans le monde, à partir des années 1880. A cette date, les deux autres années considérées comme les plus chaudes jusque-là étaient 2005 et 2010, suivies de près par l’année 2013.

Les anomalies de température dans le monde depuis 1890 : écarts entre les températures moyennes observées (sur terre et sur mer) par rapport aux moyennes calculées sur l’ensemble du XXe siècle (infographie © Simon Malfatto / AFP)

Un an plus tard, le 22 janvier 2016, Science et Avenir, parmi d’autres, publiait un article indiquant que selon les analyses de ces mêmes organismes, issues du traitement (selon des algorithmes différents mais qui aboutissent à des conclusions convergentes) de plus de 6300 points de suivi de température répartis à la surface du globe, sur terre comme en mer, l’année 2015 avait été la plus chaude jamais observée sur Terre… La température moyenne du globe, cette année-là, a été en moyenne supérieure de 0,9 °C par rapport à la moyenne enregistrée au cours de l’ensemble du XXe siècle, et d’environ 0,23 °C par rapport à l’année précédente qui détenait jusque-là le record.

Il faut dire que cette année 2015 s’était caractérisée par un phénomène climatique El Niño particulièrement marqué, avec en particulier des températures anormalement élevées enregistrées durant le mois de décembre. Ce mécanisme de courant côtier chaud observé périodiquement (tous les 3 à 5 ans en moyenne) et qui se manifeste par une inversion des alizés sous l’effet du réchauffement des eaux du Pacifique le long des côtes américaines, explique en partie les températures moyennes très inhabituelles observées cette année-là.

Une planète en cours de réchauffement accéléré… (source © Shutterstock / Barnaby Chambers)

Sauf que le 18 janvier 2016, les lecteurs du Monde apprenaient que « Sans surprise, 2016 a été l’année la plus chaude sur la planète depuis le début des relevés de températures en 1880, marquant le troisième record annuel consécutif de chaleur, a annoncé mercredi 18 janvier l’Agence américaine océanique et atmosphérique (NOAA) ». Autrement dit, pour la troisième année consécutive, les records de chaleur en moyenne sur l’ensemble du globe étaient battus. Par rapport aux valeurs moyennes du XXe siècle, les températures étaient pour 2016 supérieures de 0,94 °C par rapport aux normales, soit encore davantage qu’en 2015 où l’écart avait été évalué à 0,9 °C. A la surface des océans, la différence est un peu moindre, de l’ordre de 0,75 °C, mais sur les continents, l’écart moyen atteint 1,43 °C, ce qui est considérable.

Certes, localement, l’année 2016 a été marquée par des températures très basses, notamment au large de l’Antarctique, mais cela a été largement compensé, à l’échelle planétaire, par de nombreux records de chaleur enregistrés en particulier dans l’est de la Russie, à l’extrême ouest du Canada, dans l’est des États-Unis, ainsi qu’en Amérique centrale, au nord de l’Amérique du Sud, en Afrique de l’Ouest ou encore en Australie. L’Alaska a ainsi connu en 2016 son année la plus chaude depuis le début des relevés dans cet État en 1925.

Températures moyennes enregistrées en 2016 dans 190 pays du globe (source : Futura Sciences)

Bien entendu, les météorologues ont expliqué que cette nouvelle année de tous les records s’expliquait en grande partie par la récurrence du courant équatorial chaud du Pacifique El Niño, qui avait largement persisté jusqu’au printemps 2016, annonçant que « l’année 2017 sera probablement moins chaude ».

Et voilà que, dès le 7 novembre 2017, le site Futura Science annonce que « 2017 s’annonce comme l’année la plus chaude jamais enregistrée en l’absence d’El Niño. Elle talonne ainsi 2016 qui, elle, fut empreinte du phénomène météorologique et conserve le record historique. Les trois dernières années ont été les plus chaudes enregistrées, confirmant une tendance de fond au réchauffement climatique global ».

Une affirmation qui a été effectivement confirmée depuis comme le détaille un article publié dans le Monde le 1er août dernier, sur la base du Rapport sur l’état du climat en 2017, publié ce même jour par la NOAA, une synthèse établie en collaboration avec l’American Meteorological Society, par compilation de plusieurs dizaines de milliers de mesures recueillies et analysées par plus de 500 scientifiques issus de 65 pays à travers la planète.

Ce nouveau record établi en l’absence de manifestation du phénomène climatique d’El Niño confirme sans conteste la tendance de fond au réchauffement climatique global, en lien avec l’activité humaine, d’autant qu’il s’accompagne d’un nouveau pic de concentration, dans l’atmosphère, de gaz à effets de serre (dioxyde de carbone, méthane, protoxyde d’azote…). La teneur moyenne en CO2 a ainsi atteint un nouveau record mondial avec 405 ppm (parties par million), soit 2,2 ppm de plus qu’en 2016 et une valeur jamais atteinte depuis au moins 800 000 ans au vu de l’étude de la composition des gaz atmosphériques conservés dans les carottes glaciaires…

Au cours de cette année 2017, plusieurs pays, comme l’Argentine, la Bulgarie, l’Espagne ou l’Uruguay ont ainsi enregistré des records absolus de températures annuelles moyennes. Des pointes de 43,4 °C ont été relevées en janvier, en Argentine, et de 53,5 °C en août, dans l’ouest du Pakistan. Les températures moyennes à la surface des océans sont certes restées légèrement en dessous de celles de 2016, mais la partie supérieure des océans qui absorbe l’essentiel de l’augmentation de température liée à l’accumulation de gaz à effets de serre poursuit son réchauffement global, ce qui se traduit notamment dans les océans Atlantique, Indien et Pacifique, par des mortalités sans précédent de certaines formations coralliennes. Quant au niveau moyen des mers, il a atteint lui aussi un nouveau record, en se situant 7,7 cm plus haut qu’en 1993, début des mesures altimétriques par satellites, ce qui correspond à une élévation de 31 cm par siècle.

Coraux morts du fait du réchauffement climatique dans la Grande barrière de corail (photo © archives AFP)

Avec une température terrestre très supérieure à la moyenne dans les régions les plus australes, l’étendue maximale de la glace en mer arctique, début mars, a été la plus faible constatée depuis le début des observations satellitaires en 1980, et son extension minimale, en septembre, était inférieure de 25 % à la moyenne de la période de référence.

Quant aux événements climatiques extrêmes survenus en 2017, ils se sont caractérisés comme on pouvait s’y attendre par de violents cyclones et des épisodes torrentiels dévastateurs en Inde, durant la saison des moussons, au Venezuela et au Nigeria, en août et septembre, tandis que les sécheresses sévères n’ont épargné aucun continent, à l’exception de l’Amérique du Nord, provoquant notamment des incendies très destructeurs en Colombie britannique, en Espagne ou au Portugal, et même au Groenland

Et tout indique que l’année 2018, avec la période caniculaire que l’on vit actuellement, pourrait tenir un rang honorable dans ce cortège d’années records : décidément, ça chauffe de plus en plus !

L.V. 

Climatisation, ou la tentation mortelle…

29 juillet 2018

C’est l’un des paradoxes de notre société : tout le monde ou presque a pris conscience que le mode de vie adopté depuis un siècle par les pays développés et désormais par une grande partie de l’humanité n’est pas durable. Il entraîne un tel gaspillage des ressources naturelles et provoque de telles nuisances en termes de pollution et de réchauffement climatique que sa généralisation conduit inéluctablement l’humanité à sa perte dans un délai de plus en plus proche.

Et pourtant, personne ou presque n’est prêt à se passer du confort que ce mode de vie nous apporte au quotidien… Une preuve de plus, s’il en était vraiment besoin, que l’intérêt collectif n’a jamais été la somme des intérêts individuels, quoi qu’en pensent les libéraux, Adam Smith en tête.

Un dessin de Xavier Gorce

Un exemple parmi tant d’autres ? La climatisation. Une invention merveilleuse qui date de 1902, même si l’Écossais James Harrison avait dès 1851 mis au point un système très astucieux consistant à comprimer de l’éther pour le transformer en liquide, puis à le laisser revenir à l’état gazeux, ce qui produit du froid, utilisé en l’occurrence pour rafraichir une brasserie australienne puis pour y produire de la glace. Le procédé a ensuite été amélioré en utilisant des compresseurs à pistons, puis en remplaçant l’éther par de l’ammoniac, ce qui améliore le rendement.

Dès 1925, l’invention fait un tabac aux États-Unis quand la climatisation a commencé à être installée dans les salles de cinéma. Depuis, le nombre de climatiseurs utilisés dans le monde n’a cessé d’augmenter. L’Agence internationale de l’énergie l’estimait en 2017 à environ 1,6 milliards d’appareils en fonctionnement, dont la moitié environ aux États-Unis et en Chine, et le parc est en croissance exponentielle avec de l’ordre de 135 millions d’unité nouvelles installées chaque année, soit trois fois plus qu’il y a 20 ans. A ce rythme, on devrait atteindre 5,6 milliards de climatiseurs en fonctionnement d’ici 2050 !

En 2017, la consommation d’énergie utilisée dans le monde pour le refroidissement des logements et bureaux, ainsi que la réfrigération des aliments et des médicaments, est estimée à 3900 TWh, ce qui représenterait 3 à 4 % de la consommation énergétique mondiale (mais déjà 6 % dans un pays comme les États-Unis). Cela paraît peu mais c’est déjà huit fois la consommation annuelle totale d’électricité d’un pays comme la France et les projections actuelles indiquent que d’ici quelques années, cela devrait correspondre, peu ou prou, à la consommation d’un pays comme la Chine (qui a utilisé en 2017 de l’ordre de 6800 TWh pour son usage propre). Quant à la climatisation des automobiles, l’ADEME estime que son utilisation se traduit par un surcroît de consommation de 1 l / 100 km, ce qui est loin d’être négligeable !

Au-delà de cette consommation énergétique qui explose, le risque principal que fait courir le développement mondial de la climatisation est lié aux rejets de gaz à effet de serre qui en résultent. Les fluides frigorigènes utilisés pour la production de froid s’échappent en effet inévitablement d’un climatiseur en fonctionnement.

Les plus dangereux pour la couche d’ozone (chlorofluorocarbone et hydrochlorofluorocarbone notamment) ont certes été interdits via l’adoption du Protocole de Montréal dès 1985. Mais ceux qui sont utilisés actuellement, les HFC (hudrofluorocarbures), présentent un effet de serre colossal : plus de 2800 fois en moyenne celui du CO2 et jusqu’à 11 000 fois pour certains d’entre eux. On connaît désormais des fluides frigorigènes dont l’effet de serre est plus faible, en particulier les hydrofluoroléfines, mais ils présentent l’inconvénient d’être légèrement inflammables…

Climatiseurs en façade d’un immeuble chinois (photo © Zhang Bin / AFP)

On assiste donc à un cercle vicieux mortel : plus le climat se réchauffe, plus on installe de climatiseurs et plus on accélère le réchauffement climatique ! Et ce n’est que le début, comme cela a été encore rappelé récemment à l’occasion du dernier colloque de la profession, Bâti’Frais, qui s’est précisément tenu à Marseille le 6 juillet 2018.

Colloque Bâti’Frais à Marseille en juillet 2018 (source © Bâti’Frais)

Une représentante du Groupe régional d’experts sur le climat en PAC y a justement rappelé que « la dernière décennie a été la plus chaude depuis le début du XXe siècle. Et, dans la région PACA, 2016 aura été l’année la plus chaude depuis des lustres ». Selon les scénarios du GIEC, l’augmentation moyenne de température atteindra entre 1,9 et 4,6 °C d’ici 2100, avec des variations probables selon les sites. Il faut ainsi s’attendre à une augmentation moyenne de l’ordre de 3,4 °C dans une ville comme Aix-en-Provence, avec à la clé des épisodes orageux cévennols encore plus intenses et des canicules estivales plus marquées.

Sont notamment attendues des « nuits tropicales » plus fréquentes, de ces nuits d’été où la température reste supérieure à 20 °C et qui sont particulièrement éprouvantes pour les organismes. A Nice, on est ainsi passé d’une quinzaine de nuits tropicales par an dans les années 1960 à une soixantaine dans les années 1980, et les projections indiquent que ce nombre devrait encore grimper pour atteindre bientôt 90, réchauffement climatique aidant, de quoi créer de fortes tentations de pousser encore un peu la climatisation…

Face à une telle impasse, certains rappellent qu’il existe sans doute d’autres voies à explorer pour mieux adapter notre habitat à un environnement en mutation. Améliorer sans cesse l’isolation thermique en concevant des bâtiments toujours plus étanches dans lesquels la température et la ventilation sont pilotés de manière automatisée aboutit trop souvent à une impasse car ceux qui habitent ces logements n’ont de cesse d’ouvrir les fenêtres et d’ajouter des chauffages ou climatiseurs d’appoint pour leur confort personnel.

Peut-être est-il temps désormais de revenir à des techniques et des comportements éprouvés et moins impactant ? Adapter les ouvertures et l’orientation des façades en fonction du lieu était une règle de base pour la construction de logements en milieu méditerranéen, trop souvent oubliée des architectes modernes. Instaurer une ventilation naturelle au moyen du puits provençal traditionnel, déjà parfaitement maîtrisé à l’époque romaine, constitue aussi une solution simple et peu coûteuse. Et dormir dehors pendant les nuits les plus chaudes est une pratique très courante dans le monde entier qui mériterait peut-être d’être réhabilitée dans nos contrées ?

Lutter contre le chaud à moindre frais, un slogan pour une transition énergétique réussie ?

L. V. 

Bilan énergétique mondial : le rapport qui fait honte !

8 juillet 2018

La société de conseil et d’études Enerdata, créée en 1986 à Grenoble et spécialisée dans l’analyse des données mondiales de consommation et de production énergétique, vient de publier son dernier bilan énergétique mondial, sous le titre peu rassurant « Un pas en arrière dans la transition énergétique ? »

Un titre un rien provocateur, deux ans et demi après la COP 21 qui s’était tenue à Paris en décembre 2015 et qui avait débouché sur un accord, présenté à l’époque comme historique et de nature à contenir la hausse du réchauffement climatique mondial d’ici 2100 dans la limite des 2°C. La France venait tout juste d’adopter sa « loi de transition énergétique pour la croissance verte », un bel oxymore pour nombre d’écologistes considérant qu’il faudrait au contraire plutôt s’orienter vers un objectif de décroissance progressive. Les objectifs affichés étaient ambitieux mais, moins de trois ans plus tard, le retour à la réalité est un peu moins glorieux…

Que dit donc ce bilan énergétique mondial qui porte sur l’année 2017 ? Il n’est certes pas exhaustif puisqu’il ne prend en compte que les pays du G20 (dont l’ensemble des pays européens), mais ceux-ci représentent néanmoins 80 % des émissions planétaires de gaz à effet de serre, ce qui est donc très largement représentatif.

Le premier élément à retenir est que la croissance s’est nettement accélérée en 2017 avec un taux de croissance économique moyen de 3,7 % pour cette année alors que ce taux n’était que de 3,5 % en 2016 et de 3,1 % sur la période 2005-2015. Les effets de la crise économique mondiale de 2008 s’estompent donc et on en revient à grands pas vers le business as usual !

Evolution de la consommation d’énergie par les pays du G20 (en pourcentage de croissance annuelle) – source © Enerdata

La demande mondiale d’énergie est par conséquence en hausse très sensible, de 2,1 % en 2017 contre 1 % seulement en 2016. Du coup, bien évidemment les émissions de gaz à effet de serre, qui stagnaient depuis 3 ans et avaient même reculé de 0,5 % en 2016 après avoir progressé de 1,6 % en moyenne annuelle entre 2005 et 2015, sont reparties à la hausse avec un bond de 2,1 % en 2017, confirmant s’il en était besoin, que toutes les belles promesses de la COP 21 n’ont pas connu le moindre début de mise en œuvre…

Curieusement, et malgré les rodomontades de Donald Trump qui s’est assis sans vergogne sur le traité de Paris et a tout fait pour relancer l’activité charbonnière, les États-Unis s’en sortent honorablement avec une stabilisation de leurs émissions de gaz à effet de serre en 2017 malgré une croissance soutenue. La Chine et l’Europe ne peuvent pas en dire autant, elles dont les émissions de gaz à effet de serre ont fait un bond de respectivement 2,1 et 1,9 % en 2017 !

En décembre 2015, chacun se félicitait de l’accord de Paris à l’issue de la COP 21, mais la mise en œuvre est bien loin des engagements de l’époque… (photo © Stéphane Bouissou / MEDDE)

Avec un tel constat, on s’écarte d’autant plus des objectifs vertueux du traité de Paris qui nécessitait de réduire en moyenne jusqu’en 2050 de 2,9 % chaque année nos émissions de gaz à effet de serre. Il faudrait maintenant mettre les bouchées doubles et viser plutôt une réduction annuelle de 3,5 % mais on n’en prend manifestement pas le chemin.

Après trois années successives de déclin, la consommation de charbon est repartie de plus belle et la demande mondiale tant en électricité qu’en gaz et même en pétrole a fortement augmenté en 2017, prouvant bien que, jusqu’à présent, l’humanité ne fait pas suffisamment d’effort en vue d’opérer la véritable transition énergétique qui s’imposerait si elle voulait vraiment contenir dans les limites viables le changement climatique global comme elle s’y était engagée en 2015…

Centrale thermique à charbon de Drax, dans le Yorkshire (Royaume-Uni), produisant 7 % de l’électricité de toute l’Angleterre

Curieusement, en Europe, les bons élèves de la classe, outre le Danemark et la Finlande qui ont réussi à réduire de près de 6 % leurs émissions de CO2 entre 2016 et 2017, sont à rechercher du côté du Royaume-Uni qui a baissé ses émissions de 3,3 % sur cette même période en adoptant des mesures fortes pour accélérer sa sortie du charbon.

Inversement, les plus mauvais élèves sont des pays tels que Malte, l’Estonie ou encore le Portugal, pourtant souvent cité en exemple pour son implication dans le développement des énergies renouvelables, mais qui ont connu une augmentation de plus de 11 % de leurs émissions de gaz à effet de serre en 2017. L’Espagne et les Pays-Bas ne s’en sortent pas très bien non plus avec une hausse supérieure à 6 % sur cette même période. Quant à la France et l’Allemagne, grandes donneuses de leçon en la matière, leurs émissions ont progressé respectivement de 2,2 et 2,4 % en 2017, soit davantage que la moyenne mondiale, ce qui n’est guère reluisant…

Nicolas Hulot : un bilan pour l’instant très mitigé du plan climat engagé en juillet 2017 (photo © Fabrice Coffrini / AFP)

Le ministre Nicolas Hulot a bien dû reconnaître lui-même, en tirant le bilan de la première année de sa feuille de route, vendredi 6 juillet 2018, que les résultats étaient bien loin de ses attentes. L’objectif de ce plan, annoncé il a un an était d’atteindre la neutralité carbone d’ici 2050 avec quelques mesures phare comme l’arrêt de la vente des voitures diesel et à essence d’ici 2040 ou le passage de la part des énergies renouvelables dans le mix énergétique à 32 % d’ici 2032.

Les chiffres communiqués par le CITEPA (Centre interprofessionnel technique d’études de la pollution atmosphérique) confirment au contraire que la situation n’en finit pas de se dégrader avec notamment une augmentation des émissions dans le domaine des transports. Même si la flotte de voitures diesel diminue désormais de 70 000 unités par an, cela n’est aucunement significatif eu égard à l’importance du parc automobile qui est de 21 millions de voitures particulières en France !

Même dans le domaine de la production d’énergie, l’arrêt de plusieurs centrales nucléaires s’est traduit en 2017 par un recours accru au charbon. Or ce dernier, s’il ne participe qu’à hauteur de 2 % du mix énergétique français, représente encore 25 % des émissions de gaz à effet de serre du secteur…

Il y a donc encore bien loin de la coupe aux lèvres et la France ne peut guère, jusqu’à présent et malgré tous ses efforts de communication en la matière, s’enorgueillir d’un engagement effectif dans la voie d’une transition énergétique réelle : encore un petit effort, Messieurs les Français !

L. V. 

La Mède : la raffinerie de tous les dangers…

26 juin 2018

Mise en route en juin 1935, en bordure de l’étang de Berre, sur la commune de Châteauneuf-les-Martigues, la raffinerie de La Mède, qui n’en finit pas de faire parler d’elle, fait partie de ces monstres technologiques engendrés par notre société de consommation empêtrée dans ses contradictions et ses choix technologiques hasardeux !

Raffinerie de La Mède, en bordure de l’étang de Barre (photo © MaxPPP)

Lors de sa construction, par ce qui s’appelait alors la Compagnie française de raffinage et qui s’est fondu depuis dans le groupe pétrolier Total, la raffinerie dite alors « de Provence » était alimentée par un port pétrolier dédié, désormais désaffecté, et disposait d’une capacité de raffinage de 400 000 t de pétrole brut par an, une misère à l’aune des standards actuels, mais largement suffisant à une époque où l’automobile commençait tout juste à se démocratiser.

Le 9 novembre 1992, alors que la raffinerie de la Mède, qui emploie alors 430 personnes et dont la capacité de raffinage dépasse désormais les 6,6 millions de tonnes tourne à plein régime, malgré un état de délabrement et de vétusté sans cesse dénoncé, une forte explosion se produit à 5h20 du matin. Entendue à 30 km à la ronde, cette explosion, qui provoque l’embrasement des unités de traitement les plus proches, est suivie de plusieurs autres. Deux réservoirs d’hydrocarbure et plusieurs canalisations prennent feu, ainsi qu’un réservoir de soude usée et d’essence qui explose à son tour vers 9h50.

Vue de la salle de contrôle de la raffinerie lors de l’accident de 1992 (source DGPR / BARPI)

Il faut attendre 13h pour que les pompiers parviennent tant bien que mal à maîtriser le sinistre, laissant néanmoins plusieurs brasiers se poursuivre pour achever de brûler les gaz et réduire la pression. Le bilan est sévère puisqu’il fait état de 6 morts et un blessé grave parmi le personnel, mais aussi 37 blessés plus légers dont 2 pompiers. La raffinerie est dévastée sur au moins 2 ha et il faudra attendre 2 ans avant que son activité puisse reprendre.

Le voisinage a été sérieusement atteint avec des bris de vitres constatés dans un rayon de 1 km et, ponctuellement jusqu’à 8 km du site. Lors du procès, qui intervient en 2002, quelques mois après la catastrophe d’AZF et alors que Total Fina annonce des bénéfices records, le procureur juge accablante la responsabilité des dirigeants de Total, mais se contente de simples condamnations avec sursis.

Vue aérienne des traces de relâchement d’hydrocarbure à la raffinerie de La Mède en 2005 (source DGPR / IMPEL)

Le 7 août 2005, rebelote avec cette fois un nuage de 10 à 20 tonnes d’hydrocarbures liquides et gazeux qui s’échappent accidentellement de la raffinerie. Un vent fort pousse ce nuage vers la commune de Sausset-les-Pins, à 7 km de là, endommageant une centaine d’habitations mais évitant une nouvelle catastrophe qui se serait inévitablement produite si les vapeurs d’hydrocarbures avaient stagné sur le site à proximité des torchères… Total sera d’ailleurs lourdement condamné en 2007 pour négligence et non-respect des procédures suite à cet accident.

Et en novembre 2014, le site fait de nouveau parler de lui, suite cette fois au débordement de deux bassins d’hydrocarbures qui se déversent directement dans l’étang de Berre, souillant sa rive sud.

En avril 2015, le site est paralysé par des grèves suite à l’annonce d’un plan de restructuration qui prévoit la disparition de 180 postes, alors que les capacités de raffinage sur le sol français sont jugées excédentaires. La raffinerie de la Mède, lourdement déficitaire, est fermée par Total fin 2015 mais reconvertie afin d’y sauvegarder 250 emplois.

Il s’agit alors de transformer, d’ici mi-2018, le site en « bio-raffinerie » pour y produire 500 000 tonnes par an de biodiesel à partir d’un tiers d’huiles alimentaires usagées recyclées et de deux-tiers d’huile végétale, projet consacré par la délivrance en mars 2018 d’une autorisation préfectorale, imposant le recours à au moins 25 % d’huile recyclée.

Vue des nouvelles installations de production de bio-carburant à la raffinerie de La mède (photo © IMRE Nedim / TOTAL)

Un projet qui déclenche la fureur des associations environnementales, dont l’ONG Les amis de la Terre, qui dénonce l’importation massive, pour alimenter la raffinerie, de 300 à 400 000 t d’huile de palme par an, en provenance de Malaisie et d’Indonésie, où ces plantations industrielles de palmiers à huile se font en rognant sans cesse davantage sur les forêts tropicales primaires : pour produire de telles quantités d’huile de palme, on considère qu’il faut détruire 1500 km2 de forêt, ce qui revient à hâter d’autant plus la disparition de la faune associée, sachant qu’il faut par exemple 1 km2 de forêt pour permettre à un orang outang de survivre.

Mais curieusement, ce ne sont pas les défenseurs de l’environnement qui se sont fait le plus entendre dans ce dossier polémique à souhait, mais plutôt les agriculteurs de la FNSEA qui ont défrayé la chronique en venant manifester en juin 2018 contre ce projet, n’hésitant pas à bloquer 13 raffineries et dépôts de carburant sur toute la France.

Manifestation d’agriculteurs de la FNSEA devant la raffinerie Total La Mède, le 11 juin 2018 (photo © Jean-Paul Pelissier / Reuters)

Plus que le sort de l’orang outang et du tigre de Sumatra, ces agriculteurs chantres de l’agro-industrie, venaient en réalité défendre les intérêts des producteurs d’oléagineux, colza et tournesol en tête, qui servent aussi à produire du biodiesel. Une filière industrielle dominée par le géant de l’agro-business, la société Avril, dont le regretté patron était l’ex-président de la FNSEA, le richissime Xavier Beulin, récemment disparu. Peu connue du grand public, cette société dont le chiffre d’affaire atteint pourtant 7 milliards d’euros et qui emploie pas moins de 8200 salariés, est le premier producteur et transformateur européen d’oléagineux, un concurrent direct de Total donc, propriétaire accessoirement des marques Lessieur et Puget, mais aussi leader français de la nutrition animale et qui commercialise un quart des œufs vendus sur le territoire national…

Une petite entreprise, en pointe donc contre la déforestation en Indonésie, mais qui n’hésite pas à importer, pour son compte 200 000 t d’huile de palme chaque année, garantie « zéro déforestation », cela va de soi, car, pour des raisons économiques fort respectables, le biodiesel produit intègre une forte proportion d’huile de palme, nettement moins chère sur le marché mondial que le colza français. D’ailleurs le groupe Avril détient, selon le Canard enchaîné, 34 % des actions de la société PalmElit, leader mondial des semences de palmier à huile.

Plantations de palmiers à huile en Indonésie (photo © François de Sury / voir-et-agir CH)

Et n’allez surtout pas vous demander s’il est bien raisonnable de développer ainsi des « carburants verts » pour alimenter le réservoir de votre voiture, tandis que les terres arables nécessaires à l’alimentation humaine se dégradent à vue d’œil. Une étude récente commandée par la Commission européenne et publiée par Transport et environnement, indique qu’utiliser du biodiesel à base d’huile de palme revient à émettre trois fois plus de gaz à effet de serre que d’utiliser du diesel classique !

Encore un choix technologique manifestement soigneusement réfléchi et qui devrait nous permettre d’avancer à grande vitesse vers le mur où l’humanité ne devrait pas tarder à s’écraser en klaxonnant bien fort…

L. V.

Les tribulation d’un Groenlandais à Marseille…

15 juin 2018

Fin mai 2018 se tenait au palais du Pharo à Marseille le 97ème congrès de l’ASTEE, l’Association scientifique et technique pour l’eau et l’environnement, laquelle avait invité, en ouverture de son grand raout annuel, un soi-disant expert groenlandais venu expliquer doctement aux 400 congressistes, tous professionnels du domaine de l’eau et de la gestion des déchets, comment ses ancêtres vikings avaient dû abandonner les terres du Groenland à la fin du XVe siècle, un peu avant que Christophe Colomb ne découvre l’Amérique.

L’expert en question n’était en réalité qu’un acteur jouant le rôle d’un universitaire groenlandais, venu retracer devant un parterre d’experts français de l’eau et de l’environnement, un fait historique un peu tombé dans les oubliettes de l’Histoire mais dont le rappel ne manque pourtant pas d’intérêt en ces temps où l’on parle beaucoup de transition énergétique et d’adaptation au changement climatique.

Le Saga Siglar, copie d’un navire viking découvert au Danemark

Petit retour en arrière donc, jusqu’en l’an de grâce 983 (ou à peu près car les dates varient selon les sources). A cette date, comme le rappelle un article de Science et Avenir, un certain Erik le Rouge, débarque sur les côtes du Groenland à la tête d’un groupe de quelques centaines de Vikings en provenance de l’Islande et qui ont fait la traversée sur leurs navires aux proues sculptées de monstres marins. L’aventure n’est pas sans danger comme le relatent les sagas scandinaves puisque 11 des 25 navires de l’expédition sombrent en route.

Le « pays vert » (Green Land) où ils abordent n’est pas si verdoyant que son nom l’indique mais plutôt inhospitalier, orné d’un maigre tapis de bruyère arctique et partiellement recouvert d’une épaisse calotte glaciaire. On est alors à l’optimum climatique médiéval qui permet la survie de quelques pâturages herbeux et de saules clairsemés, aujourd’hui quasiment disparus, mais c’est quand même un territoire particulièrement rude où s’installent ces pionniers qui ne peuvent s’en remettre pour leur survie qu’à Thor, Odin ou encore Jésus puisque certains viennent depuis peu de se convertir au christianisme.

Vestiges de l’église viking de Brattahild, près de la ferme d’Erik-le-rouge

Malgré ces difficultés, les Viking fondent deux colonies distinctes, l’une au sud de l’île et l’autre à 400 km au nord, près de Nuuk, la capitale actuelle, leur population atteignant sans doute autour de 5000 individus à son apogée. Les colons scandinaves qui sont venus avec leur bétail développent un peu d’élevage. Mais les recherches archéologiques les plus récentes montrent qu’ils vivent en réalité surtout du commerce. Les bateaux vikings qui desservent régulièrement le territoire permettent d’exporter les fourrures de renards arctiques et d’ours polaires, mais surtout les défenses de morses et de narval dont l’ivoire était particulièrement prisé au Moyen-Age.

Figurines de jeu d’échec en ivoire du Groenland, retrouvées en Ecossse

En échange, les colons font venir pour leurs besoins le blé qu’ils n’arrivent pas à faire pousser sur l’île à cause de la brièveté de la période estivale, mais surtout le bois et le fer qui sont inexistants sur place. Mais malgré cette relative prospérité liée au commerce, la vie est rude d’autant que le climat est de plus en plus froid au cours du Petit âge glaciaire : à partir du milieu du XIIIe siècle, les glaciers progressent sensiblement au Groenland. Les Viking ont de plus en plus de mal à poursuivre leurs activités d’élevage et se tournent davantage, pour se nourrir, vers les produits de la mer, poissons et phoques en particulier, qui finissent par constituer 80 % de leur alimentation.

En 1367, le navire qui desservait régulièrement le Groenland fait naufrage et il ne sera pas remplacé de sitôt, laissant les colons vikings dans un isolement fatal. Il faut dire qu’entre-temps l’Europe a découvert l’ivoire des éléphants d’Afrique qui remplace avantageusement celui des morses…

Avec le refroidissement climatique, les Vikings du Groenland se retrouvent désormais confrontés à un autre groupe ethnique, les Inuits, venus du Canada pour se réfugier sur des terres plus hospitalières.

Inuit du Groenland avec ses chiens

Contrairement aux Viking, les Inuits sont parfaitement adaptés à ces terres glacées. Ils maîtrisent parfaitement la chasse hivernale au phoque, lorsqu’il s’agit de découper un trou dans la banquise, technique que les Viking ignorent et qui rend leur subsistance si précaire durant les longs hivers. Leurs igloos et leurs tentes sont nettement plus confortables que les huttes en pierres sèches où s’abritent les Vikings. Leurs kayaks légers et effilés leur donnent une extrême mobilité et en font de redoutables chasseurs et pêcheurs. Ils s’habillent de cuirs et de fourrures, beaucoup plus faciles à se procurer que les lainages des Vikings. Leurs armes sont taillées dans l’os et l’ivoire local, certes moins efficaces que celles en bois et en fer des Scandinaves, sauf que celles-ci viennent rapidement à manquer lorsque les liaisons maritimes s’espacent. Les Inuits n’ont pas besoin de tourbe ou de bois pour se chauffer et s’éclairer, préférant pour cela plutôt la graisse animale.

En kayak au milieu des icebergs

Les Vikings méprisent souverainement ces Esquimaux avec leur anorak graisseux et leurs armes rudimentaires. Ils se gardent bien de les côtoyer de trop près, ce qui ne leur permet pas de s’approprier leurs techniques de chasse et leur mode de vie. Du coup, leur isolement et leurs difficultés d’adaptation au climat local les rend particulièrement vulnérables. Contre toute attente, ce sont donc les Inuits qui prennent le dessus tandis que les Vikings finissent par disparaître. Les derniers contacts écrits avec la colonie groenlandaise datent de 1408 et il semble que la colonie se sont complètement éteinte autour des années 1450, sans qu’on sache très bien si les derniers colons survivants ont été rapatriés vers la mère patrie où s’ils sont morts sur place.

Vestiges d’une implantation viking à Gardar, dans l’Est du Groenland

La disparition des Vikings du Groenland, racontée notamment dans l’ouvrage intitulé Effondrement, publié en 2006 par Jared Diamond, est emblématique de ces situations de crise où une population a besoin de s’adapter à un monde en profonde mutation, climatique mais aussi sociale, économique, technologique. En l’occurrence, ils n’ont pas réussi à s’imposer durablement sur ce territoire arctique, malgré les exploits guerriers et la formidable expansion dont ont su faire preuve ces populations qui avaient, entre le IXe et le XIe siècle, pillé et colonisé une bonne partie de l’Europe.

Plus frustres et plus aptes à tirer profit des ressources locales, les Inuits au contraire, ont réussi à traverser les siècles et à coloniser durablement le Groenland. De là à conclure que l’adaptation au changement climatique nécessitera d’abandonner quelques-uns de nos préjugés et certains acquis de notre civilisation, voire de sacrifier une part de notre confort auquel nous sommes tant habitués, il y a un grand pas que l’on se gardera bien évidemment de franchir, quoique…

L.V. 

 

Hydrogène : le carburant de l’avenir ?

5 juin 2018

Dessin de Jiho publié dans Marianne le 1er juin 2018

Contrairement à ce que certains médias laissent parfois entendre, et malgré toutes les couleuvres qu’il a dû avaler, depuis qu’il est ministre de la transition écologique et solidaire, comme d’ailleurs tous ses prédécesseurs à ce poste, Nicolas Hulot est toujours au gouvernement… Il n’a certes pas réussi à convaincre le ministre de l’agriculture à inscrire dans la loi l’interdiction du glyphosate et il n’en est pas à sa première renonciation depuis qu’il est devenu ministre, mais gouverner en démocratie nécessite forcément des compromis

En tout cas, Nicolas Hulot vient de faire beaucoup parler de lui en annonçant vendredi 1er juin 2018 un plan ambitieux doté de 100 millions d’euros pour soutenir la production d’hydrogène décarboné, le stockage électrique et déployer des flottes de véhicules fonctionnant à l’hydrogène. « Ça fait des lustres que j’entends parler d’hydrogène, accompagné par cette phrase : « c’est bien, mais ça ne marchera jamais » ou « c’est bien, mais c’est trop cher ». Mais aujourd’hui ma raison est faite : l’hydrogène pourra jouer un rôle dans la transition énergétique », tel est le credo du ministre, expliqué aux médias dont Actu-environnement.

Loïk Le Floch-Prigent (photo © DR)

Selon lui, l’hydrogène serait un véritable « couteau suisse de la transition énergétique » et il importe donc que la France pour une fois ne passe pas à côté d’un tel enjeu technologique. Une déclaration qui a fait méchamment ricaner le toujours vert (si l’on peut dire) Loïk Le Floch-Prigent, ancien PDG de Rhône-Poulenc, d’Elf Aquitaine, de Gaz de France et de la SNCF, passé un temps par la case prison, condamné à plusieurs reprises et encore sous le coup d’une procédure judiciaire en cours, mais toujours donneur de leçon malgré tout.

Qu’en est-il donc de ce fameux hydrogène et que peut-on donc bien en attendre ? Une des pistes évoquées dans ce fameux plan dévoilé par Nicolas Hulot est de développer les véhicules fonctionnant avec des moteurs à hydrogène. Le procédé n’est pas totalement révolutionnaire puisqu’un brevet, déposé en 1799 par un certain Lebon, prévoyait déjà que son « gaz hydrogène » pourrait fournir « une force applicable à toutes espèces de machine ».

En 1970, Paul Dieges dépose à son tour un brevet concernant une modification des moteurs à combustion interne qui autorise la consommation d’hydrogène, dans le but d’en supprimer la pollution, puisque la réaction de combustion de l’hydrogène en présence d’oxygène, outre l’énergie qu’elle libère, ne rejette que de l’eau (d’où l’expression de « moteur à eau ») et en tout cas pas de CO2, ce qui est bon pour la planète ! Techniquement, l’utilisation de tels moteurs est au point et il existe déjà une voiture de série commercialisée depuis 2006, la BMW Hydrogen 7, mais vendue seulement à une centaine d’exemplaires et arrêtée depuis, tandis que des bus à hydrogène circulent déjà dans certaines villes.

Bus expérimental électrique à hydrogène testé à Cherbourg (source © projet européen CHIC)

Une autre approche permettant d’utiliser l’hydrogène comme carburant est la pile à combustible, autrement dit un moteur électrique alimenté par une pile dans laquelle le réducteur est l’hydrogène et l’oxydant l’oxygène. Un système tout simple en apparence et qui ne rejette que de l’eau, mais très coûteux dans l’état actuel de la technologie car exigeant beaucoup de platine (catalyseur) et des membranes échangeuses d’ions particulièrement sophistiquées.

Là aussi, il existe déjà des véhicules électriques commercialisés avec ce type de pile à combustible, dont la Honda Clarity, vendue en Europe depuis 2016. La société basque Pragma commercialise elle des vélos électriques fonctionnant selon ce même principe et dont les premiers exemplaires ont été mis en circulation fin 2017 à Saint-Lô, une ville qui possède déjà une flotte de 17 véhicules à hydrogène, comme l’a relaté Le Monde. Ces vélos présentent l’avantage de se recharger en 2 mn seulement alors qu’il faut 3 heures avec un vélo électrique classique et l’autonomie est de 200 km.

Vélo électrique à hydrogène en service dans la ville de Saint-Lô (photo © DR)

Que ce soit pour les moteurs à combustion directe ou pour les véhicules électriques alimentés par une pile à combustible, les difficultés liées à l’utilisation de l’hydrogène sont multiples. Un des problèmes majeurs du procédé vient du stockage de l’hydrogène et de son transport via des réseaux de distribution et, plus encore, à bord d’un véhicule. L’hydrogène gazeux est en effet explosif et inflammable, ce qui incite à le transporter plutôt sous forme liquide, mais sa liquéfaction à basse température consomme beaucoup d’énergie… D’autres solutions sont donc testées, y compris la cryo-compression ou des réservoirs gazeux sous forte pression, mais le sujet n’est pas si simple !

Une autre difficulté provient de la fabrication de l’hydrogène nécessaire, lequel est pour l’instant essentiellement produit par transformation soit par gazéification du charbon soit par vaporeformage du gaz naturel, principalement composé de méthane : au-delà de 700 °C et sous forte pression, la vapeur d’eau réagit avec le méthane pour donner de l’hydrogène. Mais cette réaction libère également de grosses quantités de CO2 (13 tonnes pour 1 t d’hydrogène produit !), ce qui n’est guère favorable pour notre environnement. C’est la raison pour laquelle le plan Hulot insiste sur la nécessité de développer des filières de production d’hydrogène décarboné, issu non pas des hydrocarbures mais obtenus soit à partir de biogaz produits par méthanisation, soit par électrolyse de l’eau en utilisant comme source d’énergie de l’électricité verte d’origine éolienne ou solaire.

Nicolas Hulot présentant son plan hydrogène le 1er juin 2018 (source © MTES)

Une proposition qui fait s’étrangler Loïk Le Floch-Prigent dans l’article publié sur Atlantico. Selon lui en effet, produire de l’hydrogène par électrolyse est une hérésie car les rendements sont trop faibles et le procédé bien trop coûteux par comparaison avec la filière pétrochimique classique. Au passage, il considère que seul un régime quasi-totalitaire comme la Chine, qui ambitionne de faire rouler 50 000 véhicules électriques à hydrogène d’ici 2025, est en mesure d’imposer à sa population une telle révolution : sans coercition, point de salut face au défi du changement climatique !

Ce n’est certes pas le pari de Nicolas Hulot qui estime que la forte baisse du prix des piles à combustible permet désormais d’envisager le développement progressif d’une production d’hydrogène par électrolyse. Dans cette hypothèse, le recours à cette filière pourrait apporter des solutions de stockage de l’électricité, en particulier dans les secteurs non desservis par le réseau national. Cela pourrait surtout permettre d’améliorer sensiblement les capacités des véhicules électriques actuels, y compris pour les poids-lourds voire pour des trains sur le réseau non électrifié.

Utopie absurde ou pari technologique audacieux ? L’avenir le dira…

L.V. 

La Russie joue les apprentis sorciers…

30 mai 2018

Le climat de la planète se réchauffe chaque jour davantage, mais c’est le cadet des soucis de la plupart des responsables politiques. Ceci est vrai aux États-Unis où Donald Trump relance à tout va l’exploitation des gaz de schiste et du charbon, tout en renonçant officiellement aux engagements pourtant minimalistes pris lors de la COP 21, mais aussi dans bien d’autres pays guère plus vertueux.

Plate-forme pétrolière au large de l’île de Sakhaline, exploitée dans le cadre d’une coopération russo-japonaise (photo © NGC Videsh LTD. / Bloomberg)

C’est le cas notamment de la Russie pourtant située dans un des secteurs les plus directement menacés par le changement climatique global, avec notamment des risques de fonte massive du permafrost aux conséquences potentiellement dévastatrices. Mais les Russes n’ont pas froid aux yeux et sont prêts à tout pour augmenter encore leur production d’hydrocarbures qui représente plus de 25 % du PIB national et couvrait en 2014 plus de la moitié du budget de l’État.

Les réserves de gaz et de pétrole situées majoritairement en Oural et dans le sud de la Sibérie étant en voie d’épuisement, c’est désormais vers le nord que se tournent les Russes qui profitent justement du réchauffement climatique global pour développer l’exploitation au nord de la Sibérie, dans les eaux arctiques, un secteur jusque-là relativement préservé du fait de la rigueur des conditions climatiques mais qui attire de plus en plus les convoitises du fait de la fonte rapide de la banquise.

Les Russes ne sont d’ailleurs pas les seuls sur le coup. Donald Trump a ainsi annoncé en début d’année, le 4 janvier 2018, l’ouverture de l’ensemble des eaux littorales américaines à l’exploitation d’hydrocarbures, en particulier au large de l’Alaska, une zone que Barak Obama avait pourtant tenté de sanctuariser. Les Norvégiens s’activent également et viennent coup sur coup de régler un vieux conflit frontalier avec la Russie pour le partage des ressources en mer de Barents, tout en se débarrassant devant les tribunaux d’une série de recours déposés par un groupe d’ONG mené par Greenpeace. Le géant pétrolier norvégien Statoil lance ainsi un projet de 5 milliards d’euros pour l’exploitation de ce nouveau champ pétrolier en mer de Barents.

Nettoyage des côtes de l’Alaska suite au naufrage de l’Exxon Valdez en 1989 (photo © Natalie Fobes / Corbis)

Même Total, pourtant réticent à se lancer dans l’exploitation pétrolière dans ces zones écologiquement très vulnérables, où le naufrage de l’Exxon Valdez en 1989, au large de l’Alaska, a laissé des traces indélébiles sur l’écosystème, n’a pas hésité à investir 20 % du projet russe gigantesque de 23 milliards d’euros, lancé en 2017 sur la presqu’île de Yamal pour l’exploitation de gaz, transporté par méthaniers brise-glace. Le projet est titanesque et a nécessité de mobiliser des dizaines de milliers d’ouvriers pour construire un port, un aéroport, une usine et des réservoirs, malgré un froid extrême. A partir de 2019, il devrait livrer 16,5 millions de tonnes de méthane par an et devrait être prolongé à partir de 2022 par un second site d’exploitation du nom d’Arctique 2.

Usine en construction sur le site de la péninsule de Yamal en Sibérie (photo © Novatek)

La fonte des glaces dans l’océan arctique rend en effet de plus en plus accessible cette route maritime du nord-est par laquelle la Russie peut désormais exporter une partie croissante de sa production directement vers la Chine et l’Asie du sud-est, n’hésitant pas à rouvrir d’anciennes bases militaires désaffectées pour sécuriser ce trafic maritime croissant tandis que la Chine voit d’un très bon œil le développement de cette nouvelle voie plus courte vers ses clients et fournisseurs : une des nouvelles routes de la soie passe désormais par le pôle nord…

Capture d’écran d’une vidéo diffusée par Greenpeace alertant sur la fonte record de la banquise en Arctique (source © Goddard Space Flight Center/NASA)

Mais l’Extrême-Orient russe est aussi une zone de forte convoitise pour l’exploitation d’hydrocarbures et, là encore, les Russes ne reculent devant rien pour aller y développer leurs forages pétroliers. On a vu ainsi tout récemment, le 19 mai 2018, s’amarrer dans le port de Moumansk, une gigantesque barge flottante de 144 m de long et 30 m de large, de couleur marron et moutarde, l’Akademik Lomonossov, remorquée depuis le port de Saint-Petersbourg où elle avait été construite.

La centrale nucléaire flottante amarrée dans le port de Mourmansk (photo © Alexander Nemenov / AFP)

Cet immense bloc flottant qui pèse pas moins de 21 000 tonnes, n’est en fait rien d’autre qu’une centrale nucléaire destinée à être guidée en 2019 jusque dans le port de Pevek, dans le district autonome de Tchoukotka, à 350 km au nord du cercle arctique, justement pour approvisionner en énergie, non seulement la petite ville elle-même et ses 5000 habitants, mais surtout les nombreuses plates-formes pétrolières installées au large.

Les pays riverains s’étaient opposés à ce que la centrale flottante soit chargée en combustible radioactif sur son lieu de construction mais le chargement est bel et bien prévu à Mourmansk, et c’est donc bien une centrale nucléaire flottante en activité qui va ainsi être remorquée sur des milliers de kilomètres dans un écosystème particulièrement fragile et dans des conditions de navigation difficiles.

Route maritime entre Mourmansk (à l’ouest) et Pevek (à l’est) au nord de la Sibérie (source © William Dunlap / Université de Durham)

Le conglomérat public nucléaire russe Rosatom, qui a construit cette centrale comportant deux réacteurs nucléaires de 35 MW chacun, se vante d’avoir réalisé une première mondiale et considère que cette technologie des centrales nucléaires mobiles, à laquelle s’intéressent également les Chinois, est appelée à se développer. A écouter la propagande officielle de Rosatom, « cette installation dispose des systèmes de sécurité les plus modernes et devrait être l’une des installations nucléaires les plus sûres au monde ». Elle devrait même permettre d’économiser près de 50 000 tonnes de CO2 chaque année, en évitant d’avoir recours aux hydrocarbures voire au charbon pour assurer cette alimentation en énergie.

Une véritable prouesse technologie donc, qui laisse en effet sans voix, à l’exception de quelques militants associatifs de Greenpeace, toujours soupçonneux, qui voient dans cette centrale nucléaire hors-normes – allez savoir pourquoi ? – un « Titanic nucléaire » voire un « Tchernobyl sur glace ». Certains ont vraiment l’esprit mal tourné…

L.V. 

Le mirage de la mer à boire…

14 mai 2018

Dessaler l’eau de mer pour satisfaire nos besoins en eau douce : la solution technique paraît séduisante pour faire face à la raréfaction des ressources en eau douce, menacées par les épisodes de sécheresse et contaminées par les pollutions. Sachant que les océans recouvrent 70 % de la surface du globe terrestre, l’eau de mer apparaît pour beaucoup comme une ressource inépuisable. La transformer en eau potable après élimination de ses sels minéraux pourrait donc constituer, aux yeux de nombreux responsables politiques, une solution d’avenir à généraliser.

Usine de dessalement de l’eau de mer de Fujairah aux Émirats arabes unis (source © Suez)

En apparence, la solution technique n’est pas compliquée et les marins grecs la mettaient déjà en œuvre dans l’Antiquité en appliquant une recette concoctée par Aristote et qui consiste simplement à chauffer l’eau et à récupérer par condensation la vapeur ainsi émise. C’est le principe de la distillation, utilisé dans la marine de manière industrielle dès le XIXème siècle.

Depuis, il a fait naturellement l’objet de multiples améliorations techniques, avec notamment le développement de la vaporisation multi-flash qui consiste à faire passer l’eau, initialement chauffée sous pression, dans des enceintes à pression de plus en plus réduite qui entraînent sa vaporisation quasi instantanée. C’est ce type de procédé qui est notamment employé à grande échelle dans les pays du Golfe où l’énergie à base d’hydrocarbures ne coûte pas très cher.

Vue de la plus grande usine de dessalement de l’eau de mer fonctionnant en Europe, près de Barcelone

Car – est-il besoin de le préciser ? – l’opération est particulièrement gourmande en énergie. Certes, dans nombre de pays, comme le Qatar, qui recourt massivement au dessalement de l’eau de mer pour son approvisionnement en eau potable, l’eau est distribuée gratuitement et son prix de revient n’est donc pas considéré comme un problème. Ce qui explique d’ailleurs qu’un Qatari consomme en moyenne 1200 litres d’eau par jour, là où un Allemand n’en utilise que 95 litres !

L’usine de dessalement de l’eau de mer construite en 2010 à Hadera, au nord de Tel-Aviv en Israël

Heureusement, la technique a fait de nombreux progrès en la matière et on a de plus en plus recours à d’autres procédés nettement moins énergivores comme celui de l’osmose inverse. Là encore, le principe est simple puisqu’il consiste en une ultrafiltration sous pression à travers une membrane poreuse semi-perméable qui retient les sels. C’est cette technique qui est notamment utilisée couramment en Israël où près de 70 % de l’eau consommée par les particuliers provient du dessalement de l’eau de mer.

Pour autant, même avec ce type de procédé, dessaler l’eau de mer consomme encore cinq fois plus d’énergie que les usines de traitement d’eau douce classiques. Certes, on développe désormais de plus en plus d’installations de dessalement alimentées par des énergies renouvelables, comme c’est le cas par exemple sur l’île d’El Hierro aux Canaries, où trois usines fonctionnent grâce à l’énergie éolienne ou hydraulique et on commence à exploiter, pour l’instant à titre expérimental, des systèmes de distillation à four solaire.

Principe de fonctionnement de l’alimentation électrique d’une station de dessalement d’eau de mer sur l’île El Hierro, aux Canaries (source © Futura Sciences)

Mais tout cela ne résout pas le problème majeur qui est celui des rejets : la saumure concentrée et les produits destinés à limiter l’entartrage des installations, sont purement et simplement rejetés en mer où ils s’avèrent particulièrement néfastes pour le milieu naturel, surtout dans une mer fermée comme l’est la Méditerranée. Poussé à l’extrême, le principe consiste à augmenter sans cesse la salinité de l’eau laissée en mer, alors que cette salinité, qui est en moyenne de 35 g/l dans les océans atteint déjà 39 à 40 g/l en Méditerranée, 42 g/l dans le Golfe Persique et dépasse 50 g/l dans la Mer Rouge.

Sans aller jusqu’à prétendre, bien évidemment, que c’est à cause des usines de dessalement que l’eau de mer est salée, il n’en reste pas moins que les impacts environnementaux des rejets de ces installations apparaissent comme des plus préoccupants, en particulier sur les fonds marins où la saumure se dépose et perturbe non seulement la vie benthique mais aussi les courants marins.

Là aussi, les ingénieurs ne manquent pas d’imagination pour rechercher des solutions techniques. C’est ainsi qu’un cabinet canadien a imaginé, dans le cadre d’un appel à projet pour la production d’eau potable à Santa Monica, en Californie, une construction en forme de gros cigare posé à quelques encablures de la côte et qui devrait permettre de produire, grâce à l’énergie solaire, 4,5 millions de m3 d’eau potable par an tout en rejetant les saumures dans un bassin central à usage thermal : de quoi faire d’une pierre deux coups…

Maquette du projet The Pipe destiné à dessaler l’eau de mer près de Santa Monica en Californie (source © Khalili Engineers – Land Art Generator Initiative Design)

Mais l’on se rend compte aussi que l’alimentation en eau potable à partir d’eau de mer dessalée peut être à l’origine de carences graves en magnésium et en iode, comme c’est déjà le cas en Israël. Il faut donc rajouter ces éléments dans l’eau douce après s’être évertué à les enlever de l’eau de mer, ce qui du coup rend le procédé encore moins économique.

Globalement, le dessalement de l’eau de mer reste en tout cas un procédé coûteux qui n’est envisagé que faute d’alternative plus simple permettant d’exploiter les eaux de surface ou les nappes souterraines. Pourtant, on constate que certains pays n’hésitent pas à utiliser de l’eau dessalée y compris pour l’irrigation agricole. C’est le cas désormais en Espagne où, dès 2006, 40 % de l’eau produite par dessalement était en fait destinée à la production de tomates sous serres, en particulier dans la région d’Alméria.

Serres de cultures intensives près d’Alméria, alimentée à l’eau de mer dessalée (source © Ecotoxicologie)

Une telle situation paraît aberrante mais répond à une logique purement économique : cette production d’eau douce est indispensable pour répondre à l’afflux saisonnier de touristes dans une région où l’aridité du climat rend les ressources en eau douce trop rares, et le meilleur moyen de rentabiliser de tels investissements est de les faire fonctionner toute l’année en approvisionnant les agriculteurs pour la production maraîchère de contre-saison qui permet d’inonder tout le marché européen à bas coût.

Pas sûr que cette démarche soit la plus rationnelle en termes d’exploitation raisonnée et durable des ressources naturelles, mais dans le domaine de l’alimentation en eau, comme dans beaucoup d’autres, ce sont bien souvent d’autres critères qui dictent les investisseurs économiques…

L.V. 

Sous les ponts d’Ispahan coule…plus rien !

11 avril 2018

Vue de la ville d’Ispahan et de la rivière Zayandeh

La ville d’Ispahan, troisième d’Iran par sa population, avec plus de 2 millions d’habitants, fait partie de ces grandes métropoles urbaines qui se sont développées autour d’un cours d’eau, en l’occurrence le Zayandeh Rud, « le fleuve qui donne la vie » en persan. Prenant sa source dans les Monts Zagros, ce cours d’eau, l’un des rares permanents du pays, parcourt plus de 400 km avant de se jeter dans le lac Gavkhuni, un grand lac salé saisonnier perdu dans le désert.

Le madi Farshadi, canal d’irrigation destiné à répartir l’eau du Zayandeh

Située à plus de 1500 m d’altitude sur le plateau iranien aride, la ville est une oasis où la vie n’est possible que grâce au fleuve et aux multiples canaux d’irrigation, les madis, aménagés dès le 17e siècle qui distribuent l’eau à travers toute la ville et ses environs, y compris dans chaque maison organisée traditionnellement autour d’un patio intérieur cultivé et arboré. Avec une pluviométrie moyenne de 130 mm par an alors que l’évapotranspiration potentielle y atteint 1500 mm, aucune culture n’est en effet possible dans un tel contexte climatique sans irrigation.

C’est donc la rivière Zayandeh qui a permis à cette ville de se développer, au moins depuis le 4e siècle de notre ère puisque elle était un des centres urbains de l’empire sassanide avant la conquête musulmane, et de prospérer. C’est Malik Chah, un sultan seldjoukide qui en fait sa capitale après son accession au pouvoir en 1072.

La place meydān-e Naghsh-e Jahān au coeur de la ville d’Ispahan

Mise à sac par les troupes de Tamerlan en 1387, la ville redevient capitale à partir de 1597, à l’instigation de Chah Abbas, fondateur de la dynastie des Safavides, lequel transforme en profondeur la cité, aménageant notamment une grande place de 510 m de longueur, meydān-e Naghsh-e Jahān, une des plus grandes du monde, d’ailleurs classée au patrimoine mondial de l’humanité par l’UNESCO depuis 1979.

C’est de cette époque que date également la construction des grands ponts d’Ispahan, qui sont aujourd’hui au nombre de 11, permettant de franchir la rivière Zayandeh. Le plus ancien d’entre eux est probablement le pont Sharestan, dont les piles datent précisément de cette période sassanide entre le 3e et le 7e siècle après J.-C., mais dont les arches actuelles ont été reconstruites sous la dynastie des Seldjoukides aux alentours du 11e siècle.

Au pied du Si-o-Se Pol, l’un des plus célèbres ponts d’Ispahan, en 2002 (photo © Behrouz Mehri / AFP)

Le Si-o-Seh Pol, ou pont aux trente-trois arches, porte aussi le nom de son commanditaire Allahverdi Khan, un ministre de Chah Abbas, d’origine géorgienne, qui le fit construire vers 1608. Cet ouvrage sert non seulement pour le franchissement du cours d’eau mais a aussi une fonction de seuil, permettant de rehausser le niveau de l’eau à l’amont, pour permettre d’alimenter des prises d’eau qui irriguent les jardins de part et d’autre.

Le pont Khadju à Ispahan (photo © Kelly Cheng Travel Photography /Getty Images)

Comme le précédent, le pont Khadju, édifié cinquante ans plus tard sur les fondations d’un ouvrage préexistant, remplit également ce double office de pont et de barrage et sa structure est comparable, avec deux niveaux superposés, le second étant destiné à la promenade avec une allée centrale pour le passage des chevaux et des charrettes, et des allées latérales voûtées pour les piétons, mais aussi des cafés et des loggias permettant d’admirer le paysage. Pourvu de 23 arches, il présente une longueur totale de 133 m, pour une largeur de 12 m, ce qui en fait un ouvrage d’art remarquable pour cette période.

Ces ponts d’Ispahan, très prisés comme lieux de promenade, constituent un attrait touristique majeur. Sauf que la belle carte postale de l’eau coulant majestueusement entre les arches, formant au passage de joyeuses cascades, relève désormais du passé. Périodiquement asséchée au plus fort de l’été, la rivière Zayandeh a en effet purement et simplement disparu du paysage, ne laissant aux yeux du visiteur ébahi qu’un paysage aride de sable et de gravier ! A se demander même pourquoi l’empire perse a dépensé une telle énergie pour édifier de pareils ouvrages d’art alors que le lit de la rivière se traverse désormais à pied sec quasiment toute l’année…

Le pont Khadju dans son état actuel (source © Le site de Madeleine et Pascal)

La disparition du cours d’eau qui alimente depuis toujours la ville d’Ispahan date du début des années 2000. A l’époque, chacun accusait la sécheresse qui bien sûr n’est pas totalement étrangère au phénomène. Mais la vérité est que l’essentiel de l’eau du Zayandeh Rud est, depuis cette date, détournée en amont vers la région de Yadz qui se trouve être la ville natale de l’ancien président Mohammad Khatami.

Musée antique de l’eau à Yadz

Une ville oasis également, sans doute une des plus anciennes cités du monde puisque fondée aux alentours du troisième millénaire avant J.-C., située dans l’ancien empire des Mèdes, un des foyers de la religion zoroastrienne, puis une étape caravanière sur la Route de la Soie. Le canal qui détourne l’eau du Zarendeh vers cette zone désertique alimente d’ailleurs aussi la ville de Kerman, région natale d’un autre président, Hachemi Rafsandjani, lequel possède des champs de pistache qui en font un des premiers exportateurs du pays et pour lesquels les besoins d’irrigation sont prioritaires.

Cette disparition du fleuve détourné au profit d’autres régions alimente la colère des habitants d’Ispahan et surtout des agriculteurs de la région qui se désespèrent de voir leurs récoltes se dessécher sur pied. Plusieurs émeutes ont ainsi éclaté, les dernières datant de février 2013 selon Le Monde : les habitants du village de Varzaneh ont alors détruit les installations d’eau dans leur village, amenant les prêcheurs publics de la ville à les traiter d’« opportunistes égarés » et à les accuser de « collaboration avec l’ennemi ». La police n’a pas hésité à tirer, blessant trois manifestants avec des balles en caoutchouc, mais les habitants ont du moins obtenu, suite à ces incidents, la reconnaissance, par le procureur du tribunal révolutionnaire d’Ispahan, de la mauvaise gestion de certains anciens responsables du ministère de l’énergie dans la répartition de l’eau.

Manifestation d’agriculteurs devant le pont Khadju au centre d’Ispahan, le 7 avril 2018 (source : France Mojahedin)

De nouvelles émeutes se sont encore produites tout récemment, depuis le 16 février 2018, selon un communiqué du Conseil national de la résistance iranienne, les habitants de plusieurs quartiers périphériques d’Ispahan défilant en scandant « Rohani le menteur, où est notre rivière ? ». Le 18 mars dernier, un camion transportant des munitions a d’ailleurs pris feu alors qu’il venait ravitailler les forces spéciales anti-émeutes de la police à Varzaneh, de nouveau engagées contre les manifestations d’agriculteurs en colère.

Encore un exemple qui prouve à quel point les batailles de l’eau deviennent un enjeu majeur, surtout dans des régions en forte croissance démographique et confrontées à un climat aride pour lequel les effets du réchauffement climatique global ne vont certainement pas arranger les choses…

L.V.  

Le Bulgare et la cigogne

30 mars 2018

Décimées dans les années 1970, date à laquelle les populations de cigognes blanches avaient quasiment disparu du sol français, sous l’effet cumulé des pratiques agricoles, de la pollution, de la chasse mais aussi des épisodes de sécheresse en Afrique, ces populations d’échassiers migrateurs, désormais protégés en France depuis 1981, se sont peu à peu reconstituées.

Nids de cigognes sur les toits alsaciens

Alors qu’il ne subsistait que 11 couples nicheurs recensés sur le sol national en 1974, principalement en Alsace, les efforts menés depuis pour réintroduire l’espèce mais surtout protéger son habitat en restaurant certaines zones humides ont porté leurs fruits puisque l’on comptait en France plus de 1600 couples en 2010.

Pour autant, certaines régions d’Europe orientale restent nettement plus attractives pour ces oiseaux migrateurs que l’on voit arriver au printemps et repartir à l’automne pour leur migration africaine. Ainsi, on estime que plus de 50 000 cigognes, soit 20 % de la population mondiale connue, passent l’été en Pologne. Sciences et Avenir cite ainsi en exemple le petit hameau de Zywkowo situé à l’extrême nord du territoire polonais, tout près de l’enclave russe de Kaliningrad : dans les années 1960, on y dénombrait 120 habitants et 20 cigognes, mais désormais les chiffres se sont inversés et les rares habitants restés sur place consacrent tout leur temps à entretenir les mares et installer des plateformes sur leur toit pour faciliter l’accueil de ces migrateurs africains.

Nid de cigognes à Zywkowo en Pologne (source © Sciences et Avenir)

Et la Pologne n’est pas le seul pays d’Europe de l’Est à se montrer aussi accueillant envers ces populations émigrées, malgré les dérives nationalistes de ses responsables politiques. C’est une dépêche de l’AFP, relayées par plusieurs médias dont le Point, qui s’en est fait récemment l’écho : en Bulgarie, les premières cigognes arrivées en mars en pleine vague de froid polaire, se sont retrouvées littéralement congelées et ont dû être secourues par les habitants du cru.

Safet Halil, un employé de voirie quinquagénaire de Zarista, au nord-est de la Bulgarie, s’est ainsi distingué en recueillant au bord de la route cinq cigognes blanches aux ailes gelées. Il les a transportées dans sa demeure, par ailleurs fort modeste, a allumé le poêle pour les réchauffer et leur a acheté du poisson. Deux jours plus tard, les cigognes étaient toujours installées dans leur foyer d’hébergement provisoire, profitant de l’hospitalité du Bulgare au grand cœur avec qui elles avaient manifestement sympathisé, poussant même la familiarité jusqu’à lui donner quelques coups de bec amicaux.

Safet Halil et les cigognes qu’il héberge à domicile (photo © Dimitar Dilkoff / AFP)

Et le cas n’est pas isolé puisqu’une quarantaine d’habitants de la région l’auraient imité, récupérant de nombreuses cigognes en détresse du fait de la vague de froid et des chutes de neige qui ont sévi toute la semaine dernière dans ce secteur. Mises à l’abri dans des garages et des hangars agricoles, nombre de cigognes ont ainsi pu être sauvées. Une situation peu courante et qui a suscité de nombreux échanges sur les réseaux sociaux dans un pays où la population de cigognes est en hausse puisque le dernier recensement effectué en 2016 fait état de plus de 6000 de ces volatiles soit 1000 de plus qu’en 2010 : un afflux migratoire sans précédent mais dont les Bulgares se réjouissent.

Puissent tous les populations de migrants en provenance de régions africaines bénéficier d’un accueil aussi chaleureux dans nos contrées…

L.V. 

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

Biomasse bois : 3 projets retenus en PACA

3 mars 2018

Le bois, source renouvelable d’énergie (photo © Frédéric Douard)

C’est un communiqué du Ministère de la transition écologique et solidaire qui l’a annoncé, le 28 février 2018 : la deuxième tranche de l’appel à projets lancé en vue de soutenir, via un complément de rémunération, des projets de développement d’unités de production de biomasse, a retenu 11 projets dont trois qui se situent en région PACA : un beau succès pour le développement de la production énergétique à partir de la biomasse forestière dans notre région !

La première tranche de cet appel à projets lancé en février 2016 visait explicitement à encourager à la fois les projets de méthanisation, autrement dit la production de biogaz à partir de déchets ou de matière végétale brute, mais aussi la production directe d’électricité à partir de la combustion du bois. Ce développement de la biomasse en France est une nécessité comme l’affirme Nicolas Hulot : « La France a voté en décembre dernier une loi mettant fin à la recherche et à l’exploitation des hydrocarbures sur tout notre territoire. En parallèle, notre pays doit monter en puissance sur le développement des énergies renouvelables pour répondre aux objectifs fixés dans le Plan climat. Les projets annoncés aujourd’hui répondent à cette ambition de soutenir des filières créatrices d’emplois ».

Stock de copeaux de bois destinés à la filière bois énergie (photo © Richard Mayer / La Gazette)

A l’échelle mondiale, on estime que l’électricité produite à partir de la biomasse représente de l’ordre de 58 GW mais que cette puissance pourrait atteindre 86 GW d’ici 2021, ce qui représente un potentiel de croissance remarquable. En France, c’est moins de 1 % de l’électricité produite qui provient de la biomasse, même si cette fillière représentait déjà en 2014 de l’ordre de 7,5 % de la production d’électricité d’origine renouvelable (loin derrière l’hydroélectricité et l’éolien, mais devant le solaire néanmoins).

Le principe de la filière bois-énergie est des plus simples puisqu’il se limite à faire brûler le bois pour chauffer de l’eau et produire de la vapeur qui actionnera une turbine comme dans n’importe quelle centrale électrique. Il faut environ 4 tonnes de bois pour produire autant d’électricité qu’avec une tonne de pétrole, mais le CO2 qui est relâché dans l’atmosphère à cette occasion correspond à la seule quantité qui a été séquestrée durant la croissance des arbres, d’où un bilan neutre en termes d’émission de gaz à effet de serre, contrairement à ce qui se passe via l’utilisation d’un combustible fossile.

Digesteur à méthanisation de Marnay Energie à Feux dans le Cher, construite par Xergi (photo © Xergi)

Dans le cadre de la méthanisation, le procédé est plus complexe puisqu’on récupère d’abord le biogaz issu de la fermentation de la matière organique utilisée (déchets organiques, résidus végétaux, boues issues de stations d’épuration, ou déchets provenant de certaines activités agro-industrielles) et que c’est ce biogaz qui sert ensuite soit pour produire de l’électricité soit pour se chauffer.

Toujours est-il que l’on est désormais rentré dans un véritable processus visant à encourager ce type de production en France et cet appel à projets du ministère y contribue. Ce sont en effet 45 dossiers de candidatures qui ont été reçus à l’occasion de cette seconde tranche de l’appel à projet, sachant que la troisième tranche sera ouverte à compter du 29 juin 2018 et devrait permettre de sélectionner encore de nouveaux projets industiels.

Le ministre Nicolas Hulot visitant la plateforme expérimentale Gaya à Saint-Fons (production de biométhane à partie de biomasse sèche) le 26 juillet 2017 (photo © ENGIE)

Sur les 11 projets ainsi retenus, 2 correspondent à des installations de méthanisation prévues respectivement en Bretagne et dans le Médoc. Tous les autres sont des projet bois-énergie pour des puissances installées unitaires supérieures à 300 kW, l’ensemble des projets totalisant une puissance globale installée de près de 53 MW (à comparer avec une tranche de réacteur nucléaire de type Fessenheim dont la puissance nominale est de 900 MW).

La plus ambitieuse de ces installations est justement prévue dans les Bouches-du-Rhône, à Tarascon, portée par la société marseillaise Bio-Watt, pour une puissance totale de 25 MW. Les deux autres projets implantés en région PACA sont d’ampleur nettement plus limitée avec des puissances visées oscillant entre 1MW pour le projet de Campus SAG Sud Luberon à Villelaure, dans le Vaucluse, et 1,2 MW pour celui porté par la société Pérénia à Clans, une commune forestière située dans la vallée de la Tinée, dans les Alpes-Maritimes.

Ces désignations interviennent alors que le projet de plus grande centrale biomasse de France prévu à Gardanne, porté initialement par le groupe énergétique allemand E.ON puis repris par sa filiale, la société Uniper France Power, continue à faire polémique. Pour rappel, le Tribunal administratif de Marseille avait annulé le 8 juin 2017 l’autorisation d’exploitation accordée par l’État en 2012, au motif que l’étude d’impact n’analysait pas « les effets négatifs indirects et permanents du projet sur les espaces forestiers de la zone d’approvisionnement » de la centrale, située dans un rayon de 400 km.

Vue de l’unité de la centrale thermique de Provence, à Gardanne destinée à produire de l’électricité à partir de la biomasse (photo © Serge Guéroult / La Provence)

Il faut dire que le projet était particulièrement ambitieux, voire totalement démesuré pour ses détracteurs qui évoquent « un véritable aspirateur à forêts » destiné à raser les châtaigneraies des Cévennes et à faire disparaître toute la forêt méditerranéenne… Il consistait à transformer, moyennant un investissement de 265 millions d’euros, la tranche 4 de l’ancienne centrale à lignite de Gardanne, en une vaste centrale à biomasse, d’une puissance de 150 MW (soit 6 % de la consommation totale de la région PACA), capable de brûler d’ici 2024, 850 000 tonnes de bois par an, dont 445 000 tonnes provenant de boisements locaux, le reste étant a priri constitué de déchets verts et de bois recyclé.

Les deux parcs naturels régionaux du Luberon et du Verdon sont vent debout contre ce projet de centrale à biomasse, au grand dam du Président de la Région, Renaud Muselier, qui menace du coup de leur couper les vivres, estimant dans un communiqué que « l’écologie doit être mise au service de l’économie pour faire de la croissance verte un atout ». Mettre l’écologie au service de l’économie, les écologistes apprécieront certainement…

En juillet 2017, Nicolas Hulot a malgré tout décidé de faire appel du jugement du Tribunal administratif. Quant aux parcs naturels régionaux, ils ont fini par rentrer dans le rang. Comme l’a raconté Reporterre, le 29 septembre dernier, les deux PNR réunis à Valensole ont accepté de signer un protocole d’accord avec Uniper, décidant de l’abandon de leurs poursuites devant le Tribunal administratif et de l’accompagnement de la nouvelle étude d’impact qui s’est du coup déroulé fin 2017 dans la plus grande discrétion. L’association France Nature Environnement PACA, elle-même très opposée au projet a aussi rendu les armes, effrayée par les baisses de subvention annoncées par la Région. Un passage en force donc et qui a déjà permis à l’unité de biomasse de produire 250 MWh au cours de 2200 heures de fonctionnement accumulés pendant les phases d’essais en 2017.

Pour l’instant, 55 % de la ressource utilisée à Gardanne est importée, pour l’essentiel de plantations d’eucalyptus situées en Espagne et au Brésil, 20 % étant issu de la production forestière locale, le reste provenant de déchets de récupération et de bois en fin de vie. Un progrès sans doute par rapport au charbon qui alimentait jusque là cette centrale thermique, l’une des 4 dernières encore en activité dans l’hexagone, mais qui est encore loi d’apaiser toutes les craintes des défenseurs locaux de l’environnement !

L.V.  

La voiture électrique est-elle écologique ?

1 mars 2018

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V. 

Changement climatique : pourquoi personne ne bouge ?

22 février 2018

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Vade retro 2017…

1 janvier 2018

L’année 2017 vient de s’achever. Les nostalgiques de toujours la regretteront sans doute : on sait ce qu’on perd mais on ne sait jamais ce qui nous attend… Les plus pessimistes redoutent déjà la nouvelle année qui vient de démarrer et le lot de futures catastrophes qu’elle ne manquera pas de nous apporter…

C’est en tout cas pour tous le moment de se remémorer quelques uns des événements qui ont jalonné l’actualité de cette année 2017, riche en rebondissements. Pour cela, mieux vaut un bon dessin qu’un long discours : un dessin de presse bien entendu, de ces petits chef-d’oeuvres d’humour grinçant ou décalés, parus dans la presse ou relayés sur internet, qui savent mieux que personne prendre l’actualité par son côté dérisoire et permettent de faire sourire de tous ces événements qui font notre quotidien !

Merci donc à ces dessinateurs de presse, tous plus talentueux les uns que les autres, qui savent à merveille tirer profit des événements les plus tragiques ou les plus insignifiants pour nous faire rire. Cette rétrospective toute personnelle n’est bien entendu ni objective ni exhaustive. C’est juste une manière de se remémorer certains événements petits ou grands survenus en 2017 et déjà oubliés, laminés par le flot quotidien d’informations qui nous submergent…

C’est aussi l’occasion, pour l’équipe qui anime ce blog collectif de souhaiter à tous nos lecteurs, occasionnels ou assidus, une excellente année 2018 en espérant, sait-on jamais, qu’elle n’apporte pas que de mauvaises nouvelles mais permette, pourquoi pas ?, de reprendre espoir dans la capacité des hommes à ne pas choisir systématiquement les options les plus regrettables…

L.V.  

Janvier

Le 25 janvier 2017, un article du Canard enchaîné informe ses lecteurs que François Fillon, vainqueur de la Primaire de la Droite et candidat favori pour les prochaines élections présidentielles, est soupçonné d’avoir utilisé son indemnité de parlementaire pour fournir pendant des années un emploi fictif à sa femme Pénélope. Les révélations s’enchaînent et ont un énorme retentissement, d’autant que François Fillon commence par tout nier en bloc avant d’accepter l’évidence tout en accusant un hypothétique cabinet noir à l’Elysée d’être à la manœuvre.

Ses amis LR, Gérard Larcher en tête font mine de le soutenir en espérant qu’il finisse par se retirer, mais en vain. Sa morgue et son obstination conduiront finalement à son élimination dès le premier tour de la présidentielle. Un dessin de Deligne publié sur Urtikan.

 

Février

Le 2 février, à Aulnay-sous-Bois, un jeune noir de 22 ans, surnommé Théo, éducateur de quartier, est violemment molesté par 3 policiers tandis qu’un quatrième tient à distance à coups de gaz lacrymogène d’autres jeunes du quartier. Embarqué au commissariat, Théo fait l’objet d’insultes racistes et reçoit des coups. Un des policiers le blesse profondément en lui introduisant sa matraque dans l’anus. Il pore plainte pour viol et le parquet de Bobigny ouvre une information judiciaire pour « violences volontaires en réunion par personnes dépositaires de l’autorité publique ». Plusieurs manifestions en soutien ont lieu pour dénoncer les méthodes musclées de certains policiers. En pleine campagne électorale, Marine Le Pen se refuse néanmoins à condamner de telles pratiques. Un dessin de Marc Large publié sur Pinterest.

Mars

Alors que la campagne électorale des présidentielles bat son plein, le débat se focalise sur le clause Molière, obligeant les ouvriers à parler la langue française pour bien comprendre les consignes de sécurité, en réalité destinée à freiner l’emploi de travailleurs détachés sur les gros chantiers de travaux publics.

En février, le président de la Région Auvergne-Rhône-Alpes, Laurent Wauquiez, avait fait adopter une telle clause pour les marchés publics de sa collectivité. En mars, c’est au tour de la Région Ile-de-France de lui emboîter le pas. Le Tribunal administratif validera cette clause en juillet 2017 pour un marché passé par la Région Pays de la Loire, mais le 13 décembre 2017, le Tribunal administratif de Lyon annule la délibération du Conseil régional Auvergne-Rhône-Alpes, invoquant un « détournement de pouvoir » et mettant en doute le réel motif de cette disposition : « La délibération a été adoptée, non pour assurer la protection de la santé et la sécurité des salariés, mais pour exclure les travailleurs détachés des marchés publics régionaux et favoriser les entreprises régionales en méconnaissance des principes de liberté d’accès à la commande publique et d’égalité de traitement des candidats ». Un dessin de Pétillon publié dans le Canard enchaîné du 15 mars 2017.

 

Avril

Pour le premier tour de l’élection présidentielle qui se déroule le 23 avril, beaucoup de Français se déclarent indécis jusqu’à la dernière minute et les sondages, qui pour une fois se révéleront très fiables dans leurs prévisions, montrent une très forte évolution des intentions de vote entre les 11 candidats déclarés. Un dessin d’Ixène publié le 19 avril.

 

Mai

Elu au deuxième tour de la présidentielle le 7 mai face à Marine Le Pen, Emmanuel Macron prend officiellement ses fonctions de Président de la République à l’issue d’une cérémonie de passation de pouvoir le 14 mai avec son prédécesseur, le socialiste François Hollande. Ce dernier avait vu les débuts de son quinquennat marqué par de violentes précipitations et la presse s’était gaussé de ces différentes cérémonies officielles au cours desquelles le Président Hollande finissait trempé comme une soupe et emprunt d’une image de looser malchanceux. Au contraire, son ancien secrétaire général adjoint de l’Elysée avait reçu plusieurs coups de pouce du destin durant la campagne présidentielle, dont le retrait de la compétition de François Hollande lui-même, l’absence d’alliance à gauche entre Benoît Hamon et Jean-Luc Mélenchon, l’élimination à la Primaire de Nicolas Sarkozy et d’Alain Juppé, puis l’affaire Fillon qui a eu raison de son principal adversaire. Un dessin signé JM.

 

Juin

A la suite des élections législatives des 11 et 18 juin, La République en marche obtient une large majorité avec 308 élus auxquels s’ajoutent 42 députés MODEM. Nommé garde des Sceaux dans le premier gouvernement d’Edouard Philippe, François Bayrou doit faire face à des accusations d’emplois fictifs d’attachés parlementaires européen alors qu’il tente de mettre en place son projet de loi sur la moralisation de la vie politique. Il finit par démissionner du gouvernement le 21 juin après n’être resté que 35 jours au ministère de la Justice. Nommée ministre des Affaires européennes, sa collègue Marielle de Sarnez quitte également le gouvernement à la même date. Un dessin de Na !

 

Juillet

Le 12 juillet, un iceberg géant de plus de 6 000 km2 se détache de la barrière de glace Larsen en Antarctique. La fissure s’était propagée depuis plusieurs mois et a fini par atteindre la mer, provoquant le détachement irrémédiable de cette immense laque de banquise.. Il s’agit d’un des plus grands icebergs observés de mémoire d’homme, vaste comme deux fois la superficie du Luxembourg. D’un poids estimé à plus de 1 million de tonnes, cet immense bloc de glace contient autant d’eau que le lac Ontario. Un dessin de Mutio publié sur le site Urtikan.

 

 

Août

Pour ses premières vacances de Président de la République, Emmanuel Macron a choisi de les passer à Marseille où on a pu le voir sirotant un Pastis à la terrasse d’un café ou faisant son jogging aux couleurs de l’OM, son club fétiche. Le couple Macron a ainsi profité de la villa avec piscine du préfet de la région qui surplombe la Corniche Kennedy.

Ce séjour marseillais n’a pas manqué de faire jaser. Le sociologue Jean Viard a ainsi estimé que cette visite était un message adressé à Jean-Luc Mélenchon, lequel convoiterait la mairie marseillaise pour 2020, date à laquelle chacun espère que Jean-Claude Gaudin ne se représentera pas. Un dessin de Placide publié sur son site.

 

 

Septembre

Le 6 septembre, l’ouragan Irma dévaste les îles de Saint-Martin et de Saint-Barthélémy aux Antilles. Quelques jours plus tard, alors qu’il s’attarde sur la Floride, un autre ouragan, José, traverse à son tour l’Atlantique, avant d’être rejoint par la tempête tropicale Maria qui frappe notamment Porto Rico, la Dominique, la Guadeloupe et les ïles Vierges. Le 19 septembre, Emmanuel Macron succède à la tribune à Donald Trump pour son premier discours devant l’assemblée générale de l’Organisation des Nations-Unies. Contrairement au président américain qui est obnubilé par la lutte contre l’immigration clandestine, il se pose en porte-parole des sans-voix et insiste lourdement sur notre responsabilité vis-à-vis du réchauffement climatique et sur les conséquences de ce dernier en matière de risques naturels. Un dessin de Chaunu paru dans l’Est Eclair le 19 septembre 2017.

 

Octobre

Le 1er octobre se tient un référendum pour l’indépendance de la Catalogne organisé par le président de la Généralité de Catalogne, Carles PuigdemontCe référendum a été approuvé par le Parlement de Catalogne mais jugé illégal par le Tribunal constitutionnel espagnol. Le oui à l’indépendance l’emporte à plus de 90 % mais le taux de participation ne dépasse pas 43 % et la consultation est entachée de nombreuses violences policières. Il s’ensuit un bras de fer entre les indépendantistes catalans et le chef du gouvernement espagnol Mariano Rajoy, chacun jetant de l’huile sur le feu.

La République catalane est proclamée le 27 octobre mais dans la foulée le sénat espagnol vote la dissolution du Parlement de Catalogne et la destitution de Carles Puigdemont qui se réfugie en Belgique pour éviter la prison. De nouvelles élections sont organisées pour le 21 décembre. Pendant ce temps-là, la Grande-Bretagne s’efforce de trouver un accord avec l’Union européenne suite au référendum en faveur du Brexit. Un dessin de Chappate.

Novembre

Un « projet de loi pour un Etat au service d’une société de confiance » est présenté le 27 novembre en Conseil des ministres. L’objectif est de simplifier les relations avec l’administration et de créer un « droit à l’erreur » en faveur des citoyens et des entreprises. Un contribuable de bonne fois et non récidiviste pourra invoquer la clémence des services fiscaux en cas d’erreur ou d’omission dans sa déclaration. Un concept qui fait beaucoup jaser et donne des idées aux politiques qui auraient négligé d’appliquer leurs promesses électorales en toute bonne foi… Un dessin de Diego Aranega publié dans le Canard enchaîné du 29 novembre 2017.

Décembre

Le 5 décembre disparaissent quasi simultanément deux monstres de la culture française. D’abord l’académicien Jean d’Ormesson, mort à 92 ans, puis le rocker Johnny Hallyday décédé la nuit suivante à 74 ans des suites d’un cancer du poumon. Avec plus de 100 millions de disques vendus et une vie tumultueuse largement mise en scène par la presse people, le chanteur aura fortement marqué sa génération et sa disparition suscite d’innombrables commentaires dans les médias. Un dessin d’Olivier Ménégol publié dans Le Figaro.