Archive for the ‘Science et techniques’ Category

Les tribulation d’un Groenlandais à Marseille…

15 juin 2018

Fin mai 2018 se tenait au palais du Pharo à Marseille le 97ème congrès de l’ASTEE, l’Association scientifique et technique pour l’eau et l’environnement, laquelle avait invité, en ouverture de son grand raout annuel, un soi-disant expert groenlandais venu expliquer doctement aux 400 congressistes, tous professionnels du domaine de l’eau et de la gestion des déchets, comment ses ancêtres vikings avaient dû abandonner les terres du Groenland à la fin du XVe siècle, un peu avant que Christophe Colomb ne découvre l’Amérique.

L’expert en question n’était en réalité qu’un acteur jouant le rôle d’un universitaire groenlandais, venu retracer devant un parterre d’experts français de l’eau et de l’environnement, un fait historique un peu tombé dans les oubliettes de l’Histoire mais dont le rappel ne manque pourtant pas d’intérêt en ces temps où l’on parle beaucoup de transition énergétique et d’adaptation au changement climatique.

Le Saga Siglar, copie d’un navire viking découvert au Danemark

Petit retour en arrière donc, jusqu’en l’an de grâce 983 (ou à peu près car les dates varient selon les sources). A cette date, comme le rappelle un article de Science et Avenir, un certain Erik le Rouge, débarque sur les côtes du Groenland à la tête d’un groupe de quelques centaines de Vikings en provenance de l’Islande et qui ont fait la traversée sur leurs navires aux proues sculptées de monstres marins. L’aventure n’est pas sans danger comme le relatent les sagas scandinaves puisque 11 des 25 navires de l’expédition sombrent en route.

Le « pays vert » (Green Land) où ils abordent n’est pas si verdoyant que son nom l’indique mais plutôt inhospitalier, orné d’un maigre tapis de bruyère arctique et partiellement recouvert d’une épaisse calotte glaciaire. On est alors à l’optimum climatique médiéval qui permet la survie de quelques pâturages herbeux et de saules clairsemés, aujourd’hui quasiment disparus, mais c’est quand même un territoire particulièrement rude où s’installent ces pionniers qui ne peuvent s’en remettre pour leur survie qu’à Thor, Odin ou encore Jésus puisque certains viennent depuis peu de se convertir au christianisme.

Vestiges de l’église viking de Brattahild, près de la ferme d’Erik-le-rouge

Malgré ces difficultés, les Viking fondent deux colonies distinctes, l’une au sud de l’île et l’autre à 400 km au nord, près de Nuuk, la capitale actuelle, leur population atteignant sans doute autour de 5000 individus à son apogée. Les colons scandinaves qui sont venus avec leur bétail développent un peu d’élevage. Mais les recherches archéologiques les plus récentes montrent qu’ils vivent en réalité surtout du commerce. Les bateaux vikings qui desservent régulièrement le territoire permettent d’exporter les fourrures de renards arctiques et d’ours polaires, mais surtout les défenses de morses et de narval dont l’ivoire était particulièrement prisé au Moyen-Age.

Figurines de jeu d’échec en ivoire du Groenland, retrouvées en Ecossse

En échange, les colons font venir pour leurs besoins le blé qu’ils n’arrivent pas à faire pousser sur l’île à cause de la brièveté de la période estivale, mais surtout le bois et le fer qui sont inexistants sur place. Mais malgré cette relative prospérité liée au commerce, la vie est rude d’autant que le climat est de plus en plus froid au cours du Petit âge glaciaire : à partir du milieu du XIIIe siècle, les glaciers progressent sensiblement au Groenland. Les Viking ont de plus en plus de mal à poursuivre leurs activités d’élevage et se tournent davantage, pour se nourrir, vers les produits de la mer, poissons et phoques en particulier, qui finissent par constituer 80 % de leur alimentation.

En 1367, le navire qui desservait régulièrement le Groenland fait naufrage et il ne sera pas remplacé de sitôt, laissant les colons vikings dans un isolement fatal. Il faut dire qu’entre-temps l’Europe a découvert l’ivoire des éléphants d’Afrique qui remplace avantageusement celui des morses…

Avec le refroidissement climatique, les Vikings du Groenland se retrouvent désormais confrontés à un autre groupe ethnique, les Inuits, venus du Canada pour se réfugier sur des terres plus hospitalières.

Inuit du Groenland avec ses chiens

Contrairement aux Viking, les Inuits sont parfaitement adaptés à ces terres glacées. Ils maîtrisent parfaitement la chasse hivernale au phoque, lorsqu’il s’agit de découper un trou dans la banquise, technique que les Viking ignorent et qui rend leur subsistance si précaire durant les longs hivers. Leurs igloos et leurs tentes sont nettement plus confortables que les huttes en pierres sèches où s’abritent les Vikings. Leurs kayaks légers et effilés leur donnent une extrême mobilité et en font de redoutables chasseurs et pêcheurs. Ils s’habillent de cuirs et de fourrures, beaucoup plus faciles à se procurer que les lainages des Vikings. Leurs armes sont taillées dans l’os et l’ivoire local, certes moins efficaces que celles en bois et en fer des Scandinaves, sauf que celles-ci viennent rapidement à manquer lorsque les liaisons maritimes s’espacent. Les Inuits n’ont pas besoin de tourbe ou de bois pour se chauffer et s’éclairer, préférant pour cela plutôt la graisse animale.

En kayak au milieu des icebergs

Les Vikings méprisent souverainement ces Esquimaux avec leur anorak graisseux et leurs armes rudimentaires. Ils se gardent bien de les côtoyer de trop près, ce qui ne leur permet pas de s’approprier leurs techniques de chasse et leur mode de vie. Du coup, leur isolement et leurs difficultés d’adaptation au climat local les rend particulièrement vulnérables. Contre toute attente, ce sont donc les Inuits qui prennent le dessus tandis que les Vikings finissent par disparaître. Les derniers contacts écrits avec la colonie groenlandaise datent de 1408 et il semble que la colonie se sont complètement éteinte autour des années 1450, sans qu’on sache très bien si les derniers colons survivants ont été rapatriés vers la mère patrie où s’ils sont morts sur place.

Vestiges d’une implantation viking à Gardar, dans l’Est du Groenland

La disparition des Vikings du Groenland, racontée notamment dans l’ouvrage intitulé Effondrement, publié en 2006 par Jared Diamond, est emblématique de ces situations de crise où une population a besoin de s’adapter à un monde en profonde mutation, climatique mais aussi sociale, économique, technologique. En l’occurrence, ils n’ont pas réussi à s’imposer durablement sur ce territoire arctique, malgré les exploits guerriers et la formidable expansion dont ont su faire preuve ces populations qui avaient, entre le IXe et le XIe siècle, pillé et colonisé une bonne partie de l’Europe.

Plus frustres et plus aptes à tirer profit des ressources locales, les Inuits au contraire, ont réussi à traverser les siècles et à coloniser durablement le Groenland. De là à conclure que l’adaptation au changement climatique nécessitera d’abandonner quelques-uns de nos préjugés et certains acquis de notre civilisation, voire de sacrifier une part de notre confort auquel nous sommes tant habitués, il y a un grand pas que l’on se gardera bien évidemment de franchir, quoique…

L.V. 

 

Publicités

Comment a été ressuscité le café marron de La Réunion ?

13 juin 2018

On ne le sait sans doute pas assez mais la biodiversité est en grand danger du fait de nos choix de développement depuis des années : à force de défricher, de bétonner, d’urbaniser, de polluer allègrement et d’asperger nos champs à coup d’insecticides et d’herbicides, glyphosate en tête, on considère qu’un quart des espèces de mammifères est désormais menacée d’extinction et sans doute un tiers des amphibiens. Parmi les oiseaux, 94 espèces ont d’ores et déjà disparu de la planète et 187 sont en grave danger d’extinction.

L’alouette des champs, une espèce commune en voie de forte régression dans nos campagnes

En France, au cours de ces 15 dernières années, un tiers des populations d’oiseaux ont déserté nos campagnes, un déclin qui s’est amorcé au début des années 1970 et qui s’est encore accéléré entre 2016 et 2017 au vu des études menées tant par le Museum national d’histoire naturelle que par le CNRS. Seuls quelques espèces plus généralistes et plus opportunistes, telles que les pigeons, les merles ou les corneilles, tirent leur épingle du jeu en prenant progressivement la place des espèces en voie de disparition : adieu alouettes et rossignols !

Cette disparition massive et en voie d’accélération s’accompagne d’une chute brutale bien que moins visible des populations d’insectes, elles-mêmes en grand danger du fait principalement des ravages de l’agriculture intensive qui a totalement modifié les paysages et provoque de véritables hécatombes à coup de pesticides.

Coquelicots dans un champ d’orge : bientôt une image du passé ?

Et la flore sauvage n’est pas non plus épargnée par le développement de l’urbanisation et l’évolution de nos pratiques agricoles (le tonnage d’herbicides utilisé en France a été multiplié par 5 entre 1970 et 1990 et il continue encore à progresser malgré tous les engagements réglementaires). Ainsi, une étude menée entre 2009 et 2013 par le Conservatoire national botanique de Brest a montré que 120 espèces de plantes ont disparu en un siècle dans le département du Calvados, dont 44 depuis le début des années 1980. En Ile-de-France, on comptait environ 90 espèces sauvages présentes couramment dans les parcelles cultivées : un tiers d’entre elles a désormais définitivement disparu et seules 18 % restent encore stables, les autres étant devenues très rares ou en voie de régression.

Cette extinction massive de la biodiversité naturelle s’observe partout dans le monde. Elle suscite du coup des vocations de Noé des temps modernes. Marianne a dressé récemment le portait de l’un d’eux, Carlos Magdalena, surnommé « le messie des plantes » par un journaliste espagnol, séduit sans doute par son look christique. Il travaille au jardin botanique royal de Kew Gardens, dans l’ouest londonien, une vénérable institution victorienne qui héberge plus de 30 000 espèces végétales et qui s’est érigé en un vaste laboratoire de 121 ha attaché à la conservation des variétés menacées d’extinction.

Carlos Magdalena dans une serre de Kew Gardens (photo © Rebecca Reid / Kew Royal Botanic Gardens)

Ce passionné de la cause végétale a notamment à son actif le sauvetage d’un arbuste sauvage endémique des îles Mascareignes (l’archipel qui regroupe les îles de La Réunion, Rodrigues et Maurice), le café marron, Ramosmania rodriguesi de son petit nom. Bien que La Réunion apparaisse au touriste comme d’une grande richesse botanique avec de nombreuses plantes endémiques, l’île est en fait un désastre écologique avec 53 espèces végétales déjà irrémédiablement disparues et 393 (soit 30 % de celles qui y sont recensées) fortement menacées !

Lagon autour de l’île Rodrigues, dans l’archipel des Mascareignes

Sur Rodrigues, une trentaine d’espèces végétales ne se reproduisent plus, ce qui indique que leur disparition définitive approche à grands pas puisqu’on pourra la dater au jour où le dernier plant recensé viendra à mourir… Le café marron, une variété endémique de caféier découvert à La Réunion au début du XVIIIe siècle mais rapidement supplanté par la variété importée du caféier d’Arabie et de sa mutation locale, le Bourbon pointu, avait ainsi complètement disparu dans les années 1970, lorsqu’un écolier en a redécouvert un pied miraculeusement épargné en 1979.

Plant de café marron au Kew Royal Botanic Gardens

Mais comme on prête à cette plante de nombreux pouvoirs médicinaux, il a fallu la mettre en cage pour la protéger contre les habitants de Rodrigues venant régulièrement en couper des rameaux. Trois branches du survivant sont finalement prélevées et transportées jusqu’à Kew Gardens. Placées en pépinières, on parvient à en faire deux boutures que Carlos Magdalena s’efforce d’implanter dans du terreau fortifié. La première meurt rapidement et la deuxième la suit de près après avoir néanmoins laissé éclore quelques boutons.

Désespéré, notre botaniste fouille dans la terre pour y récupérer quelques racines qu’il replante soigneusement. Son acharnement finit par payer et de nouveaux plants de café marron arrivent finalement à pousser dans les jardins londoniens. Mais on a crié victoire trop tôt car on s’aperçoit que le plant rescapé et qui fleurit régulièrement ne produit pas de graines : un processus interne inconnu bloque la pollinisation !

Fleur de café marron au Royal Botanic Gardens de Kew (photo © Kew Royal Botanic Gardens)

Le « messie des plantes » y passe plusieurs nuits blanches, testant toutes les solutions possibles et imaginables. Il a finalement l’idée de couper la plante avec un scalpel et d’introduire un peu de pollen dans la plaie, dans l’espoir qu’il se propage. Il recommence 10 fois, 20 fois, 200 fois et finalement sa persévérance finit par payer : il obtient ainsi une fécondation, une seule ! Le fruit ainsi obtenu donne les premières graines, aussitôt semées en milieu stérile en 2003. Les premières germinations meurent mais à force de patience, de nouveaux plants finissent par croître.

Trois ans plus tard, Carlos Magdalena se rend sur l’île Rodrigues pour y replanter une quinzaine de plants de café marron. Freiné par d’incroyables tracasseries administratives, il persévère et voilà que le café marron est désormais réintroduit dans son milieu d’origine. Un bel exemple qui prouve que l’on peut parfois arracher une victoire dans ce processus d’extinction massive d’espèces, éteintes avant même qu’on ait pu en étudier toutes les potentialités, au point que certains en sont à fouiller dans les vieux herbiers des musées pour y recueillir les précieuses graines d’espèces disparues, dans l’espoir d’arriver à les faire revivre…

L.V. 

Hydrogène : le carburant de l’avenir ?

5 juin 2018

Dessin de Jiho publié dans Marianne le 1er juin 2018

Contrairement à ce que certains médias laissent parfois entendre, et malgré toutes les couleuvres qu’il a dû avaler, depuis qu’il est ministre de la transition écologique et solidaire, comme d’ailleurs tous ses prédécesseurs à ce poste, Nicolas Hulot est toujours au gouvernement… Il n’a certes pas réussi à convaincre le ministre de l’agriculture à inscrire dans la loi l’interdiction du glyphosate et il n’en est pas à sa première renonciation depuis qu’il est devenu ministre, mais gouverner en démocratie nécessite forcément des compromis

En tout cas, Nicolas Hulot vient de faire beaucoup parler de lui en annonçant vendredi 1er juin 2018 un plan ambitieux doté de 100 millions d’euros pour soutenir la production d’hydrogène décarboné, le stockage électrique et déployer des flottes de véhicules fonctionnant à l’hydrogène. « Ça fait des lustres que j’entends parler d’hydrogène, accompagné par cette phrase : « c’est bien, mais ça ne marchera jamais » ou « c’est bien, mais c’est trop cher ». Mais aujourd’hui ma raison est faite : l’hydrogène pourra jouer un rôle dans la transition énergétique », tel est le credo du ministre, expliqué aux médias dont Actu-environnement.

Loïk Le Floch-Prigent (photo © DR)

Selon lui, l’hydrogène serait un véritable « couteau suisse de la transition énergétique » et il importe donc que la France pour une fois ne passe pas à côté d’un tel enjeu technologique. Une déclaration qui a fait méchamment ricaner le toujours vert (si l’on peut dire) Loïk Le Floch-Prigent, ancien PDG de Rhône-Poulenc, d’Elf Aquitaine, de Gaz de France et de la SNCF, passé un temps par la case prison, condamné à plusieurs reprises et encore sous le coup d’une procédure judiciaire en cours, mais toujours donneur de leçon malgré tout.

Qu’en est-il donc de ce fameux hydrogène et que peut-on donc bien en attendre ? Une des pistes évoquées dans ce fameux plan dévoilé par Nicolas Hulot est de développer les véhicules fonctionnant avec des moteurs à hydrogène. Le procédé n’est pas totalement révolutionnaire puisqu’un brevet, déposé en 1799 par un certain Lebon, prévoyait déjà que son « gaz hydrogène » pourrait fournir « une force applicable à toutes espèces de machine ».

En 1970, Paul Dieges dépose à son tour un brevet concernant une modification des moteurs à combustion interne qui autorise la consommation d’hydrogène, dans le but d’en supprimer la pollution, puisque la réaction de combustion de l’hydrogène en présence d’oxygène, outre l’énergie qu’elle libère, ne rejette que de l’eau (d’où l’expression de « moteur à eau ») et en tout cas pas de CO2, ce qui est bon pour la planète ! Techniquement, l’utilisation de tels moteurs est au point et il existe déjà une voiture de série commercialisée depuis 2006, la BMW Hydrogen 7, mais vendue seulement à une centaine d’exemplaires et arrêtée depuis, tandis que des bus à hydrogène circulent déjà dans certaines villes.

Bus expérimental électrique à hydrogène testé à Cherbourg (source © projet européen CHIC)

Une autre approche permettant d’utiliser l’hydrogène comme carburant est la pile à combustible, autrement dit un moteur électrique alimenté par une pile dans laquelle le réducteur est l’hydrogène et l’oxydant l’oxygène. Un système tout simple en apparence et qui ne rejette que de l’eau, mais très coûteux dans l’état actuel de la technologie car exigeant beaucoup de platine (catalyseur) et des membranes échangeuses d’ions particulièrement sophistiquées.

Là aussi, il existe déjà des véhicules électriques commercialisés avec ce type de pile à combustible, dont la Honda Clarity, vendue en Europe depuis 2016. La société basque Pragma commercialise elle des vélos électriques fonctionnant selon ce même principe et dont les premiers exemplaires ont été mis en circulation fin 2017 à Saint-Lô, une ville qui possède déjà une flotte de 17 véhicules à hydrogène, comme l’a relaté Le Monde. Ces vélos présentent l’avantage de se recharger en 2 mn seulement alors qu’il faut 3 heures avec un vélo électrique classique et l’autonomie est de 200 km.

Vélo électrique à hydrogène en service dans la ville de Saint-Lô (photo © DR)

Que ce soit pour les moteurs à combustion directe ou pour les véhicules électriques alimentés par une pile à combustible, les difficultés liées à l’utilisation de l’hydrogène sont multiples. Un des problèmes majeurs du procédé vient du stockage de l’hydrogène et de son transport via des réseaux de distribution et, plus encore, à bord d’un véhicule. L’hydrogène gazeux est en effet explosif et inflammable, ce qui incite à le transporter plutôt sous forme liquide, mais sa liquéfaction à basse température consomme beaucoup d’énergie… D’autres solutions sont donc testées, y compris la cryo-compression ou des réservoirs gazeux sous forte pression, mais le sujet n’est pas si simple !

Une autre difficulté provient de la fabrication de l’hydrogène nécessaire, lequel est pour l’instant essentiellement produit par transformation soit par gazéification du charbon soit par vaporeformage du gaz naturel, principalement composé de méthane : au-delà de 700 °C et sous forte pression, la vapeur d’eau réagit avec le méthane pour donner de l’hydrogène. Mais cette réaction libère également de grosses quantités de CO2 (13 tonnes pour 1 t d’hydrogène produit !), ce qui n’est guère favorable pour notre environnement. C’est la raison pour laquelle le plan Hulot insiste sur la nécessité de développer des filières de production d’hydrogène décarboné, issu non pas des hydrocarbures mais obtenus soit à partir de biogaz produits par méthanisation, soit par électrolyse de l’eau en utilisant comme source d’énergie de l’électricité verte d’origine éolienne ou solaire.

Nicolas Hulot présentant son plan hydrogène le 1er juin 2018 (source © MTES)

Une proposition qui fait s’étrangler Loïk Le Floch-Prigent dans l’article publié sur Atlantico. Selon lui en effet, produire de l’hydrogène par électrolyse est une hérésie car les rendements sont trop faibles et le procédé bien trop coûteux par comparaison avec la filière pétrochimique classique. Au passage, il considère que seul un régime quasi-totalitaire comme la Chine, qui ambitionne de faire rouler 50 000 véhicules électriques à hydrogène d’ici 2025, est en mesure d’imposer à sa population une telle révolution : sans coercition, point de salut face au défi du changement climatique !

Ce n’est certes pas le pari de Nicolas Hulot qui estime que la forte baisse du prix des piles à combustible permet désormais d’envisager le développement progressif d’une production d’hydrogène par électrolyse. Dans cette hypothèse, le recours à cette filière pourrait apporter des solutions de stockage de l’électricité, en particulier dans les secteurs non desservis par le réseau national. Cela pourrait surtout permettre d’améliorer sensiblement les capacités des véhicules électriques actuels, y compris pour les poids-lourds voire pour des trains sur le réseau non électrifié.

Utopie absurde ou pari technologique audacieux ? L’avenir le dira…

L.V. 

Système d’alerte SAIP : l’État jette l’éponge

1 juin 2018

Alerter les populations en cas de péril grave et imminent, voilà qui relève pleinement du rôle régalien de l’État. Après les cornes de brume, la sonnerie du tocsin puis les sirènes installées sur le toit de l’école ou de la mairie, il est apparu nécessaire de moderniser et de rendre plus efficace les dispositifs d’alerte, pour faire face à des menaces qui ne se limitent plus à l’état de guerre et aux éventuelles attaques aériennes mais qui englobent aussi les risques d’attentat, de catastrophe naturelle ou d’accident technologique.

C’est ainsi qu’a été initié en 2009 le dispositif SAIP, un acronyme comme le Ministère de l’Intérieur les adore, et qui signifie « système d’alerte et d’information des populations ». Ce système est en fait destiné à remplacer le « Réseau national d’alerte », mis en place après la dernière guerre et qui s’appuyait sur un réseau de 4500 sirènes, testées tous les mercredis, mais qui n’avaient quasiment jamais été actionnées pour déclencher l’alerte en 50 ans d’existence et dont la maintenance devenait de plus en plus problématique du fait de l’obsolescence du dispositif.

Le nouveau SAIP continue néanmoins à s’appuyer sur ce réseau de sirènes qui a été complété et surtout modernisé à grands frais. Il vise à permettre aux acteurs de la gestion de crise de lancer l’alerte dans une zone géographique donnée en une unique opération sur différents vecteurs simultanément : sirènes, téléphones mobiles, mais aussi via Radio France, France Télévision et même sur les panneaux à message variable des gestionnaires d’infrastructures et des collectivités territoriales.

Remplacement des sirènes d’alerte sur le toit de la mairie de Fréjus (source © Ville de Fréjus)

Testé dans 3 départements en 2009, le dispositif a été étendu à la France entière et prévoyait le lancement de SMS d’alerte via les opérateurs de téléphonie mobile. Contrairement aux sirènes qui ne font qu’alerter, la diffusion de messages d’alerte sur les téléphones mobiles permet en effet de diffuser des messages plus complets et plus ciblés qui informent chacun quant au meilleur comportement à adopter en fonction de la nature effective du danger.

Dans ce domaine, il existe différentes technologies comme l’explique un rapport sénatorial très pédagogique (et plutôt critique) déposé en 2017 par le sénateur LR de la Sarthe, Jean-Pierre Vogel. La plus adaptée, utilisée notamment aux Pays-Bas depuis 2012, mais aussi au Japon depuis 2007 et aux États-Unis, dite de diffusion cellulaire (cell broadcast) permet d’envoyer, via le réseau de téléphonie mobile un même message à tous les utilisateurs présents dans une zone géographique donnée (correspondant à une ou plusieurs cellules du réseau). Ce système est particulièrement adapté car il ne crée pas de surcharge sur le réseau, les messages étant transmis par des canaux de contrôle spécifiques, et ne nécessite pas de connaître les numéros de téléphone des destinataires, mais il ne permet pas de savoir qui a effectivement reçu le message.

Une autre possibilité consiste à diffuser des SMS ciblés aux seuls usagers présents dans le secteur géographique concerné, en s’appuyant sur la géolocalisation de leur téléphone, un dispositif qui peut néanmoins conduire à saturer rapidement le réseau et qui ne permet pas de distinguer les SMS d’alerte de tous les autres. Ces deux pistes ont été explorées en 2011 mais abandonnées par le Ministère de l’Intérieur du fait de la mauvaise volonté des opérateurs de téléphonie mobile et des coûts envisagés.

C’est la raison pour laquelle l’État a choisi plutôt une troisième voie qui consiste à développer une application spécifique pour smartphones, permettant d’envoyer des messages d’alerte aux usagers. Ce choix était acté depuis 2011, mais il a fallu attendre fin 2015, au lendemain des attentats du 13 novembre, pour que le Ministère se décide à rédiger le cahier des charges et lancer la consultation, dans l’urgence puisque l’objectif était que le dispositif soit opérationnel pour l’Euro de football prévu en France depuis 2010 et qui devait débuter en juin 2016 !

Ecran d’alerte de l’application défunte SAIP

Le marché a été notifié le 27 mai 2016 à la société Deveryware, spécialisée dans les services s’appuyant sur la géolocalisation en temps réel et qui a dû développer en catastrophe un dispositif particulièrement sophistiqué puisqu’il s’agissait d’identifier tous les abonnés effectivement présents dans une zone géographique donnée à un instant t, sans toutefois que la liste de ces destinataires ne soit répertoriée sur un serveur central, ceci pour se conformer aux exigences de respect de la vie privée de chacun.

Le camion qui a provoqué la mort de 84 personnes à Nice le 14 juillet 2016 (photo © Eric Gaillard / Reuters)

Cette précipitation dans l’élaboration du dispositif explique en partie sa faiblesse puisque le système a été actionné dès le 14 juillet 2016, à l’occasion de l’attentat sur la Promenade des Anglais à Nice. Et pour ce premier test en vraie grandeur, le dispositif ne s’est guère montré performant puisqu’il a fallu 3 heures pour que l’alerte soit effectivement transmise aux personnes présentes sur place, alors que tout danger était écarté depuis bien longtemps, et plus d’un mois pour que les personnes présentes à Nice reçoivent le message de fin d’alerte…

Depuis, le système a gagné en efficacité mais il reste dépendant des services préfectoraux en charge de déclencher l’alerte, ce qui explique que l’application est restée étrangement muette à l’occasion de la prise d’otage au Super U de Trèbes en mars 2018 ou lorsqu’un militaire a été attaqué au Louvre l’été dernier, tandis qu’il ne manquait pas en revanche de relayer en 2016 un supposé attentat dans une église parisienne alors qu’il s’agissait d’un simple canular.

Deux ans après la mise en service de cette application, le Ministère de l’Intérieur vient d’annoncer que le contrat le liant à la société Deveyware ne sera pas reconduit et que le dispositif était purement et simplement abandonné. Les services de l’État reconnaissent, comme le relaie Le Monde, avoir fait fausse route avec cette application qui exigeait d’être téléchargée au préalable, ce qu’ont fait seulement 900 000 personnes (alors que plus de 30 millions de Français sont inscrits sur Facebook…), et qui, pour être fonctionnelle, nécessitait d’être ouverte en permanence, ce qui peut être rédhibitoire selon les forfaits et selon l’état des batteries de téléphone !

Humour noir signé Delucq : « Pas de bras, pas d’appli »

Un échec cuisant donc et qui nécessite de revoir complètement la stratégie d’alerte des populations. Pour cela, le Ministère prévoit désormais de faire allégeance à Google, Facebook et Twitter qui ont donc définitivement gagné la bataille… Google promet ainsi de mettre en avant les messages du Ministère de l’Intérieur pour les internautes recherchant des informations sur un attentat ou une catastrophe, tandis que Facebook et Twitter relaieront ces mêmes messages en cas d’alerte, au même titre que la RATP, Vinci Autoroutes ou encore Radio France.

Une preuve de plus que les multinationales de l’internet sont incontournables, même pour une mission aussi fondamentale par laquelle l’État cherche à informer sa population d’un danger imminent : dure leçon pour un État régalien aux abois !

L.V.

La Russie joue les apprentis sorciers…

30 mai 2018

Le climat de la planète se réchauffe chaque jour davantage, mais c’est le cadet des soucis de la plupart des responsables politiques. Ceci est vrai aux États-Unis où Donald Trump relance à tout va l’exploitation des gaz de schiste et du charbon, tout en renonçant officiellement aux engagements pourtant minimalistes pris lors de la COP 21, mais aussi dans bien d’autres pays guère plus vertueux.

Plate-forme pétrolière au large de l’île de Sakhaline, exploitée dans le cadre d’une coopération russo-japonaise (photo © NGC Videsh LTD. / Bloomberg)

C’est le cas notamment de la Russie pourtant située dans un des secteurs les plus directement menacés par le changement climatique global, avec notamment des risques de fonte massive du permafrost aux conséquences potentiellement dévastatrices. Mais les Russes n’ont pas froid aux yeux et sont prêts à tout pour augmenter encore leur production d’hydrocarbures qui représente plus de 25 % du PIB national et couvrait en 2014 plus de la moitié du budget de l’État.

Les réserves de gaz et de pétrole situées majoritairement en Oural et dans le sud de la Sibérie étant en voie d’épuisement, c’est désormais vers le nord que se tournent les Russes qui profitent justement du réchauffement climatique global pour développer l’exploitation au nord de la Sibérie, dans les eaux arctiques, un secteur jusque-là relativement préservé du fait de la rigueur des conditions climatiques mais qui attire de plus en plus les convoitises du fait de la fonte rapide de la banquise.

Les Russes ne sont d’ailleurs pas les seuls sur le coup. Donald Trump a ainsi annoncé en début d’année, le 4 janvier 2018, l’ouverture de l’ensemble des eaux littorales américaines à l’exploitation d’hydrocarbures, en particulier au large de l’Alaska, une zone que Barak Obama avait pourtant tenté de sanctuariser. Les Norvégiens s’activent également et viennent coup sur coup de régler un vieux conflit frontalier avec la Russie pour le partage des ressources en mer de Barents, tout en se débarrassant devant les tribunaux d’une série de recours déposés par un groupe d’ONG mené par Greenpeace. Le géant pétrolier norvégien Statoil lance ainsi un projet de 5 milliards d’euros pour l’exploitation de ce nouveau champ pétrolier en mer de Barents.

Nettoyage des côtes de l’Alaska suite au naufrage de l’Exxon Valdez en 1989 (photo © Natalie Fobes / Corbis)

Même Total, pourtant réticent à se lancer dans l’exploitation pétrolière dans ces zones écologiquement très vulnérables, où le naufrage de l’Exxon Valdez en 1989, au large de l’Alaska, a laissé des traces indélébiles sur l’écosystème, n’a pas hésité à investir 20 % du projet russe gigantesque de 23 milliards d’euros, lancé en 2017 sur la presqu’île de Yamal pour l’exploitation de gaz, transporté par méthaniers brise-glace. Le projet est titanesque et a nécessité de mobiliser des dizaines de milliers d’ouvriers pour construire un port, un aéroport, une usine et des réservoirs, malgré un froid extrême. A partir de 2019, il devrait livrer 16,5 millions de tonnes de méthane par an et devrait être prolongé à partir de 2022 par un second site d’exploitation du nom d’Arctique 2.

Usine en construction sur le site de la péninsule de Yamal en Sibérie (photo © Novatek)

La fonte des glaces dans l’océan arctique rend en effet de plus en plus accessible cette route maritime du nord-est par laquelle la Russie peut désormais exporter une partie croissante de sa production directement vers la Chine et l’Asie du sud-est, n’hésitant pas à rouvrir d’anciennes bases militaires désaffectées pour sécuriser ce trafic maritime croissant tandis que la Chine voit d’un très bon œil le développement de cette nouvelle voie plus courte vers ses clients et fournisseurs : une des nouvelles routes de la soie passe désormais par le pôle nord…

Capture d’écran d’une vidéo diffusée par Greenpeace alertant sur la fonte record de la banquise en Arctique (source © Goddard Space Flight Center/NASA)

Mais l’Extrême-Orient russe est aussi une zone de forte convoitise pour l’exploitation d’hydrocarbures et, là encore, les Russes ne reculent devant rien pour aller y développer leurs forages pétroliers. On a vu ainsi tout récemment, le 19 mai 2018, s’amarrer dans le port de Moumansk, une gigantesque barge flottante de 144 m de long et 30 m de large, de couleur marron et moutarde, l’Akademik Lomonossov, remorquée depuis le port de Saint-Petersbourg où elle avait été construite.

La centrale nucléaire flottante amarrée dans le port de Mourmansk (photo © Alexander Nemenov / AFP)

Cet immense bloc flottant qui pèse pas moins de 21 000 tonnes, n’est en fait rien d’autre qu’une centrale nucléaire destinée à être guidée en 2019 jusque dans le port de Pevek, dans le district autonome de Tchoukotka, à 350 km au nord du cercle arctique, justement pour approvisionner en énergie, non seulement la petite ville elle-même et ses 5000 habitants, mais surtout les nombreuses plates-formes pétrolières installées au large.

Les pays riverains s’étaient opposés à ce que la centrale flottante soit chargée en combustible radioactif sur son lieu de construction mais le chargement est bel et bien prévu à Mourmansk, et c’est donc bien une centrale nucléaire flottante en activité qui va ainsi être remorquée sur des milliers de kilomètres dans un écosystème particulièrement fragile et dans des conditions de navigation difficiles.

Route maritime entre Mourmansk (à l’ouest) et Pevek (à l’est) au nord de la Sibérie (source © William Dunlap / Université de Durham)

Le conglomérat public nucléaire russe Rosatom, qui a construit cette centrale comportant deux réacteurs nucléaires de 35 MW chacun, se vante d’avoir réalisé une première mondiale et considère que cette technologie des centrales nucléaires mobiles, à laquelle s’intéressent également les Chinois, est appelée à se développer. A écouter la propagande officielle de Rosatom, « cette installation dispose des systèmes de sécurité les plus modernes et devrait être l’une des installations nucléaires les plus sûres au monde ». Elle devrait même permettre d’économiser près de 50 000 tonnes de CO2 chaque année, en évitant d’avoir recours aux hydrocarbures voire au charbon pour assurer cette alimentation en énergie.

Une véritable prouesse technologie donc, qui laisse en effet sans voix, à l’exception de quelques militants associatifs de Greenpeace, toujours soupçonneux, qui voient dans cette centrale nucléaire hors-normes – allez savoir pourquoi ? – un « Titanic nucléaire » voire un « Tchernobyl sur glace ». Certains ont vraiment l’esprit mal tourné…

L.V. 

Autoconsommation d’électricité, c’est possible !

25 mai 2018

Panneaux photovoltaïque intégrés en toiture (source © L’Energeek)

Produire soi-même à base d’énergie renouvelable l’électricité que l’on consomme, ce n’est pas si fréquent que cela, mais pour autant l’idée n’est pas si farfelue ! L’approche la plus classique en matière d’autoproduction d’électricité, surtout dans le Sud de la France, consiste à recouvrir une partie de sa toiture de panneaux photovoltaïques et de brancher l’installation sur le réseau électrique, ce qui permet de revendre à EDF le surplus de production et ceci à un tarif garanti avantageux.

Une telle démarche nécessite néanmoins un investissement relativement conséquent, de l’ordre de 20 à 30 000 € pour une installation de 6 à 9 kWc qui nécessite une superficie utile de toiture correctement orientée de l’ordre de 45 à 75 m2. Cela suppose surtout des procédures relativement lourdes pour assurer le raccordement au réseau et exige que les panneaux soient directement intégrés à la toiture en remplacement du revêtement classique, ce qui peut être source de nombreux désordres, depuis la simple fuite jusqu’à la mise à feu de l’isolation et de la charpente en cas de défaillance électrique !

Ombrière photovoltaïque sur une terrasse de Marseille (source © Twiza)

Une alternative consiste donc à produire uniquement l’électricité dont on a besoin, ce qui est beaucoup plus simple car il n’est alors nul besoin de transférer le surplus d’électricité produite sur le réseau : l’électricité produite est alors injectée directement en aval du compteur, par exemple au niveau d’une simple prise. Dans ce cas en revanche, il ne faut produire que ce dont on a besoin, les dispositifs de stockage de type batterie étant coûteux, peu performants à long terme, et encore moins écologiques.

Il suffit donc de poser 2 à 3 modules photovoltaïques, soit une surface de 4 à 6 m2 seulement, disposés en ombrière voire simplement fixés au sol en l’absence d’obstacle à l’insolation. La puissance produite est alors nettement plus faible, de l’ordre de 0,5 à 0,8 kWc, mais peut suffire à couvrir la consommation électrique de base du foyer, en dehors des pics de consommations que l’on observe généralement lorsqu’on met en marche le four électrique, le micro-onde ou la machine à laver, ainsi bien sûr que les radiateurs électriques éventuels.

Ombrière photovoltaïque en pergola (source © LSK outdoor)

Inutile en effet d’espérer produire sa propre électricité pour se chauffer l’hiver si l’on utilise des convecteurs électriques ! Même en Provence, la production photovoltaïque fonctionne très bien l’été et en journée, mais pas quand le soleil se cache… L’objectif est donc alors de dimensionner l’installation au plus juste pour couvrir uniquement le « bruit de fond » courant qui correspond à la consommation des appareils toujours branchés ou en veille, tels que réfrigérateur, livebox, ordinateurs, etc. Une pompe de piscine qui fonctionne principalement en période estivale peut être aussi partiellement alimentée grâce à un tel système.

Une installation de ce type nécessite donc de bien connaître sa consommation électrique de base et ses variations dans le temps. C’est d’ailleurs un excellent prétexte pour regarder de plus près les caractéristiques de cette consommation, quitte à ajuster ses habitudes de vie pour l’optimiser…En tout état de cause, on considère, au vu des retours d’expérience existants, que l’optimum économique permet ainsi de couvrir entre 20 et 40 % de sa consommation électrique annuelle totale, ce qui n’est déjà pas si mal !

Selon ENEDIS (ex ERDF, responsable du réseau de distribution d’électricité en France), on considère qu’il existe actuellement en France de l’ordre de 20 000 foyers consommant leur propre électricité, un chiffre très probablement appelé à se développer dans les années à venir. Le département Alpes-du-Sud d’ENEDIS vient d’ailleurs de réaliser une opération pilote d’autoconsommation photovoltaïque collective, une grande première en région PACA.

Maquette du projet des Colibres avec les ombrières photovoltaïques (source © TPBM)

Il s’agit en l’occurrence d’un projet d’habitat participatif porté par l’association Les Colibres, sur la commune de Forcalquier, dans les Alpes de Haute-Provence. Lancé en 2013 par un groupe de familles militantes, suite à un précédent projet de la mairie qui avait avorté, le projet consiste en la construction de 11 logements répartis dans 3 bâtiments à ossature bois installés sur une parcelle communale d’un peu plus de 4 000 m2 seulement. Plusieurs parties communes (buanderie, chambres d’amis, atelier, garage à vélo, jardin) sont partagées entre les membres du collectif.

Le groupe d’auto-constructeurs, formé début 2014 et dont les premières familles ont emménagé fin 2017, compte en son sein plusieurs professionnels aguerris dont un urbaniste, une avocate, l’architecte du projet, et le directeur d’une structure associative d’accompagnement de projets d’habitat participatif. Il s’est constitué en société civile immobilière d’attributions (SCIA), une structure juridique adaptée à ce type de projet collectif et qui est donc la personne morale avec qui ENEDIS a conventionné.

Chantier des Colibres à Forcalquier (photo © Les Colibres)

En l’occurrence, la production photovoltaïque est assurée via des ombrières intégrées à l’architecture des bâtiments sous forme de casquettes, avec une puissance totale installée de 16 kWc. La consommation électrique étant évaluée à 2 kW par logement, la production est redistribuée de manière intelligente, grâce à la pose de compteurs Linky, en fonction de l’occupation et des besoins de chacun des logements.

La convention passée avec ENEDIS permet à ce dernier de procéder au relevé des compteurs communicants, de calculer les quantités consommées et produites par chacun des propriétaires en tenant compte des clés de répartition définies au sein du groupe, mais aussi d’émettre toutes les données utiles à la rémunération des autres fournisseurs (car bien sûr le dispositif n’est pas autosuffisant), du responsable d’équilibre et du gestionnaire du réseau public de distribution.

Un bel exemple, parmi d’autres, qui montre en tout cas qu’ENEDIS est désormais en capacité de gérer ce type de demande avec une souplesse que l’on n’imaginait pas de la part de l’héritier d’une longue tradition de centralisme énergétique à base de nucléaire… Il se murmure d’ailleurs que la nouvelle réglementation thermique en préparation pour 2020 pourrait présenter des avancées dans ce domaine en incitant les constructeurs de bâtiments neufs à prévoir dès l’origine des dispositifs facilitant l’installation de panneaux photovoltaïques pour une part d’autoconsommation : la transition énergétique se met peu à peu en marche…

L.V. 

Le mirage de la mer à boire…

14 mai 2018

Dessaler l’eau de mer pour satisfaire nos besoins en eau douce : la solution technique paraît séduisante pour faire face à la raréfaction des ressources en eau douce, menacées par les épisodes de sécheresse et contaminées par les pollutions. Sachant que les océans recouvrent 70 % de la surface du globe terrestre, l’eau de mer apparaît pour beaucoup comme une ressource inépuisable. La transformer en eau potable après élimination de ses sels minéraux pourrait donc constituer, aux yeux de nombreux responsables politiques, une solution d’avenir à généraliser.

Usine de dessalement de l’eau de mer de Fujairah aux Émirats arabes unis (source © Suez)

En apparence, la solution technique n’est pas compliquée et les marins grecs la mettaient déjà en œuvre dans l’Antiquité en appliquant une recette concoctée par Aristote et qui consiste simplement à chauffer l’eau et à récupérer par condensation la vapeur ainsi émise. C’est le principe de la distillation, utilisé dans la marine de manière industrielle dès le XIXème siècle.

Depuis, il a fait naturellement l’objet de multiples améliorations techniques, avec notamment le développement de la vaporisation multi-flash qui consiste à faire passer l’eau, initialement chauffée sous pression, dans des enceintes à pression de plus en plus réduite qui entraînent sa vaporisation quasi instantanée. C’est ce type de procédé qui est notamment employé à grande échelle dans les pays du Golfe où l’énergie à base d’hydrocarbures ne coûte pas très cher.

Vue de la plus grande usine de dessalement de l’eau de mer fonctionnant en Europe, près de Barcelone

Car – est-il besoin de le préciser ? – l’opération est particulièrement gourmande en énergie. Certes, dans nombre de pays, comme le Qatar, qui recourt massivement au dessalement de l’eau de mer pour son approvisionnement en eau potable, l’eau est distribuée gratuitement et son prix de revient n’est donc pas considéré comme un problème. Ce qui explique d’ailleurs qu’un Qatari consomme en moyenne 1200 litres d’eau par jour, là où un Allemand n’en utilise que 95 litres !

L’usine de dessalement de l’eau de mer construite en 2010 à Hadera, au nord de Tel-Aviv en Israël

Heureusement, la technique a fait de nombreux progrès en la matière et on a de plus en plus recours à d’autres procédés nettement moins énergivores comme celui de l’osmose inverse. Là encore, le principe est simple puisqu’il consiste en une ultrafiltration sous pression à travers une membrane poreuse semi-perméable qui retient les sels. C’est cette technique qui est notamment utilisée couramment en Israël où près de 70 % de l’eau consommée par les particuliers provient du dessalement de l’eau de mer.

Pour autant, même avec ce type de procédé, dessaler l’eau de mer consomme encore cinq fois plus d’énergie que les usines de traitement d’eau douce classiques. Certes, on développe désormais de plus en plus d’installations de dessalement alimentées par des énergies renouvelables, comme c’est le cas par exemple sur l’île d’El Hierro aux Canaries, où trois usines fonctionnent grâce à l’énergie éolienne ou hydraulique et on commence à exploiter, pour l’instant à titre expérimental, des systèmes de distillation à four solaire.

Principe de fonctionnement de l’alimentation électrique d’une station de dessalement d’eau de mer sur l’île El Hierro, aux Canaries (source © Futura Sciences)

Mais tout cela ne résout pas le problème majeur qui est celui des rejets : la saumure concentrée et les produits destinés à limiter l’entartrage des installations, sont purement et simplement rejetés en mer où ils s’avèrent particulièrement néfastes pour le milieu naturel, surtout dans une mer fermée comme l’est la Méditerranée. Poussé à l’extrême, le principe consiste à augmenter sans cesse la salinité de l’eau laissée en mer, alors que cette salinité, qui est en moyenne de 35 g/l dans les océans atteint déjà 39 à 40 g/l en Méditerranée, 42 g/l dans le Golfe Persique et dépasse 50 g/l dans la Mer Rouge.

Sans aller jusqu’à prétendre, bien évidemment, que c’est à cause des usines de dessalement que l’eau de mer est salée, il n’en reste pas moins que les impacts environnementaux des rejets de ces installations apparaissent comme des plus préoccupants, en particulier sur les fonds marins où la saumure se dépose et perturbe non seulement la vie benthique mais aussi les courants marins.

Là aussi, les ingénieurs ne manquent pas d’imagination pour rechercher des solutions techniques. C’est ainsi qu’un cabinet canadien a imaginé, dans le cadre d’un appel à projet pour la production d’eau potable à Santa Monica, en Californie, une construction en forme de gros cigare posé à quelques encablures de la côte et qui devrait permettre de produire, grâce à l’énergie solaire, 4,5 millions de m3 d’eau potable par an tout en rejetant les saumures dans un bassin central à usage thermal : de quoi faire d’une pierre deux coups…

Maquette du projet The Pipe destiné à dessaler l’eau de mer près de Santa Monica en Californie (source © Khalili Engineers – Land Art Generator Initiative Design)

Mais l’on se rend compte aussi que l’alimentation en eau potable à partir d’eau de mer dessalée peut être à l’origine de carences graves en magnésium et en iode, comme c’est déjà le cas en Israël. Il faut donc rajouter ces éléments dans l’eau douce après s’être évertué à les enlever de l’eau de mer, ce qui du coup rend le procédé encore moins économique.

Globalement, le dessalement de l’eau de mer reste en tout cas un procédé coûteux qui n’est envisagé que faute d’alternative plus simple permettant d’exploiter les eaux de surface ou les nappes souterraines. Pourtant, on constate que certains pays n’hésitent pas à utiliser de l’eau dessalée y compris pour l’irrigation agricole. C’est le cas désormais en Espagne où, dès 2006, 40 % de l’eau produite par dessalement était en fait destinée à la production de tomates sous serres, en particulier dans la région d’Alméria.

Serres de cultures intensives près d’Alméria, alimentée à l’eau de mer dessalée (source © Ecotoxicologie)

Une telle situation paraît aberrante mais répond à une logique purement économique : cette production d’eau douce est indispensable pour répondre à l’afflux saisonnier de touristes dans une région où l’aridité du climat rend les ressources en eau douce trop rares, et le meilleur moyen de rentabiliser de tels investissements est de les faire fonctionner toute l’année en approvisionnant les agriculteurs pour la production maraîchère de contre-saison qui permet d’inonder tout le marché européen à bas coût.

Pas sûr que cette démarche soit la plus rationnelle en termes d’exploitation raisonnée et durable des ressources naturelles, mais dans le domaine de l’alimentation en eau, comme dans beaucoup d’autres, ce sont bien souvent d’autres critères qui dictent les investisseurs économiques…

L.V. 

Le champignon de Marseille va-t-il détrôner celui de Paris ?

3 mai 2018

L’agriculture urbaine, tout comme la permaculture sont en train de devenir des concepts à la mode. A Singapour, un État minuscule de 715 km2 (moins que la superficie de la seule commune d’Arles !) dans lequel s’entassent pas moins de 75 millions d’habitants, soit davantage que sur le territoire français, on compte ainsi déjà une centaine de fermes verticales, des tours édifiées en site urbain et dans laquelle on pratique le maraichage hors-sol.

Ferme verticale hors-sol à Singapour (source © Sky Greens)

Le principe est simple, sachant qu’une plante pour se développer a besoin, comme chacun sait, d’un peu d’amour et de beaucoup d’eau fraîche, mais aussi de lumière (l’énergie qui permet d’activer la photosynthèse) et de certains nutriments, généralement contenus dans le sol mais aussi apportés par les épandages d’engrais. A défaut de substrat, il suffit de verser les apports dans l’eau où baignent les racines des plantes. C’est ce même principe de l’hydroponie qui va être mis en œuvre à Romainville, en Seine Saint-Denis où plusieurs bâtiments dont une tour maraîchère de 24 m de hauteur sont en cours de construction, qui comprendront, outre des serres pour le maraîchage hors-sol, une champignonnière, un laboratoire pour la germination des graines, une serre pédagogique, un point de vente et, en extérieur, des petits vergers et un poulailler.

Maquette de la future tour maraîchère de Romainville (source © Ilimelgo et Secousses architectes / Poltred perspectiviste)

A Montréal, c’est ce même principe de la culture hydroponique qui est mis en œuvre dans deux serres installées sur les toits de la ville et dont la production est vendue sur internet sous forme de paniers de légumes. Cultiver sur les toits en ville présente en effet de multiples avantages, le moindre n’étant pas la proximité avec les consommateurs, ce qui permet de réduire fortement les coûts de commercialisation et de distribution.

Cultures maraichères sur le toit d’un supermarché à Montréal (source © Cent degrés)

Mais l’autre avantage est paradoxalement de profiter d’une qualité de l’air parfois meilleure en ville, surtout en altitude : les gaz d’échappement restent généralement bloqués au sol et ne dépassent pas le 2ème ou le 3ème étage, si bien que l’air en toiture est très acceptable.

Julien Girardon, créateur d’Abricotoit

C’est ce qui explique que les toitures marseillaises deviennent un lieu de refuge pour l’agriculture des Bouches-du-Rhône. C’est en tout cas le pari de la structure créée sous le joli nom d’Abricotoit par Julien Girardon, un jeune Marseillais, titulaire d’un doctorat en biotechnologie végétale, et qui propose d’aménager des jardins potagers sur les toits des immeubles du centre-ville, soit pour faciliter sa production personnelle, soit pour alimenter des restaurants en produits frais.

D’ailleurs les toits des immeubles sont de plus en plus convoités pour de multiples activités liés à l’agriculture, y compris pour y installer des ruches. Force est en effet de constater que les apiculteurs trouvent désormais en ville un terrain nettement plus propice à l’élevage mellifère du fait de l’absence de pesticides dans l’environnement proche et en raison de la plus grande diversité des espèces florales. On compte ainsi plus de 700 ruches à paris où la mortalité des abeilles ne dépasse pas 3 à 4 % alors qu’elle atteint désormais 30 à 40 % en milieu rural.

C’est la raison pour laquelle on voit désormais fleurir des ruches non seulement sur certains ronds-points comme c’est le cas à Vitrolles par exemple, mais aussi sur le toit des hôtels. Les clients de l’hôtel Sofitel situé sur le Vieux Port savourent ainsi depuis plusieurs années déjà le miel produit sur le toit du bâtiment et il en est de même pour ceux qui fréquentent l’hôtel Ibis de Bonneveine. Gérard Jourdan, l’apiculteur à l’origine de cette initiative, basé à Auriol, a depuis multiplié les implantations de ruches dans l’agglomération marseillaise et estime que la qualité du miel récolté ainsi en site urbain est généralement excellente.

Ruches installées sur le toit de l’hôtel Sofitel sur le Vieux Port de Marseille (source © Gérard Jourdan)

Depuis 2014, c’est le Castorama de Saint-Loup qui s’est lancé dans l’aventure, pour le plus grand bénéfice des employés du magasin qui se partagent la récolte, tandis qu’une association, intitulé Une ruche dans mon jardin, s’efforce d’implanter des ruches dans différents quartiers périphériques de Marseille, dont la Cité des Néréides, dans un but pédagogique afin d’inciter les enfants à retrouver le goût de la nature et de l’activité agricole.

Et voilà que ce sont désormais les caves de Marseille qui commencent à être investies par les adeptes de l’agriculture urbaine. Comme le relate Agathe Perrier sur le site Made in Marseille, deux amis, Maxime et Nicolas, ont eu l’idée de développer la culture de champignons (non hallucinogènes, est-il besoin de le préciser ?) dans les sous-sols de l’Équitable café situé sur le Cours Julien. Le substrat utilisé pour cela est en effet tout simplement du marc de café, mélangé aux spores de champignons et enserré dans des filets en forme de gros boudins, conservés pendant 15 jours dans l’obscurité puis exposés à la lumière dans une atmosphère très humide qui fait pousser en 5 jours de gros bouquets de pleurotes plutôt appétissantes.

Les boudins contenant le marc du café qui sert de support à la culture des champignons (photo © Agathe Perrier / Made in Marseille)

Une fois les champignons récoltés, le substrat est donné à l’association Terre de Mars, qui cultive d’anciens terrains agricoles dans le quartier de Sainte-Marthe : un apport organique idéal pour enrichir la terre. « C’est là que l’on boucle la boucle, car on produit des champignons grâce à des déchets et, de notre côté, on ne crée aucun déchet », met en avant Maxime.

Un cageot de pleurotes produites à Marseille (photo © Agathe Perrier / Made in Marseille)

Un bel exemple d’économie circulaire et qui pourrait encore évoluer puisque les deux amis se sont lancés dans d’autres expérimentations en essayant de recycler comme substrat des sciures de bois issus d’un chantier naval du Pharo.

D’ailleurs, leur ambition est de produire à terme une tonne de champignons par mois. Pour cela, ils envisagent sérieusement de déporter leur champignonnière urbaine dans les sous-sols du fort Saint-Nicolas et viennent de répondre à un appel à projet dans ce but. Le champignon de Marseille est peut-être promis à un bel avenir ?

L.V.

Vers une privatisation des barrages hydroélectriques ?

21 avril 2018

Voilà une information qui a fait le buzz dans tous les médias, de Libération à La Dépêche du midi, en passant par le blogger Ludo Torbey dont la vidéo d’Osons causer sur le sujet fait un tabac : Macron ose s’attaquer à notre patrimoine hydroélectrique et veut privatiser les barrages d’EDF, pour le plus grand bénéfice des multinationales, Total en tête, mais aussi les Allemands EON et Vattenfall, l’Italien Enel, le Canadien Hydro-Québec, voire des entreprises chinoises qui vont donc s’emparer de nos grands barrages, fleurons du génie industriel français.

Un véritable cauchemar pour les 160 000 salariés d’EDF dont 21 000 dans le secteur de l’hydroélectricité, et principalement les syndicalistes de la CGT qui ont été les premiers à monter au créneau après avoir appris, à l’occasion d’une réunion intersyndicale à Matignon le 7 février dernier, de la bouche de Thibaud Normand et Antoine Peillon, conseillers énergie du Premier ministre, que la France avait fini par céder aux exigences de la Commission européenne et acceptait d’ouvrir à la concurrence certaines des 433 concessions hydroélectriques françaises, et ceci dès 2018.

Barrage EDF de Sainte-Croix sur le Verdon, mis en service en 1974 (source © photothèque EDF)

On dénombre en France de l’ordre de 2300 installations hydroélectriques dont 433 donc qui relèvent du régime de la concession car d’une puissance supérieure à 4,5 MW. Elles totalisent à elles-seules 95 % de la puissance installée, soit de l’ordre de 24 GW. La part de l’hydroélectricité dans le mix énergétique français est relativement modeste, autour de 12 % (deux fois moins qu’au Portugal par exemple), même si l’hydroélectricité représente plus des deux tiers de l’énergie renouvelable produite en France.

Quoi qu’on en dise, la France reste totalement dépendante de la filière nucléaire pour son alimentation électrique et EDF fait tout pour que cette situation perdure, s’opposant de toutes ses forces à la volonté politique de réduire la part du nucléaire, refusant obstinément de fermer ces centrales même en fin de vie.

Or sur ces 433 concessions hydroélectriques, l’entreprise EDF en gère près de 85 %, le reste se partageant entre la CNR (Compagnie nationale du Rhône) et la SHEM (Société hydro-électrique du Midi). La CNR, créée en 1933, privatisée en 2001 et premier producteur français d’énergie exclusivement renouvelable est détenue principalement par le groupe public Caisse des Dépôts et des collectivités territoriales, avec comme actionnaire de référence minoritaire ENGIE (ex GDF-Suez). La SHEM, également producteur d’énergie 100 % renouvelable et lointaine héritière de la Compagnie des chemins de fer du Midi est aussi une filiale d’ENGIE.

C’est cette position dominante, quasi exclusive, d’EDF sur le parc hydroélectrique français, que l’Union européenne conteste depuis des années, prônant pour une ouverture à la concurrence. Car, contrairement à ce qu’on pourrait imaginer, les barrages en question n’appartiennent pas à EDF mais à l’État qui en a financé la construction (un gros investissement puisque l’on considère qu’il faut de l’ordre de 1 milliard d’euros pour aménager de quoi produire 1 GW).

Marcel Paul, syndicaliste et résistant, ministre de la production industrielle dans le gouvernement de Charles de Gaulle et instigateur de la création d’EDF-GDF en 1946

A l’époque où la plupart de ces barrages ont été construits, juste après la guerre, EDF était un service public, créé en 1946 sous l’impulsion du ministre et ancien résistant Marcel Paul avec un statut d’établissement public à caractère industriel et commercial. Bénéficiant alors d’un régime de monopole, EDF a pu s’arroger la quasi-totalité des concessions hydroélectriques, pour des durées de 75 ans.

Depuis, on s’est rendu compte que les situations de monopole jouaient rarement en faveur de l’usager ou du consommateur. La loi Sapin, adoptée en 2013 pour tenter de lutter contre les pratiques de corruption, a réduit la durée des délégations de services publics précisément pour éviter les dérives liées aux rentes de situation. En parallèle, l’ouverture progressive du marché de l’électricité à la concurrence sous l’impulsion politique de l’Union européenne et la transformation du statut d’EDF, devenue en 2004 une société anonyme cotée en bourse, ont radicalement changé la donne.

Certes, EDF reste détenue à près de 85 % par l’État français, ses autres actionnaires étant pour l’essentiel des investisseurs institutionnels (majoritairement étrangers). Mais l’entreprise se comporte désormais comme un champion de l’ultralibéralisme qui semble avoir totalement tourné le dos à ses valeurs initiales, ouvrant des filiales dans des paradis fiscaux, refusant de développer les énergies renouvelables, confiant la maintenance de ses centrales nucléaires à près de 20 000 sous-traitants en situation de grande précarité, exigeant sans cesse de nouvelles hausses des tarifs de l’électricité tout en amassant de juteux bénéfices.

EDF, fortement critiquée pour la gestion peu durable de son parc électronucléaire

Et l’hydroélectricité participe pour beaucoup à la constitution de ces bénéfices puisqu’on estime qu’ils s’élèvent à 1,25 milliards par an du seul fait de l’exploitation des concessions hydroélectriques depuis longtemps amorties, au point que l’électricité produite ainsi ne coûte de 20 à 30 € le MWh, contre 50 € le MWh d’origine nucléaire. Ces bénéfices sont principalement réinvestis à l’étranger et notamment au Royaume Uni où EDF a racheté British Energy en 2008 et lancé fin 2016 la construction des deux réacteurs nucléaires très controversés d’Hinkley Point, pour la modique somme d’au moins 21 milliards d’euros.

En 2010, l’État français avait annoncé une première vague d’appels d’offres pour la reprise de certaines concessions hydroélectriques mais sans jamais y donner suite. Au contraire, les concessions d’EDF déjà arrivées à échéance avaient été subrepticement rallongées moyennant quelques menus travaux supplémentaires de maintenance des ouvrages, au point qu’en octobre 2015, la commissaire européenne chargée de la concurrence, Margrethe Vestager, a adressé à Laurent Fabius, alors ministre des affaires étrangères et responsable à ce titre des questions européennes, un courrier pour l’informer de l’ouverture d’une enquête sur les concessions hydrauliques accordées en France à EDF.

Travaux de rénovation sur le barrage de Sarrans sur la Truyère en 2014 après vidange complète de la cuvette (source © L’Usine nouvelle)

Depuis, les acteurs français jouaient la montre alors que d’autres pays européens dont l’Allemagne avaient dès 2011 obtenu de sortir leurs barrages hydroélectriques du champ de la directive européenne sur les concessions, au même titre que les centrales nucléaires sont exclues du domaine concurrentiel car relevant d’activités « d’importante vitale ».

A l’époque, la France était déjà en position de faiblesse à cause de son taux d’endettement colossal totalement dérogatoire aux critères de Maastricht. Et désormais il se murmure que si le gouvernement a été contraint de céder aux injonctions de Bruxelles c’est pour faire baisser la pression contre le maintien des aides publiques françaises à l’agriculture…

Barrage de Bort-les-Orgues, sur la haute vallée de la Dordogne, mis en service en 1952 (source © Corrèze tourisme)

Toujours est-il que l’on annonce dès 2018 la remise en concurrence de certaines concessions hydroélectriques dont les barrages de Haute-Dordogne, celui de Beaufortain en Savoie et celui du Lac Mort en Isère. Les autres concessions suivront progressivement jusqu’en 2050, au fur et à mesure que les concessions initiales arriveront à échéance, conformément aux conventions signées initialement mais qu’EDF espérait bien ne jamais voir appliquer : dura lex, sed lex…

L.V. 

Les rivières mystérieuses de Cassis s’invitent au JT de TF1 !

16 avril 2018

C’est une belle consécration pour l’association de spéléologues qui travaille depuis des années à améliorer la connaissance des rivières souterraines du Bestouan et de Port-Miou qui débouchent en mer dans la baie de Cassis : le 12 avril 2018, un reportage tourné le 31 mars par une équipe de reporters de TF1 était diffusé au journal télévisé de 20h dans la rubrique Découverte.

Le reportage dure moins de 5 mn mais, diffusé à une heure de grande écoute, c’est un bel hommage pour cette équipe de passionnés qui passe tous ses week-end à poursuivre pas à pas ses explorations, en particulier dans la galerie noyée de Port-Miou qui fait l’objet de ce reportage.

Comme le président de l’association, Gérard Acquaviva, l’avait lui-même expliqué devant une assemblée très nourrie de Carnussiens à l’occasion d’une conférence organisée par le CPC en octobre 2015, cette source d’eau douce qui débouche en mer à l’entrée de la calanque de Port-Miou est en réalité l’exutoire d’une galerie souterraine karstique désormais noyée que les plongeurs ont pu remonter à contre-courant sur une distance supérieure à 2 km.

Dans les années 1960, la SEM s’était intéressée de très près à cette source sous-marine comme ressource potentielle d’eau douce pour l’approvisionnement de Cassis et avait été jusqu’à investir dans la construction d’un barrage souterrain situé dans une cloche d’air à 500 m en amont de l’exutoire en mer. L’objectif de ce barrage était d’empêcher les remontées d’eaux salines dans la galerie. Mais depuis, on a compris que les communications avec l’eau de mer se faisaient surtout par d’autres conduits naturels plus profonds, vestiges d’un ancien réseau karstique développé lorsque le niveau marin se situait nettement plus bas.

Infographie TF1

Le puits creusé à l’époque pour le chantier du barrage facilite néanmoins les explorations sous-marines qui se font à l’aide d’un matériel aussi encombrant et lourd que sophistiqué. Le lendemain du passage des reporters de TF1, l’équipe de plongeurs conduite par Xavier Meniscus s’est ainsi offert le luxe de progresser d’une vingtaine de mètres en terrain jamais exploré jusque-là.

Plongeur à Port-Miou (extrait du reportage de TF1 – source Xavier Meniscus)

A l’extrémité amont de la galerie s’ouvre en effet un immense puits qui descend jusqu’à 232 m sous le niveau de la mer, en limite des capacités actuelles de la plongée souterraine. Le 1er avril dernier, l’équipe de plongeurs est descendue jusque-là et s’est avancé jusqu’à un nouveau carrefour ouvrant sur deux galeries, l’une se dirigeant vers la mer et l’autre sous forme d’une diaclase par où proviennent vraisemblablement les eaux du bassin versant amont. La zone de contact entre l’eau douce, issue des écoulements souterrains amont et une eau très salée, proche de la concentration de l’eau de mer, a d’ailleurs été bien repérée, ce qui confirme que l’eau salée remonte depuis la mer par des conduits plus profonds.

A de telles profondeurs et dans des conditions d’accès aussi périlleuses, la progression des explorations sous-marines devient délicate. C’est pourquoi les spéléologues travaillent en parallèle à rechercher des accès depuis la surface du plateau calcaire, comme cela a déjà été exposé ici et comme l’indique le reportage. Les essais de colorations effectués en 2015 sur deux gouffres situés tout près de Carnoux avaient connu des fortunes diverses. Celui des Gorguettes, situé en contrebas de la descente de Cassis, n’avait pas mis en évidence de jonction avec la galerie de Port-Miou alors que la coloration effectuée sur le gouffre du Mussuguet 3 s’était révélée nettement plus prometteuse.

Entrée du puits Mussuguet 3

Depuis, les membres de l’association s’acharnent donc à tenter de désobstruer le fond de ce puits naturel, initialement comblé d’éboulis. Le travail, bien que fastidieux et harassant, est payant puisque le fond du puits approche désormais de la profondeur de 50 m ! On est encore très au-dessus du niveau de la galerie de Port-Miou qui court plus bas, mais les spéléologues gardent bon espoir…

D’autant qu’un autre trou est identifié à quelques centaines de mètres de là, présentant en outre l’avantage de se situer de l’autre côté de la limite du périmètre du Parc national des Calanques, ce qui en facilite l’exploration. Dans les deux cas, la présence en profondeur d’une forte concentration de gaz carbonique toxique complique la tâche des spéléologues et exige de prendre des précautions spécifiques pour extraire le gaz avant toute pénétration.

Ce second puits, baptisé Sumac, fait également l’objet d’un gros travail de désobstruction depuis plusieurs années et atteint désormais une profondeur comparable. Une nouvelle coloration est d’ailleurs prévue la semaine prochaine dans ce dernier gouffre, avec le secret espoir que la fluorescéine débouche bien dans la galerie de Port-Miou, où des capteurs très précis permettent de la repérer même à de faibles concentrations. Si tel est le cas, nul doute que cela regonflera le moral des spéléologues de Cassis, les rivières mystérieuses, qui redoubleront d’efforts pour parvenir un jour, qui sait ?, à la jonction entre ces conduits karstiques qui drainent le plateau calcaire, et cette galerie noyée qui débouche en mer. De quoi entretenir la fièvre de ceux qui explorent l’inconnu, à deux pas de chez nous !

L.V.  

Plonger au fond du gouffre, Enfer ou Ciel, qu’importe ?

Au fond de l’inconnu, pour trouver du nouveau.

Baudelaire, in Les Fleurs du mal

A Bangalore, il y a le feu au lac !

6 avril 2018

La ville de Bangalore, créée au 16ème siècle sur les plateaux du Dekkan, au sud de l’Inde, a longtemps gardé sa réputation de cité-jardin, plutôt verdoyante, baignée par pas moins de 285 lacs qui lui ont toujours fourni de l’eau en abondance. Devenue en 1956 capitale du nouvel État de Karnataka, la ville ne comptait alors que 800 000 habitants. Mais à partir des années 1990, Bangalore est devenu le pôle indien des nouvelles technologies, la Silicon Valley locale, et sa population a littéralement explosé sous l’effet d’un boom démographique peu courant puisqu’elle est passée de 3 millions d’habitants en 1991 à 10 millions actuellement.

Centre d’affaire UB City à Bangalore, mégapole de 10 millions d’habitants

Bien évidemment, cet afflux de population s’est traduit par une urbanisation foudroyante. De nombreux lacs ont été comblés et les espaces naturels bétonnés pour laisser place aux immeubles de bureaux et d’habitation, si bien qu’on ne compte plus que 192 plans d’eau désormais, mais qui sont devenus de véritables cloaques, réceptacles des eaux usées insuffisamment traitées et des déchets de toutes sortes.

A la surface du lac Bellandur, le plus grand de la ville, dont la surface est partiellement masquée par les plantes invasives qui s’y développent, et sur les canaux qui l’alimente, flotte régulièrement une espèce de mousse blanchâtre, issue d’un mélange entre les eaux usées qui se déversent directement dans le milieu naturel, et des produits toxiques provenant des usines chimiques proches de la ville. Lorsque le vent se lève, cette mousse se désagrège et vient retomber sur les habitants de Bangalore, comme une neige toxique qui irrite la peau et les bronches des plus fragiles.

Piétons sur un pont traversant le chenal d’entrée du Lac Bellandur recouvert de mousse en 2015 (photo © Manjunath Kiran/AFP/Getty Images)

Les autorités ont bien essayé de se prémunir de ce phénomène en posant des filets destinés à empêcher les envols de mousse, et en arrosant périodiquement la surface des eaux polluées pour disperser la mousse toxique, mais l’effet de ces mesures reste limité.

Le 19 janvier dernier, alors que la température ambiante dépassait allègrement les 30 °C, cette mousse a purement et simplement pris feu, dégageant une épaisse fumée blanche peu rassurante qui se répand au milieu des immeubles d’habitation tout proches. Les pompiers ont mis plusieurs heures pour éteindre cet incendie inhabituel se propageant à la surface du lac.

Incendie à la surface du lac Bellandur près de Bangalore, le 16 février 2017 (photo © Aaditya Sood / The Gardian)

Et cet incendie n’est que le quatrième en trois ans ! Un article très documenté publié dans The Guardian en mars 2017 rapporte en effet qu’un phénomène similaire s’était déjà produit le 16 février 2017, toujours sur le même lac Bellandur, les pompiers ayant alors mis plus de 12 heures pour en venir à bout. Ce même article rapporte qu’un autre incendie du même type avait aussi été observé en mai 2015.

D’après certains chercheurs qui observent depuis plus de 20 ans l’évolution des lacs Bellandur et Varthur, ce sont de l’ordre de 400 à 600 millions de litres d’eaux usées non traitées qui se déversent chaque jour dans ces lacs, entretenant un milieu particulièrement enrichi en matière organique. La surface des lacs étant recouverte par une épaisse couche de jacinthes d’eau qui empêche l’oxygénation des eaux, du méthane se développe dans les couches superficielles du lac, ce qui explique l’inflammabilité de ce dernier, le feu étant ensuite alimenté par la présence de pétrole et de phosphore flottant sur l’eau au milieu des nombreux déchets.

Poissons morts à la surface d’un lac de Bangalore en mars 2016 (source © L’Express)

De tels incendies à la surface de lacs lourdement pollués étaient d’ailleurs monnaie courante dans les années 1960 aux États-Unis, comme le rappelle Yann Quero sur son blog. Ce phénomène avait notamment été observé à plusieurs reprises à Cleveland (Ohio) dans la rivière Cuyahoga qui traverse la ville avant de se jeter dans le lac Érié. Dans ce cours d’eau, la concentration en produits chimiques a provoqué au moins une douzaine d’incendies et d’explosions, les plus graves ayant eu lieu en 1952 et en 1969.

A l’époque, cela avait amené les Américains à mettre en place, dans les années 1970, des normes plus sévères destinées à limiter la pollution des milieux aquatiques. Mais c’est aussi un des facteurs qui a poussé les Américains comme d’ailleurs les Européens à délocaliser leurs industries polluantes et dangereuses vers les pays du Sud, notamment en Inde et en Chine, qui ont connu à leur tour le spectacle pittoresque de la neige en été et des lacs qui prennent feu spontanément…

A Bangalore, cette pollution des eaux est d’autant plus inquiétante qu’elle concerne désormais non seulement les eaux superficielles où l’on ne compte plus les mortalités piscicoles, mais aussi les nappes souterraines dans lesquelles la ville s’approvisionne en eau potable. Science et Avenir relevait ainsi en mars dernier que près de la moitié de l’agglomération doit désormais être approvisionnée par des milliers de camions citernes qui transportent de l’eau pour les besoins quotidiens de la ville.

Camions citernes fournissant de l’eau à des logements de Bangalore, le 27 février 2018 (photo © Manjunath Kiran / AFP)

Il y a un mois, la Cour suprême a même dû intervenir pour arbitrer un accord de partage des eaux de la rivière Cauvery entre le Karnataka, région de Bangalore, et l’État voisin du Tamil Nadu. Ce cours d’eau qui traverse le Karnataka puis le Tamil Nadu avant de s’écouler dans le golfe du Bengale est en effet un enjeu majeur, âprement disputé entre les besoins de la ville de Bangalore et ceux des agriculteurs voisins. Il y a deux ans, une décision judiciaire ordonnant au Karnataka de lâcher de l’eau pour pallier une sécheresse qui menaçait les cultures du TamilNadu avait déclenché des émeutes mortelles à Bangalore et provoqué une situation de troubles quasi insurrectionnels.

C’est dire à quel point la bataille de l’eau a déjà commencé à cet endroit comme en de nombreux autres points du globe… La ville de Bangalore, dont la survie à moyen terme est désormais menacée du fait de ces difficultés d’approvisionnement en eau, n’est assurément pas la seule agglomération menacée ainsi de pénurie. Reste à savoir si ses habitants arriveront à réagir et à reconstituer des milieux aquatiques plus sains avant qu’il ne soit trop tard…

L.V. 

Le Bulgare et la cigogne

30 mars 2018

Décimées dans les années 1970, date à laquelle les populations de cigognes blanches avaient quasiment disparu du sol français, sous l’effet cumulé des pratiques agricoles, de la pollution, de la chasse mais aussi des épisodes de sécheresse en Afrique, ces populations d’échassiers migrateurs, désormais protégés en France depuis 1981, se sont peu à peu reconstituées.

Nids de cigognes sur les toits alsaciens

Alors qu’il ne subsistait que 11 couples nicheurs recensés sur le sol national en 1974, principalement en Alsace, les efforts menés depuis pour réintroduire l’espèce mais surtout protéger son habitat en restaurant certaines zones humides ont porté leurs fruits puisque l’on comptait en France plus de 1600 couples en 2010.

Pour autant, certaines régions d’Europe orientale restent nettement plus attractives pour ces oiseaux migrateurs que l’on voit arriver au printemps et repartir à l’automne pour leur migration africaine. Ainsi, on estime que plus de 50 000 cigognes, soit 20 % de la population mondiale connue, passent l’été en Pologne. Sciences et Avenir cite ainsi en exemple le petit hameau de Zywkowo situé à l’extrême nord du territoire polonais, tout près de l’enclave russe de Kaliningrad : dans les années 1960, on y dénombrait 120 habitants et 20 cigognes, mais désormais les chiffres se sont inversés et les rares habitants restés sur place consacrent tout leur temps à entretenir les mares et installer des plateformes sur leur toit pour faciliter l’accueil de ces migrateurs africains.

Nid de cigognes à Zywkowo en Pologne (source © Sciences et Avenir)

Et la Pologne n’est pas le seul pays d’Europe de l’Est à se montrer aussi accueillant envers ces populations émigrées, malgré les dérives nationalistes de ses responsables politiques. C’est une dépêche de l’AFP, relayées par plusieurs médias dont le Point, qui s’en est fait récemment l’écho : en Bulgarie, les premières cigognes arrivées en mars en pleine vague de froid polaire, se sont retrouvées littéralement congelées et ont dû être secourues par les habitants du cru.

Safet Halil, un employé de voirie quinquagénaire de Zarista, au nord-est de la Bulgarie, s’est ainsi distingué en recueillant au bord de la route cinq cigognes blanches aux ailes gelées. Il les a transportées dans sa demeure, par ailleurs fort modeste, a allumé le poêle pour les réchauffer et leur a acheté du poisson. Deux jours plus tard, les cigognes étaient toujours installées dans leur foyer d’hébergement provisoire, profitant de l’hospitalité du Bulgare au grand cœur avec qui elles avaient manifestement sympathisé, poussant même la familiarité jusqu’à lui donner quelques coups de bec amicaux.

Safet Halil et les cigognes qu’il héberge à domicile (photo © Dimitar Dilkoff / AFP)

Et le cas n’est pas isolé puisqu’une quarantaine d’habitants de la région l’auraient imité, récupérant de nombreuses cigognes en détresse du fait de la vague de froid et des chutes de neige qui ont sévi toute la semaine dernière dans ce secteur. Mises à l’abri dans des garages et des hangars agricoles, nombre de cigognes ont ainsi pu être sauvées. Une situation peu courante et qui a suscité de nombreux échanges sur les réseaux sociaux dans un pays où la population de cigognes est en hausse puisque le dernier recensement effectué en 2016 fait état de plus de 6000 de ces volatiles soit 1000 de plus qu’en 2010 : un afflux migratoire sans précédent mais dont les Bulgares se réjouissent.

Puissent tous les populations de migrants en provenance de régions africaines bénéficier d’un accueil aussi chaleureux dans nos contrées…

L.V. 

La Lune comme une déchetterie !

28 mars 2018

L’information n’est pas nouvelle mais elle resurgit périodiquement tant elle fait honte à notre habitude de laisser traîner partout nos déchets, même sur le sol de notre satellite lunaire qui est devenue une véritable déchetterie. Eh oui, la Lune elle-même que le poète venait « voir à la brune / Sur le clocher jauni, / La lune / Comme un point sur un i », la lune donc, toute « pâle et morne », ne serait plus qu’un vaste dépotoir sous son « masque blafard »…

Module lunaire du programme Apollo (source © NASA)

Ouest France en a remis une couche récemment, mais c’est le site internet du magazine américain The Atlantic qui avait levé le lièvre en 2012, révélant que l’on estimait à l’époque à 180 tonnes la masse de déchets accumulés sur la Lune depuis 1959. Le premier de ces débris est d’ailleurs la carcasse du premier engin fabriqué de la main de l’homme qui a réussi à atteindre la Lune, à savoir la sonde soviétique Luna 2 qui s’y est écrasée lamentablement le 14 septembre 1959.

La sonde soviétique Luna 2, première à avoir atteint la Lune, où elle s’est écrasée comme une crêpe…

Il faudra attendre Luna 9 en 1966 pour qu’une première sonde parvienne à se poser en douceur sur le sol lunaire, toutes celles du programme américain Ranger, mis en œuvre entre 1961 et 1965, ayant échoué à atteindre leur but, à l’exception des trois dernières qui s’y sont aussi définitivement scratchées.

180 tonnes de déchets pour un lieu où à ce jour seulement 12 hommes ont mis le pied, à la suite de Neil Amstrong, le capitaine de la mission Apollo 11 qui en a foulé le sol pour la première fois le 20 juillet 1969, c’est quand même beaucoup ! Depuis les 6 missions du programme Apollo qui ont permis à ces rares élus de marcher sur la Lune, la dernière (Apollo 17) s’étant déroulée en décembre 1972, plus personne n’a donc remis les pieds là-haut. Mais cela n’empêche pas les déchets de continuer à s’y accumuler…

Neil Amstrong, décédé récemment à 82 ans, premier homme à marcher sur la Lune en 1969 (source © NASA)

Car les agences spatiales de tous les pays, et elles sont de plus en plus nombreuses maintenant qu’Européens, Japonais, Chinois et Indiens se targuent eux-aussi d’aller voir de plus près ce qui se passe dans l’Espace, ont pris la mauvaise habitude d’utiliser notre satellite comme une vaste décharge. Plutôt que d’organiser le rapatriement sur Terre de tous les engins spatiaux devenus inutiles une fois leur mission accomplie, le plus simple et surtout le plus économique est en effet de les programmer pour qu’ils aillent s’écraser sur le sol de notre satellite naturel où ils viennent grossir la masse de déchets accumulés.

En 2012, la NASA recensait ainsi pas moins de 809 objets abandonnés à la surface de la Lune, les plus volumineux étant les modules lunaires et autres sondes spatiales dont les épaves jonchent désormais la surface de la Lune. Mais les souvenirs abandonnés par les quelques passages de l’homme à l’occasion des missions Apollo sont loin d’être négligeables. Certains ont été laissé en place à bon escient, comme le réflecteur lunaire installé par l’équipage d’Apollo 11, qui renvoie les rayons lasers émis depuis la Terre et permet de calculer à tout moment la distance qui sépare les deux corps célestes, ou encore le télescope doré déposé par la mission Apollo 16 et qui est l’unique télescope à pouvoir observer l’espace à partir d’un autre astre.

Plusieurs de ces objets abandonnés sur la Lune l’ont aussi été en toute connaissance de cause pour une raison symbolique voire sentimentale. C’est le cas notamment d’un micro disque de silicone renfermant les messages de 73 chefs d’état, mais aussi des cendres du géologue de la NASA, Eugene Shoemaker, lequel aura rêvé toute sa vie de se rendre sur la Lune, mais a dû se contenter d’attendre sa mort pour faire le voyage en kit.

La photo de la famille de Charles Duke que l’astronaute n’a pas pu s’empêcher de laisser traîner sur le sol lunaire (source © NASA)

Ces témoignages divers dont certains redoutent qu’ils n’attirent désormais des touristes lunaires venus les recolter comme vestiges historiques, sont de nature très diverse. On y retrouve ainsi, outre 5 drapeaux américains et l’inévitable Bible, une photo de la famille de l’astronaute Charles Duke, dédicacée et abandonnée à l’occasion de la mission Apollo 16 en 1972. On doit y retrouver aussi avec un peu de chance les deux balles de golf que le facétieux Alan Shepard, contre-amiral de l’US Navy, n’a pas pu s’empêcher de lancer avec l’aide d’un club de golf transporté clandestinement…

La plume et le marteau abandonnés après une expérience de physique assez basique (source © NASA)

Même les objets utilisés à des fins scientifiques sont restés sur place. Aucun des membres de l’équipage de la mission Apollo 15 ne s’est ainsi donné la peine de ramasser le marteau et la plume de faucon qu’ils avaient laissés tomber à la surface de la Lune pour vérifier ce que tout lycéen a pourtant pu observer de visu en TP de physique et sans pour autant déployer un tel arsenal de technologie, à savoir que dans le vide deux objets tombent à la même vitesse, quelle que soit leur masse et leur forme.

Mais il faut bien reconnaître que la plupart de ces détritus jetés sans vergogne, parmi lesquels des objectifs photographiques, une caméra, mais aussi 12 paires de bottes, des sacs à dos, de vieux magazines et pas moins de 96 sacs d’excréments, d’urine et de vomi, auraient quand même mérité d’être rapatriés ou au moins détruits pour ne pas polluer prématurément le sol de notre satellite. Manifestement, les astronautes américains n’avaient à l’époque guère plus de savoir-vivre et de préoccupation pour l’environnemnt que le touriste lambda en arrêt pique-nique au bord d’une route nationale un jour de départ en vacances…

C’est d’ailleurs ce que reconnaît sans ambages l’historien en chef de la Nasa, un certain William Barry, interviewé il y a quelques années par le site Live Science : « La préoccupation principale de la Nasa, c’était : les membres de l’équipage peuvent-ils arriver sur la Lune sans encombre ? Peuvent-ils prélever les échantillons dont ils ont besoin ? Et peut-on les ramener sur Terre en un seul morceau ? Les ingénieurs n’ont pas pensé à grand-chose d’autre… ». Voilà qui n’est certes pas le versant le plus glorieux de l’aventure spatiale, mais on veut bien le croire en effet…

L.V. 

Galerie des Janots : une découverte insolite…

25 mars 2018

Pour qui se rend à La Ciotat en venant de Cassis ou de La Bédoule, il est difficile de ne pas repérer le chantier qui se prolonge depuis des mois le long de la RD 559 qui est surmontée à cet endroit d’une passerelle provisoire. Ce chantier inhabituel est celui du siphon des Janots et est un des signes bien visibles d’une opération lancée depuis bientôt 10 ans par la Communauté urbaine de Marseille, intégrée depuis à la Métropole Aix-Marseille-Provence qui en a donc repris la maîtrise d’ouvrage.

Le Canal de Marseille au niveau de l’aqueduc de Roquefavour, achevé en 1847 (source © Marseille en live)

L’ouvrage concerné par ces travaux titanesques est une des branches du Canal de Marseille qui court sur près de 200 km depuis La Roque d’Anthéron, en l’occurrence la dérivation de La Ciotat qui approvisionne en eau potable les communes de Cassis, de Roquefort-La Bédoule, de La Ciotat et de Ceyreste. Cette canalisation majeure franchit le massif de Carpiagne par le souterrain du Mussuguet qui débouche tout près de la gare de Cassis. Après Cassis, elle doit ensuite traverser un second massif sous la Couronne de Charlemagne. Pour cela, elle emprunte tout simplement le tunnel SNCF des Janots.

Mais le passage de la canalisation dans le tunnel, aménagé entre 1956 et 1964 se fait par des ouvrages vétustes et fuyards qui posent de grosses difficultés d’exploitation et de maintenance. Cette canalisation qui ne permet de faire transiter que 330 l/s est de toute façon très insuffisante, surtout en période estivale, pour répondre aux besoins sans cesse croissants de l’usine de potabilisation de La Ciotat, laquelle alimente aussi Ceyreste et Saint-Cyr-sur-mer. Il a donc été décidé de déplacer cette canalisation en dehors du tunnel SNCF et de creuser une nouvelle galerie spécifique parallèle, avec pour objectif de faire passer par la future canalisation un débit de 440 l/s, qui pourrait même être porté ultérieurement à 1 m3/s.

Creusement de l’amorce de galerie sur La Ciotat en prévision de la mise en place du tunnelier à l’entrée de la galerie des Janots (source © Bronzo)

L’opération n’est pas anodine puisque son coût est évalué à 55 millions d’euros, financé en partie (pour 11 millions) par l’Agence de l’Eau Rhône-Méditerranée. Le creusement de la galerie proprement dit, estimé à près de 27 millions par les services de la Métropole, doit se faire sur une longueur de 2 750 m et selon un diamètre de 3,5 m. Elle passe sous le Parc national des Calanques, avec une épaisseur de recouvrement qui varie le long du tracé entre 15 et 180 m, mais elle serpente également très près de la voie ferrée et à proximité de nombreuses habitations, ce qui rend l’opération délicate.

Le tunnelier Augustine lors de son baptême le 3 février 2017 (photo © Christiane Wanaverbecq – Le Moniteur)

Il a donc fallu un tunnelier, construit tout spécialement par la société Robbins et installé à pied d’oeuvre depuis janvier 2017, un engin de 135 m de longueur et pesant 250 t, destiné à creuser la roche pendant une durée prévisionnelle de 10 mois en travaillant 24 heures sur 24. Inaugurée le 3 février 2017 en présence de nombreuses personnalités dont la maire de Cassis, Danièle Milon, et celui de Gemenos, Roland Giberti, par ailleurs délégué à l’eau et à l’assainissement à la Métropole, la machine imposante a été baptisée du petit nom d’Augustine. Une référence bien sûr au prénom de la mère de Marcel Pagnol, lui qui arpentait dans son enfance avec émerveillement les rives du Canal de Marseille.

Amorce de galerie pour la mise en place du tunnelier (source © Made in Marseille)

Depuis, le tunnelier poursuit son travail de grignotage. Prévu pour s’achever fin 2017, le percement de la galerie s’est prolongé au-delà des prévisions, ce qui n’a rien d’inhabituel dans ce type de chantier hors normes soumis à d’inévitables aléas géologiques, surtout dans un massif calcaire sujet aux phénomènes de karstification liés à la dissolution du carbonate de calcium sous l’effet de la circulation des eaux souterraines plus ou moins acides qui s’infiltrent via les fissures de la roche, élargissant ces dernières jusqu’à former de véritables cavités.

Et ça n’a pas loupé comme l’a annoncé Eiffage, l’entreprise générale mandataire du marché de travaux : le 13 mars 2018, Augustine est justement passée juste à côté d’une vaste cavité karstique remplie de magnifique concrétions. La géologue de service, une certaine Marie Lesimple, a donc eu le privilège de pénétrer la première, accompagnée d’un jeune ingénieur dénommé Salah-Edinne Chatouani, dans cette grotte en forme de cloche qui ne présente pas d’autres accès apparents praticables.

Cette découverte grandiose a mis en émoi les responsables du chantier et le directeur des travaux souterrains d’Eiffage Génie Civil, Loïc Thevenot, s’est déplacé en personne pour admirer le spectable inattendu et prononcer une sentence historique, comme il se doit en pareille occasion, déclarant : « On se sent tout petit quand on contemple ces merveilles que la nature nous offre ».

Vue de la cavité karstique découverte à l’occasion des travaux de creusement de la galerie des Janots (source © Eiffage)

L’accès à la grotte, ouvert grâce au passage du tunnelier, a été immédiatement sécurisé par un ouvrage en béton muni d’une trappe afin de permettre des investigations ultérieures et surtout pour que le chantier puisse suivre son cours sans tarder davantage. Il reviendra ensuite au maître d’ouvrage, à savoir la Métropole, de décider du sort de cette caverne joliment concrêtionnée, découverte par le plus grand des hasards grâce au percement de cette galerie technique destinée à apporter aux Ciotadens l’eau issue de la Durance, alors même que de l’eau circule en abondance à travers les interstices de ce massif, comme en témoigne l’importance du volume de vide créé au fil des millénaires du fait de ces infiltrations naturelles…

L.V.  

Pesticides dans les cours d’eau : France Nature Environnement s’alarme !

23 mars 2018

Epandage de pesticides en bord de cours d’eau (photo © Maxppp / France Bleu)

Le sujet n’est pas récent puisqu’un rapport officiel publié en novembre 2015 par le Commissariat général au développement durable, une instance du Ministère de l’écologie, l’analysait dans les détails, affirmant qu’au vu des suivis de qualité de l’eau effectués en 2013 dans nos rivières et nos plans d’eau (du moins là où il y a des points de mesure…), la quasi totalité des milieux aquatiques français est polluée par la présence de pesticides que l’on retrouve dans 92 % des points de mesure. Seuls les zones montagneuses et quelques rares secteurs encore épargnés par l’agriculture intensive en sont exempts.

Il faut bien reconnaître que la France fait toujours partie du peloton de tête des plus gros consommateurs de pesticides, ces substances chimiques destinées à lutter contre les organismes jugés nuisibles, qu’il s’agisse de plantes adventices (herbicides), d’insectes (insecticides), de champignons (fongicides), de vers (nématicides), de rongeurs (rodenticides) et on en oublie, utilisés à 90 % (voire davantage) par l’agriculture, surtout depuis que l’usage de ces produits est en voie de prohibition tant pour les particuliers que pour les collectivités.

Concentrations moyennes en pesticides dans les cours d’eau par bassin versant en 2014 (source : Observatoire national de la biodiversité)

Depuis 1999, la surveillance de la qualité de l’eau dans la nature n’a cessé de se développer et on disposait ainsi en 2014, selon le Ministère de l’écologie, de 3052 points de mesures de la qualité dans les eaux de surface (rivières, fleuves et lacs) et de 2121 points de suivi dans les eaux souterraines (nappes). Vu leur coût très élevé pour la collectivité, le nombre de ces analyses (qui portent aussi sur de très nombreux autres paramètres dégradant, dont les nitrates) est malheureusement assez limité, généralement 8 par an dans les cours d’eau et 4 par an seulement dans les nappes.

La tâche est en effet considérable car il s’agit de rechercher les traces de près de 700 principes actifs de pesticides (ainsi que les produits issus de leur dégradation dans le milieu naturel, qui donne parfois naissance à des substances encore plus redoutables pour le milieu naturel et souvent stables à long terme, des décennies après que le produit commercialisé ait été interdit à la vente). Cette variété de principes actifs à identifier et analyser ne cesse d’ailleurs d’augmenter, fruit d’une stratégie délibérée de l’industrie agro-chimique de mettre sans cesse sur le marché de nouveaux produits pour avoir toujours un coup d’avance sur la réglementation et le contrôle.

Ainsi en 2014 ce sont pas moins de 389 substances différentes provenant de pesticides qui ont été retrouvées sur l’ensemble des points de mesure en eaux de surface, et 265 dans les eaux souterraines, avec en moyenne pas moins de 17 substances différentes identifiées dans chaque station (mais jusqu’à 89 molécules différentes pour certains prélèvements !). Cette année-là, des pesticides ont ainsi été retrouvés, en quantité et en nombre variable selon les endroits, dans 87 % des points de mesure en eau superficielle et dans 73 % des points de suivi en nappe, ce qui en dit long sur la généralisation du phénomène.

Nombre de produits pesticides observés par point de mesure en 2014 (source : Ministère de l’écologie)

Certes, si l’on analyse l’évolution de ces observations depuis 2008, date à laquelle le réseau de suivi a commencé à être suffisamment dense pour se faire une idée globale du sujet, on observe une légère diminution de la proportion de points de mesures contaminés, malgré un nouveau pic très sensible en 2012. Cette évolution résulte sans doute des mesures d’interdiction portant sur certains produits et de l’évolution des pratiques agricoles, mais reste peu significative, d’autant que la consommation de pesticides en France ne cesse d’augmenter malgré toutes les mesures gouvernementales mises en place pour tenter de limiter leur usage.

Dans les eaux de surface, le produit phare, présent dans plus de 38 % des points de suivi est le glyphosate tandis que son produits de décomposition, l’AMPA, est retrouvé dans plus d’un point de suivi sur deux : merci Monsanto ! L’atrazine, interdite depuis 2003 est encore bien présente 11 ans plus tard, avec tout son cortège de produits de décomposition, tant dans les cours d’eau que dans les nappes. Dans ces dernières, on retrouve également de manière significative certains herbicides largement utilisés dans la culture du maïs, et l’on voit même apparaître depuis quelques années, dans nos milieux aquatiques, des résidus des fameux insecticides néonicotinoïdes de plus en plus utilisés.

Et voilà que France Nature Environnement s’empare de nouveau du dossier en lançant une pétition qui exige du gouvernement de revoir sa copie en matière de définition des zones de non traitement, tout en attaquant en parallèle plus de 40 arrêtés départementaux issus de cette évolution de la réglementation. L’affaire n’est pas des plus simples et mérite quelques éclaircissements. Cette notion de zones non traitées (ZNT) a été définie par un arrêté ministériel de septembre 2006 et vise à interdire l’usage de pesticides dans une bande de 20 à 50 m (mais pouvant aller jusqu’à 100 m) en bordure des cours d’eau, afin justement de limiter les risques de contamination par lessivage. La largeur de cette bande peut être réduite à 5 m sous réserve de respecter certaines conditions dont la présence d’une haie ou au moins d’une bande enherbée entre le champ et le milieu aquatique, ainsi que des pratiques d’application adaptées.

Bande enherbée le long d’un cours d’eau (source : Agence française pour la biodiversité)

Initialement, la liste des milieux aquatiques pour lesquels cette distance minimale de sécurité s’applique correspond à tous les cours d’eau, plans d’eau, fossés et points d’eau permanents ou intermittents figurant sur les cartes IGN au 1/25 000, mais elle peut aussi faire l’objet d’un arrêté préfectoral qui permet de prendre en compte les spécificités locales.

Car à l’usage, il n’est pas si évident qu’il n’y paraît de définir ce qu’est un cours d’eau et ce point fait l’objet depuis des années de multiples controverses avec la profession agricole. Le ruisseau qui draine le vallon de Carnoux en est un exemple parmi d’autres. Ce ru peut être considéré comme un oued qui draine toute la vallée, susceptible de faire transiter des débits conséquents en cas de forte pluie, débits qui se déversent directement dans le Merlançon (au rond point du pont des Barles) avant de rejoindre l’Huveaune plus en aval. Le reste du temps, ce cours d’eau est alimenté latéralement par les écoulements d’eaux souterraines qui s’infiltrent dans les coteaux de chaque côté du vallon. Avant l’urbanisation, cet oued était sec une partie de l’année. Depuis, il est alimenté de manière quasi permanente car il reçoit aussi tout ce que les Carnussiens déversent sans réfléchir dans le réseau pluvial : vidange de piscines, pompes d’exhaure, lavage de la voirie et déversements illicites dans les regards en bordure de chaussée, de colorants ou d’huiles usagées

Le ruisseau de Carnoux, un milieu aquatique de piètre qualité… (photo © CPC)

Ce ruisseau intermittent devenu quasiment pérenne est-il un cours d’eau pour autant ? Au vu de sa configuration et de son déversement direct dans le réseau hydrographique naturel en aval, oui. Pour autant, il n’est pas figuré comme tel sur les cartes IGN et le gestionnaire de la voirie départementale a manifestement tendance à le considérer plutôt comme un simple fossé routier largement bétonné, sans que personne ne se préoccupe de la qualité des eaux qui y transitent.

Du coup, les services de l’État se sont lancés depuis juin 2015 dans un vaste travail de cartographie afin de tenter de délimiter quels sont les cours d’eau, démarche qui a fait l’objet de discussions serrées avec nombre de gestionnaires et d’usagers dont la profession agricole. L’enjeu consistait, pour les agriculteurs notamment, à refuser le statut de cours d’eau au maximum possible d’axes d’écoulements, afin de ne pas être soumis à la loi sur l’eau qui réglemente les interventions dans les cours d’eau (enlèvement de sédiments, coupe de la végétation, remodelage de berge, etc.).

Ce travail n’était pas supposé avoir d’impact sur les zones de traitement phytosanitaire. Mais les services préfectoraux se sont engagés, suite à la parution d’un arrêté ministériel de mai 2017 qui modifie légèrement celui de 2006, dans l’élaboration de cartes permettant de définir les points d’eau à proximité desquels doivent être mises en œuvre les ZNT.

Carte des cours d’eau identifiés comme tels par la Police de l’Eau dans le département du Gard (en bleu). Les tronçons en rouge ne sont plus considérés comme des cours d’eau et les zones en violet ont un statut encore indéterminé, sujet à discussion (source : Ministère de l’écologie)

Et, surprise, ces cartes élaborées en lien étroit avec la profession agricole en parallèle de la cartographie des cours d’eau, aboutissent à réduire de manière très significative les tronçons du réseau hydrographique soumis à réglementation pour l’épandage de pesticides. Dans le Tarn-et-Garonne par exemple, c’est 30 % du réseau qui n’est ainsi plus soumis au principe des zones non traitées et même 43 % en Indre-et-Loire. Cette situation est d’autant plus ubuesque que les cartes ne sont pas cohérentes d’un département à l’autre, certains tronçons de cours d’eau étant protégés uniquement jusqu’à la frontière du département limitrophe, sans réelle cohérence puisque les écoulements se poursuivent bien sans se préocuper des limites administratives… La protection de l’eau, pourtant considéré en France comme faisant partie du « patrimoine commun de la Nation » est décidément un combat de tous les instants !

L.V. 

La France, troisième exportateur mondial d’armes…

20 mars 2018

Carte des conflits armés en cours dans le monde en février 2018 (source : Wikipedia)

La fin des conflits armés dans le monde n’est certainement pas pour demain. On peut le regretter, surtout si l’on habite au Yemen, en Syrie, en Afghanistan, au Sud-Soudan, en Lybie ou en Somalie mais une chose est sûre, c’est une excellente nouvelle pour ceux qui font le commerce des armes. Et il se trouve que c’est justement une spécialité de la France. Depuis 2013, les exportations françaises d’armement ont bondi de 27 % alors qu’elles ont augmenté en moyenne de 10 % dans le monde. Le chiffre d’affaire des grands groupes d’armement français, qui emploient de l’ordre de 200 000 personnes, serait ainsi passé de 4,8 milliards d’euros en 2012 à 16,9 milliards en 2015 selon la Direction générale de l’armement (DGA) : voilà au moins des entreprises qui ne connaissent pas la crise…

La France était autrefois connue pour ses exportations de produits agricoles, vin et camembert en tête, mais tout cela semble bien oublié depuis et tout compte fait, le commerce des armes s’avère bien plus lucratif, même s’il présente le léger inconvénient de contribuer à alimenter les conflits armés un peu partout dans le monde. Mais comme le dit si bien notre ministre des Armées, Florence Parly, « beaucoup de pays sont confrontés à cette situation d’avoir, le cas échéant, livré des armes à d’autres pays alors que ces armes n’étaient pas censées être utilisées ». C’est vrai qu’après tout on n’est pas obligé de vérifier ce que nos clients peuvent bien faire avec la marchandise qu’on leur fourgue, sinon c’est la mort du petit commerce…

Le général André Lanata, chef d’état-major de l’armée de l’Air, présente des systèmes de bombes aéroportées à la ministre Florence Parly (photo © Frédéric Lert / Aerobuzz.fr)

Mais heureusement, nos entreprises nationales d’armement ne s’embarrassent pas de tels scrupules hors de propos, et du coup les affaires sont florissantes. Alors qu’en 2015 la France se classait à la cinquième place des pays exportateurs d’armes, derrière les États-Unis, la Russie, la Chine et l’Allemagne, voilà qu’elle a devancé l’Allemagne en 2016 et qu’elle se classe même en troisième position juste derrière la Russie pour l’année 2017. Elle pourrait même dépasser cette dernière dès 2018.

Selon le magazine Challenges, c’est une étude du cabinet IHS Markit, cabinet qui scrute 40 000 programmes d’armement dans 65 pays, qui l’affirmait en août 2017 et depuis les affaires marchent très bien, merci. La récente visite en Inde du Président Macron l’a encore confirmé avec à la clé de nouvelles ventes de Rafale et de sous-marins, à un pays qui, malgré les relents nationalistes de son gouvernement actuel, est devenu depuis 5 ans notre meilleur client en matière de vente d’armes. Juste devant l’Arabie saoudite, un autre pays quelque peu belliqueux qui bombarde allègrement depuis quelques années les populations yéménites, mais qui a le bon goût de nous acheter sans compter de l’artillerie, des missiles, des hélicoptères et des frégates, sans qu’on s’interroge trop sur la finalité de ces investissements…

Le maréchal al-Sissi (au centre) en 2015 (photo © Fady Fares / SIPA)

Et en troisième position de nos fidèles clients vient l’Égypte du maréchal Abdel Fattah al-Sissi, au pouvoir depuis 2012 suite à un coup d’État, qui a déjà largement rempli les prisons avec des islamistes, mais aussi de nombreux journalistes, des intellectuels, des homosexuels et de manière générale tous les démocrates qui s’opposent à sa politique musclée, allant jusqu’à écarter des prochaines élections présidentielles du 26 mars le seul autre candidat crédible, Khaled Ali. Voilà en tout cas une valeur sûre avec qui nos exportations de Mistral, de Rafale, d’hélicoptères, de véhicules blindés et de canons a augmenté de 215 % en 5 ans : une belle progression qui fait honneur au savoir-faire de nos ingénieur, à défaut de mettre en valeur leurs valeurs éthiques, mais on ne peut pas être bon partout !

Un dessin de Deligne

Seule ombre au tableau : il se murmure dans les milieux bien informés que le marché mondial de l’armement, en hausse constante depuis 2009, pourrait pour la première fois connaître une légère contraction en 2018. Non pas – que l’on se rassure ! – à cause d’une baisse d’intensité des conflits régionaux que nombre de dirigeants s’emploient à attiser allègrement, mais tout simplement parce que plusieurs pays ont considérablement renforcé leur propre capacité de production, ce qui rend moins nécessaire d’importer.

Selon l’IHS cependant, il reste encore de beaux jours devant nous. Le Moyen-Orient, porté par l’Arabie saoudite, décidément une valeur sûre, devrait continuer d’importer pour 22 milliards de dollars de matériel militaires au moins jusqu’en 2020 et d’autres pays comme l’Inde mais aussi l’Indonésie voire l’Algérie devraient devenir de solides clients dans les années à venir. Voilà qui n’est pas forcément rassurant pour la stabilité dans le monde mais c’est au moins une bonne nouvelle pour l’avenir de notre balance commerciale : on ne peut pas gagner sur tous les tableaux…

L.V.  

Des télescopes géants pour traquer des univers lointains…

10 mars 2018

Pour cette nouvelle conférence organisée par le Cercle progressiste carnussien le 22 février dernier et qui a attiré un public particulièrement nombreux d’environ 65 personnes, ce sont Jacques Boulesteix et Michel Motré, qui en introduction ont présenté le conférencier, Jean-Gabriel Cuby, astronome au laboratoire d’astrophysique de Marseille et résident à Carnoux. Jacques Boulesteix a rappelé les différents aspects qu’englobe l’astronomie à ce jour, que ce soient l’étude de modélisation théorique de l’univers, la conception d’instruments d’observation et d’exploration, ou l’interprétation des enregistrements collectés.

Présentation du conférencier par Jacques Boulesteix (à gauche) – photo © CPC

Jean-Gabriel Cuby a présenté d’abord l’astronomie comme une science ancienne qui utilise aujourd’hui a besoin des outils spatiaux et des télescopes au sol d’une technologie hyper complexe. Ces moyens ne peuvent être que mis en commun au niveau planétaire pour permettre la poursuite des nombreux programmes d’observation de l’univers en cours et ceux prévus dans le futur.

C’est dans ce domaine que notre conférencier excelle puisqu’il a participé à la mise au point de très grands télescopes, ces dernières décennies, installés dans les observatoires répartis dans différents sites à la surface de la terre, notamment à Hawaii et au Chili.

Cela paraît évident mais c’est l’astronomie qui est à la source de nombreux outils utilisés quotidiennement, qui n’auraient pu être mis au point si le ciel avait été constamment recouvert de nuages ! Ainsi, les lois de la physique n’auraient pu être établies sans l’observation des planètes et leurs trajectoires, ou sans celle des étoiles, qui ont donné naissance aux théories élaborées par des savants comme Galilée, Kepler, Newton jusqu’à Einstein qui a modélisé mathématiquement notre univers. Même le GPS ne pourrait pas fonctionner sans l’apport de la théorie de la relativité…

Dès l’antiquité la connaissance de l’astronomie a permis l’établissement de calendriers, de cartes du ciel pour la navigation, la prévision d’éclipses. Cette connaissance constituait pour ceux qui les possédaient un outil de pouvoir. D’ailleurs les cultes les plus anciens associaient phénomènes célestes et architecture, tant l’influence sur leurs vies et croyances étaient importantes (pyramides, alignements de Carnac, de Stonehenge,..).

Galileo Galilei et deux de ses lunettes qu’il fit construire aux environs de Bologne un peu avant 1610

Depuis des millénaires et encore aujourd’hui, l’œil humain suffit à observer les astres les plus proches de notre système solaire si les conditions météorologiques le permettent. Mais ce n’est que depuis 1610 que Galilée a ouvert une ère nouvelle à l’astronomie avec la mise au point de sa lunette, prémisse des futurs télescopes constamment améliorés par d’autres savants comme Newton.

L’étape majeure se situe au 19ème siècle lorsque Camille Flammarion établit une cartographie de Mars, et c’est l’invention de la photographie qui permit d’enregistrer l’image de la nébuleuse du « tourbillon », qui est en fait la galaxie de la constellation  des Chiens de chasse.

Depuis 50 ans, l’astronomie a multiplié ses moyens d’observation grâce à l’exploration spatiale (en dehors de l’atmosphère terrestre) par des engins que sont les satellites et sondes interplanétaires ainsi que les missions habitées comme Apollo ou la station orbitale internationale, mais aussi via la mise au point de radio-télescopes.

Représentation de la sonde Rosetta et du robot Philae posé sur la comète 67P/Tchourioumov-Guérassimenko, surnommée « Tchouri » (source © CNES / illustration David Ducros)

Le télescope Hubble permet d’obtenir des clichés d’une finesse incroyable repoussant de plusieurs années lumières les limites de notre vision de l’univers. Les sondes Giotto, Huygens et Voyager après un voyage de plusieurs années aux confins de notre système solaire, de même que des sondes robotisées, explorent et transmettent leurs données enregistrées sur Mars ou sur la comète « Tchouri », avec la sonde « Rosetta » de l’Agence spatiale européenne (ASE/ESA), dont les données sont traitées précisément par le laboratoire de Marseille.

Dans ses propos, Jean-Gabriel Cuby a beaucoup insisté, en s’appuyant sur la projection de nombreuses photos, sur le parallèle entre le perfectionnement des télescopes (la taille de l’optique) et leurs limites d’observation des objets lointains.

Si la lunette de Galilée avait un diamètre de deux centimètres et demi, le perfectionnement permanent des techniques de fabrication et l’adjonction de nouvelles inventions technologiques permettent d’atteindre aujourd’hui un diamètre de l’ordre de 40 mètres.

C’est par un facteur deux, tous les trente ans, que la performance des matériels est améliorée. Mais ceci nécessite de concevoir différemment ce type de télescope. Comme il reste impossible de construire un miroir de 40 m de diamètre d’un seul bloc, on a choisi de juxtaposer 800 miroirs identiques sur une surface de presque 1 000 m² afin d’obtenir le résultat voulu, mais au prix de prouesses technologiques pour ajuster ces multiples miroirs dont la planéité ne tolère pas d’écart. Par comparaison la tolérance recherchée est celle de l’épaisseur d’un cheveu sur une surface équivalente à celle de la ville de Paris !

Différents télescopes installés autour du Mauna Kea à Hawaii (source © Université d’Hawaï)

Il est par ailleurs crucial d’implanter ces télescopes dans des régions où les conditions sont les plus propices à des observations quasi permanentes en toutes saisons, et surtout pour pouvoir observer des longueurs d’onde moins absorbées en altitude (infrarouge, ultra-violet, ondes millimétriques). C’est donc en haute altitude, sous les cieux les plus secs de la planète qu’ils sont installés, comme dans le désert d’Atacama (à 5 000 m d’altitude) au Chili ou sur le site de Mauna Kea à Hawaii (à 4 000 m d’altitude).

Les pôles constitueraient aussi des sites d’observation favorables, peu pollués et avec de faibles turbulences, mais les conditions climatiques et les difficultés logistiques ne permettent d’y implanter que des instruments de taille modeste.

Les très grands télescopes, bien que très puissants, souffrent néanmoins de l’atmosphère terrestre qui agit comme un « dépoli », modifiant les rayons optiques en provenance de l’espace lointain et élargissant les images. Une technologie récente, « l’optique adaptative » permet d’analyser la perturbation due à l’atmosphère et de la corriger en temps réel en utilisant des miroirs déformables. Si les images ainsi obtenues approchent la qualité des images observées par des satellites, elles ne compensent cependant pas l’absorption de certaines radiations par l’atmosphère terrestre.

En fait, l’astronomie moderne utilise d’une manière très complémentaire trois outils : 

  • les grands télescopes optiques, qui disposent des plus grandes surfaces collectrices et donc peuvent observer les signaux les plus faibles. Ils sont notamment utilisés pour analyser la lumière (spectrographie) pour déterminer la composition et la vitesse des objets célestes ; 
  • les satellites ou sondes spatiales, qui, situés hors de l’atmosphère terrestre peuvent détecter des objets dans des longueurs d’onde inobservables sur Terre ;
  • les radiotélescopes, qui permettent d’observer les atomes d’hydrogène et les molécules et qui nous donnent ainsi des informations sur la matière et la formation des étoiles.

Parallèlement, l’astronomie moderne ne se limite plus à la seule observation du rayonnement électromagnétique (spectre visible et spectre radio).

D’une part, depuis quelques années, on tente d’observer les ondes gravitationnelles (suggérées par Einstein). Le succès de la détection par les instruments LIGO (Etats-Unis) et VIRGO (Europe) de fusions de trous noirs ouvre une nouvelle voie à l’observation d’objets très massifs dans l’univers, invisibles par les télescopes classiques.

D’autre part, les observatoires de détection de neutrinos peuvent permettre d’observer dans les régions les plus denses et les plus absorbées comme le centre galactique. En effet, les neutrinos, particules n’interagissant pratiquement pas avec les autres, peuvent traverser l’univers sans absorption. Encore faut-il pouvoir les observer ! C’est ce qui se fait avec l’expérience Antarès située au large de la Seyne ou Amanda, dans les glaces du pôle sud.

La conjonction de tous ces moyens est une contribution essentielle à la découverte de nouvelle planète et à la compréhension de la formation de l’Univers.

Par comparaison, les télescopes spatiaux présentent de nombreux avantages techniques mais leur coût d’entretien (comme celui de Hubble, en fonction depuis 25 ans) est aussi très supérieur.

Un public captivé par les explications de Jean-Gabriel Cuby (photo © CPC)

Pour réduire les coûts de ces installations gigantesques, tout en développant plusieurs programmes d’observation, la solution réside dans une coopération internationale indispensable, cela par le biais d’alliances entre pays. C’est notamment le cas du projet JWST (James Webb Space Telescope, successeur du Hubble Telescope), télescope spatial déployable de 6,50 m de diamètre, prévu pour 2019 entre la NASA (Etats Unis) et l’ESA (Europe).

Le projet qui tient à cœur de Jean-Gabriel Cuby et sur lequel il insiste davantage, est celui auquel il a travaillé depuis 2004, et qui concerne la conception et la construction du télescope géant européen E-ELT (Extremely Large Telescope), installé au Chili sur le complexe déjà existant d’Atacama (VLT). Ce nouveau concept de télescope révolutionnaire au sol aura un miroir primaire de 39 mètres et sera le plus grand télescope optique au monde, capable d’analyser aussi le proche infrarouge. Il devrait faire considérablement progresser les connaissances astrophysiques en permettant une étude détaillée d’objets tels que les exoplanètes (planètes gravitant autour d’autres étoiles que le Soleil), les premiers objets de l’Univers, les trous noirs super-massifs, ainsi que la nature et la distribution de la matière noire et de l’énergie noire qui dominent l’Univers.

Vue d’artiste du futur Extremely Large Telescope en construction dans le désert d’Atacama (source © L. Calcada / European Southern Observatory / AFP)

Devant être inauguré en 2014 il ne sera mis en service qu’en 2024, démontrant que la difficulté de réalisation d’un tel projet n’est pas seulement d’ordre technique mais aussi financier, politique, logistique et environnemental. Pour un tel projet d’observatoire en astronomie, il faut en effet régulièrement compter une trentaine d’années entre sa conception et l’obtention des premiers résultats escomptés !

Si les retombées scientifiques espérées sont immenses, les avancées techniques et industrielles autorisées par un tel projet sont également importantes, avec la mise au point induite de nombreuses innovations technologiques commercialisables.

Pour conclure, le conférencier a rappellé les enjeux scientifiques que représente l’astronomie : l’étude des galaxies, la découverte des exoplanètes, une meilleure connaissance de l’évolution de l’univers, de son origine, de la notion d’énergie, de la possibilité de vie extraterrestre, avec ce caractère, certes irrationnel, qui touche au domaine du rêve.

Un public particulièrement nombreux pour cette nouvelle conférence du CPC (photo © CPC)

Ensuite le public a posé de nombreuses questions, révélant une curiosité inassouvie et de multiples interrogations sur notre univers, régi par des lois physiques mais ayant toujours cette capacité à émerveiller, d’une façon intemporelle, le simple observateur humain.

L’apéritif partagé par le public à l’issue de la conférence a permis de poursuivre le dialogue dans l’attente d’une autre conférence sur l’astronomie concernant les récentes découvertes faites dans l’univers.

C.M.

Gare Saint-Charles, ou la diamétralisation de la quadrature du cercle…

7 mars 2018

La gare Saint-Charles, menacée de diamétralisation…

C’est le Conseil d’orientation des infrastructures (COI de son petit nom) qui l’affirme dans le rapport de 200 pages qu’il vient de remettre, le 1er février 2018, à la ministre des transports, Elisabeth Borne : il convient de « diamétraliser » la gare Saint-Charles ! Et ce n’est pas un scoop puisque le rapport précédent, remis en 2013 et destiné également à hiérarchiser les choix d’investissement dans les infrastrutures de transports, disait déjà exactement la même chose…

Certes, le COI, instauré le 17 octobre 2017 et présidé par Philippe Duron, ex-président de l’Agence de financement des infrastructures de transport en France (AFITF), est une nouvelle structure, installée à l’occasion des Assises nationales de la mobilité, et dont l’objectif est de « définir sous deux mois une stratégie et une programmation soutenables des actions à mener dans la prochaine décennie dans le domaine des transports et des mobilités », rien de moins, mais pour autant, son analyse s’appuie sur des décennies d’études qui convergent toutes vers la nécessité d’améliorer la desserte ferroviaire entre Marseille et Nice, et de rendre plus opérationnelles les deux gares d’extrémité.

Remise du rapport Duron le 1er février 2018 à la ministre Elisabeth Borne (photo © A. Bouissou / MTES / La Gazette des communes)

Pour la ministre, « il ne s’agit pas de dépenser moins. L’enjeu est aussi et d’abord d’investir mieux pour améliorer les réseaux existants et désenclaver les territoires mal desservis ». Et comme l’argent public est de plus en plus rare, il s’agit de phaser les projet en fonction de leur priorité et des moyens financiers qui pourront être dégagés. Trois scénarios ont donc été imaginés selon que l’AFITF sera en capacité de mobiliser pour les 20 ans qui viennent entre 48 milliards d’euros (dans l’hypothèse la plus pessimiste), 60 ou 80 milliards (soyons fous !).

Dans tous les cas, la « diamétralisation » de la gare Saint-Charles est considérée comme une priorité. Pour ceux qui auraient quelques lacunes en matière de géométrie dans l’espace et de langue de bois technocratique, précisons au passage que l’opération de diamétralisation consiste tout simplement à rendre traversante une gare qui fonctionne jusqu’à présent en cul-de-sac et où les trains qui arrivent sont obligés de repartir en marche arrière.

Différents scénarios à l’étude pour la diamétralisation de la gare Saint-Charles

Mais pas question pour autant, bien évidemment, de créer une nouvelle voie ferrée qui sortirait de la façade nouvellement reconfigurée de la gare Saint-Charles et viendrait se faufiler via la Porte d’Aix, encore en chantier… Le but de la manœuvre est purement et simplement de construire une nouvelle gare en souterrain, prolongée de part et d’autre par des voies en tunnel afin de permettre aux TGV de transiter par Saint-Charles tout en laissant le niveau actuel de la gare pour le seul trafic ferroviaire local, un peu comme cela a été fait il y a des années pour la Gare de Lyon à Paris. Comme le précise clairement (ou presque) le rapport du COI : « l’objectif réside dans la limitation des cisaillements et des rebroussements consubstantiels à la gare actuelle en cul-de-sac » : Ah, qu’en termes galants ces choses-là sont dites…

Toujours est-il que le réaménagement de la gare Saint-Charles fait partie des travaux jugés prioritaires, au même titre d’ailleurs que la première phase de déploiement de l’ERTMS, un autre bel acronyme technocratique qui signifie en bon français bruxellois European rail trafic management system, autrement dit l’art et la manière de remplacer la bonne vieille signalisation ferroviaire au sol par un système de régulation en cabine plus souple qui permet d’augmenter de 20 à 30 % le cadencement des trains, en principe sans collision…

Selon le scénario de financement retenu, les travaux de réaménagement du plateau actuel de la gare Saint-Charles devraient débuter au plus tard en 2027, mais peut-être même dès 2020 si les budgets sont au rendez-vous. Ensuite, à savoir entre 2028 et 2032 (voire même dès 2027 si l’AFITF arrive à imposer le scénario 3 à 80 milliards), pourront débuter les travaux de réalisation de la nouvelle gare en souterrain pour atteindre la fameuse diamétralisation.

Le trajet de la ligne nouvelle Provence Côte d’Azur (source © Préfecture de région PACA)

La première étape, qui intègre également, outre le réaménagement des gares de surface de Marseille et de Nice, celle de la Pauline près de Toulon, coûtera 860 millions d’euros pour la seule région PACA. La seconde, qui verra non seulement la réalisation de la gare souterraine Saint-Charles, mais aussi le réaménagement de la ligne classique entre Cannes et Nice, fera grimper la facture à 2,9 milliards d’euros. Viennent ensuite deux autres phases de travaux à programmer. La suivante permettra, pour la bagatelle de 3,9 milliards, de terminer l’aménagement de la gare Saint-Augustin à Nice et de créer la nouvelle gare de La Bocca à Cannes tout en aménageant le tronçon de ligne nouvelle entre Cannes et Nice. Quant à la dernière étape, prévue à partir de 2038 seulement selon les scénarios 1 et 2 les plus probables, son coût prévisionnel est de 6,6 milliards et il verrait la réalisation de deux tronçons supplémentaires de ligne nouvelle, entre Aubagne et Toulon d’une part, entre Cannes et Le Muy d’autre part.

Reste bien entendu à savoir désormais quel accueil sera donné à cette ultime proposition d’ajustement pour un projet qui vivote dans les cartons depuis des années mais qui peine à se concrétiser faute de financement approprié. Il n’y a donc plus qu’à croiser les doigts pour espérer que tout cela s’inscrira bien comme prévu dans le prochain projet de loi d’orientation des mobilités…

L.V. 

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

Biomasse bois : 3 projets retenus en PACA

3 mars 2018

Le bois, source renouvelable d’énergie (photo © Frédéric Douard)

C’est un communiqué du Ministère de la transition écologique et solidaire qui l’a annoncé, le 28 février 2018 : la deuxième tranche de l’appel à projets lancé en vue de soutenir, via un complément de rémunération, des projets de développement d’unités de production de biomasse, a retenu 11 projets dont trois qui se situent en région PACA : un beau succès pour le développement de la production énergétique à partir de la biomasse forestière dans notre région !

La première tranche de cet appel à projets lancé en février 2016 visait explicitement à encourager à la fois les projets de méthanisation, autrement dit la production de biogaz à partir de déchets ou de matière végétale brute, mais aussi la production directe d’électricité à partir de la combustion du bois. Ce développement de la biomasse en France est une nécessité comme l’affirme Nicolas Hulot : « La France a voté en décembre dernier une loi mettant fin à la recherche et à l’exploitation des hydrocarbures sur tout notre territoire. En parallèle, notre pays doit monter en puissance sur le développement des énergies renouvelables pour répondre aux objectifs fixés dans le Plan climat. Les projets annoncés aujourd’hui répondent à cette ambition de soutenir des filières créatrices d’emplois ».

Stock de copeaux de bois destinés à la filière bois énergie (photo © Richard Mayer / La Gazette)

A l’échelle mondiale, on estime que l’électricité produite à partir de la biomasse représente de l’ordre de 58 GW mais que cette puissance pourrait atteindre 86 GW d’ici 2021, ce qui représente un potentiel de croissance remarquable. En France, c’est moins de 1 % de l’électricité produite qui provient de la biomasse, même si cette fillière représentait déjà en 2014 de l’ordre de 7,5 % de la production d’électricité d’origine renouvelable (loin derrière l’hydroélectricité et l’éolien, mais devant le solaire néanmoins).

Le principe de la filière bois-énergie est des plus simples puisqu’il se limite à faire brûler le bois pour chauffer de l’eau et produire de la vapeur qui actionnera une turbine comme dans n’importe quelle centrale électrique. Il faut environ 4 tonnes de bois pour produire autant d’électricité qu’avec une tonne de pétrole, mais le CO2 qui est relâché dans l’atmosphère à cette occasion correspond à la seule quantité qui a été séquestrée durant la croissance des arbres, d’où un bilan neutre en termes d’émission de gaz à effet de serre, contrairement à ce qui se passe via l’utilisation d’un combustible fossile.

Digesteur à méthanisation de Marnay Energie à Feux dans le Cher, construite par Xergi (photo © Xergi)

Dans le cadre de la méthanisation, le procédé est plus complexe puisqu’on récupère d’abord le biogaz issu de la fermentation de la matière organique utilisée (déchets organiques, résidus végétaux, boues issues de stations d’épuration, ou déchets provenant de certaines activités agro-industrielles) et que c’est ce biogaz qui sert ensuite soit pour produire de l’électricité soit pour se chauffer.

Toujours est-il que l’on est désormais rentré dans un véritable processus visant à encourager ce type de production en France et cet appel à projets du ministère y contribue. Ce sont en effet 45 dossiers de candidatures qui ont été reçus à l’occasion de cette seconde tranche de l’appel à projet, sachant que la troisième tranche sera ouverte à compter du 29 juin 2018 et devrait permettre de sélectionner encore de nouveaux projets industiels.

Le ministre Nicolas Hulot visitant la plateforme expérimentale Gaya à Saint-Fons (production de biométhane à partie de biomasse sèche) le 26 juillet 2017 (photo © ENGIE)

Sur les 11 projets ainsi retenus, 2 correspondent à des installations de méthanisation prévues respectivement en Bretagne et dans le Médoc. Tous les autres sont des projet bois-énergie pour des puissances installées unitaires supérieures à 300 kW, l’ensemble des projets totalisant une puissance globale installée de près de 53 MW (à comparer avec une tranche de réacteur nucléaire de type Fessenheim dont la puissance nominale est de 900 MW).

La plus ambitieuse de ces installations est justement prévue dans les Bouches-du-Rhône, à Tarascon, portée par la société marseillaise Bio-Watt, pour une puissance totale de 25 MW. Les deux autres projets implantés en région PACA sont d’ampleur nettement plus limitée avec des puissances visées oscillant entre 1MW pour le projet de Campus SAG Sud Luberon à Villelaure, dans le Vaucluse, et 1,2 MW pour celui porté par la société Pérénia à Clans, une commune forestière située dans la vallée de la Tinée, dans les Alpes-Maritimes.

Ces désignations interviennent alors que le projet de plus grande centrale biomasse de France prévu à Gardanne, porté initialement par le groupe énergétique allemand E.ON puis repris par sa filiale, la société Uniper France Power, continue à faire polémique. Pour rappel, le Tribunal administratif de Marseille avait annulé le 8 juin 2017 l’autorisation d’exploitation accordée par l’État en 2012, au motif que l’étude d’impact n’analysait pas « les effets négatifs indirects et permanents du projet sur les espaces forestiers de la zone d’approvisionnement » de la centrale, située dans un rayon de 400 km.

Vue de l’unité de la centrale thermique de Provence, à Gardanne destinée à produire de l’électricité à partir de la biomasse (photo © Serge Guéroult / La Provence)

Il faut dire que le projet était particulièrement ambitieux, voire totalement démesuré pour ses détracteurs qui évoquent « un véritable aspirateur à forêts » destiné à raser les châtaigneraies des Cévennes et à faire disparaître toute la forêt méditerranéenne… Il consistait à transformer, moyennant un investissement de 265 millions d’euros, la tranche 4 de l’ancienne centrale à lignite de Gardanne, en une vaste centrale à biomasse, d’une puissance de 150 MW (soit 6 % de la consommation totale de la région PACA), capable de brûler d’ici 2024, 850 000 tonnes de bois par an, dont 445 000 tonnes provenant de boisements locaux, le reste étant a priri constitué de déchets verts et de bois recyclé.

Les deux parcs naturels régionaux du Luberon et du Verdon sont vent debout contre ce projet de centrale à biomasse, au grand dam du Président de la Région, Renaud Muselier, qui menace du coup de leur couper les vivres, estimant dans un communiqué que « l’écologie doit être mise au service de l’économie pour faire de la croissance verte un atout ». Mettre l’écologie au service de l’économie, les écologistes apprécieront certainement…

En juillet 2017, Nicolas Hulot a malgré tout décidé de faire appel du jugement du Tribunal administratif. Quant aux parcs naturels régionaux, ils ont fini par rentrer dans le rang. Comme l’a raconté Reporterre, le 29 septembre dernier, les deux PNR réunis à Valensole ont accepté de signer un protocole d’accord avec Uniper, décidant de l’abandon de leurs poursuites devant le Tribunal administratif et de l’accompagnement de la nouvelle étude d’impact qui s’est du coup déroulé fin 2017 dans la plus grande discrétion. L’association France Nature Environnement PACA, elle-même très opposée au projet a aussi rendu les armes, effrayée par les baisses de subvention annoncées par la Région. Un passage en force donc et qui a déjà permis à l’unité de biomasse de produire 250 MWh au cours de 2200 heures de fonctionnement accumulés pendant les phases d’essais en 2017.

Pour l’instant, 55 % de la ressource utilisée à Gardanne est importée, pour l’essentiel de plantations d’eucalyptus situées en Espagne et au Brésil, 20 % étant issu de la production forestière locale, le reste provenant de déchets de récupération et de bois en fin de vie. Un progrès sans doute par rapport au charbon qui alimentait jusque là cette centrale thermique, l’une des 4 dernières encore en activité dans l’hexagone, mais qui est encore loi d’apaiser toutes les craintes des défenseurs locaux de l’environnement !

L.V.