Posts Tagged ‘Environnement’

A Bangalore, il y a le feu au lac !

6 avril 2018

La ville de Bangalore, créée au 16ème siècle sur les plateaux du Dekkan, au sud de l’Inde, a longtemps gardé sa réputation de cité-jardin, plutôt verdoyante, baignée par pas moins de 285 lacs qui lui ont toujours fourni de l’eau en abondance. Devenue en 1956 capitale du nouvel État de Karnataka, la ville ne comptait alors que 800 000 habitants. Mais à partir des années 1990, Bangalore est devenu le pôle indien des nouvelles technologies, la Silicon Valley locale, et sa population a littéralement explosé sous l’effet d’un boom démographique peu courant puisqu’elle est passée de 3 millions d’habitants en 1991 à 10 millions actuellement.

Centre d’affaire UB City à Bangalore, mégapole de 10 millions d’habitants

Bien évidemment, cet afflux de population s’est traduit par une urbanisation foudroyante. De nombreux lacs ont été comblés et les espaces naturels bétonnés pour laisser place aux immeubles de bureaux et d’habitation, si bien qu’on ne compte plus que 192 plans d’eau désormais, mais qui sont devenus de véritables cloaques, réceptacles des eaux usées insuffisamment traitées et des déchets de toutes sortes.

A la surface du lac Bellandur, le plus grand de la ville, dont la surface est partiellement masquée par les plantes invasives qui s’y développent, et sur les canaux qui l’alimente, flotte régulièrement une espèce de mousse blanchâtre, issue d’un mélange entre les eaux usées qui se déversent directement dans le milieu naturel, et des produits toxiques provenant des usines chimiques proches de la ville. Lorsque le vent se lève, cette mousse se désagrège et vient retomber sur les habitants de Bangalore, comme une neige toxique qui irrite la peau et les bronches des plus fragiles.

Piétons sur un pont traversant le chenal d’entrée du Lac Bellandur recouvert de mousse en 2015 (photo © Manjunath Kiran/AFP/Getty Images)

Les autorités ont bien essayé de se prémunir de ce phénomène en posant des filets destinés à empêcher les envols de mousse, et en arrosant périodiquement la surface des eaux polluées pour disperser la mousse toxique, mais l’effet de ces mesures reste limité.

Le 19 janvier dernier, alors que la température ambiante dépassait allègrement les 30 °C, cette mousse a purement et simplement pris feu, dégageant une épaisse fumée blanche peu rassurante qui se répand au milieu des immeubles d’habitation tout proches. Les pompiers ont mis plusieurs heures pour éteindre cet incendie inhabituel se propageant à la surface du lac.

Incendie à la surface du lac Bellandur près de Bangalore, le 16 février 2017 (photo © Aaditya Sood / The Gardian)

Et cet incendie n’est que le quatrième en trois ans ! Un article très documenté publié dans The Guardian en mars 2017 rapporte en effet qu’un phénomène similaire s’était déjà produit le 16 février 2017, toujours sur le même lac Bellandur, les pompiers ayant alors mis plus de 12 heures pour en venir à bout. Ce même article rapporte qu’un autre incendie du même type avait aussi été observé en mai 2015.

D’après certains chercheurs qui observent depuis plus de 20 ans l’évolution des lacs Bellandur et Varthur, ce sont de l’ordre de 400 à 600 millions de litres d’eaux usées non traitées qui se déversent chaque jour dans ces lacs, entretenant un milieu particulièrement enrichi en matière organique. La surface des lacs étant recouverte par une épaisse couche de jacinthes d’eau qui empêche l’oxygénation des eaux, du méthane se développe dans les couches superficielles du lac, ce qui explique l’inflammabilité de ce dernier, le feu étant ensuite alimenté par la présence de pétrole et de phosphore flottant sur l’eau au milieu des nombreux déchets.

Poissons morts à la surface d’un lac de Bangalore en mars 2016 (source © L’Express)

De tels incendies à la surface de lacs lourdement pollués étaient d’ailleurs monnaie courante dans les années 1960 aux États-Unis, comme le rappelle Yann Quero sur son blog. Ce phénomène avait notamment été observé à plusieurs reprises à Cleveland (Ohio) dans la rivière Cuyahoga qui traverse la ville avant de se jeter dans le lac Érié. Dans ce cours d’eau, la concentration en produits chimiques a provoqué au moins une douzaine d’incendies et d’explosions, les plus graves ayant eu lieu en 1952 et en 1969.

A l’époque, cela avait amené les Américains à mettre en place, dans les années 1970, des normes plus sévères destinées à limiter la pollution des milieux aquatiques. Mais c’est aussi un des facteurs qui a poussé les Américains comme d’ailleurs les Européens à délocaliser leurs industries polluantes et dangereuses vers les pays du Sud, notamment en Inde et en Chine, qui ont connu à leur tour le spectacle pittoresque de la neige en été et des lacs qui prennent feu spontanément…

A Bangalore, cette pollution des eaux est d’autant plus inquiétante qu’elle concerne désormais non seulement les eaux superficielles où l’on ne compte plus les mortalités piscicoles, mais aussi les nappes souterraines dans lesquelles la ville s’approvisionne en eau potable. Science et Avenir relevait ainsi en mars dernier que près de la moitié de l’agglomération doit désormais être approvisionnée par des milliers de camions citernes qui transportent de l’eau pour les besoins quotidiens de la ville.

Camions citernes fournissant de l’eau à des logements de Bangalore, le 27 février 2018 (photo © Manjunath Kiran / AFP)

Il y a un mois, la Cour suprême a même dû intervenir pour arbitrer un accord de partage des eaux de la rivière Cauvery entre le Karnataka, région de Bangalore, et l’État voisin du Tamil Nadu. Ce cours d’eau qui traverse le Karnataka puis le Tamil Nadu avant de s’écouler dans le golfe du Bengale est en effet un enjeu majeur, âprement disputé entre les besoins de la ville de Bangalore et ceux des agriculteurs voisins. Il y a deux ans, une décision judiciaire ordonnant au Karnataka de lâcher de l’eau pour pallier une sécheresse qui menaçait les cultures du TamilNadu avait déclenché des émeutes mortelles à Bangalore et provoqué une situation de troubles quasi insurrectionnels.

C’est dire à quel point la bataille de l’eau a déjà commencé à cet endroit comme en de nombreux autres points du globe… La ville de Bangalore, dont la survie à moyen terme est désormais menacée du fait de ces difficultés d’approvisionnement en eau, n’est assurément pas la seule agglomération menacée ainsi de pénurie. Reste à savoir si ses habitants arriveront à réagir et à reconstituer des milieux aquatiques plus sains avant qu’il ne soit trop tard…

L.V. 

Publicités

Le Bulgare et la cigogne

30 mars 2018

Décimées dans les années 1970, date à laquelle les populations de cigognes blanches avaient quasiment disparu du sol français, sous l’effet cumulé des pratiques agricoles, de la pollution, de la chasse mais aussi des épisodes de sécheresse en Afrique, ces populations d’échassiers migrateurs, désormais protégés en France depuis 1981, se sont peu à peu reconstituées.

Nids de cigognes sur les toits alsaciens

Alors qu’il ne subsistait que 11 couples nicheurs recensés sur le sol national en 1974, principalement en Alsace, les efforts menés depuis pour réintroduire l’espèce mais surtout protéger son habitat en restaurant certaines zones humides ont porté leurs fruits puisque l’on comptait en France plus de 1600 couples en 2010.

Pour autant, certaines régions d’Europe orientale restent nettement plus attractives pour ces oiseaux migrateurs que l’on voit arriver au printemps et repartir à l’automne pour leur migration africaine. Ainsi, on estime que plus de 50 000 cigognes, soit 20 % de la population mondiale connue, passent l’été en Pologne. Sciences et Avenir cite ainsi en exemple le petit hameau de Zywkowo situé à l’extrême nord du territoire polonais, tout près de l’enclave russe de Kaliningrad : dans les années 1960, on y dénombrait 120 habitants et 20 cigognes, mais désormais les chiffres se sont inversés et les rares habitants restés sur place consacrent tout leur temps à entretenir les mares et installer des plateformes sur leur toit pour faciliter l’accueil de ces migrateurs africains.

Nid de cigognes à Zywkowo en Pologne (source © Sciences et Avenir)

Et la Pologne n’est pas le seul pays d’Europe de l’Est à se montrer aussi accueillant envers ces populations émigrées, malgré les dérives nationalistes de ses responsables politiques. C’est une dépêche de l’AFP, relayées par plusieurs médias dont le Point, qui s’en est fait récemment l’écho : en Bulgarie, les premières cigognes arrivées en mars en pleine vague de froid polaire, se sont retrouvées littéralement congelées et ont dû être secourues par les habitants du cru.

Safet Halil, un employé de voirie quinquagénaire de Zarista, au nord-est de la Bulgarie, s’est ainsi distingué en recueillant au bord de la route cinq cigognes blanches aux ailes gelées. Il les a transportées dans sa demeure, par ailleurs fort modeste, a allumé le poêle pour les réchauffer et leur a acheté du poisson. Deux jours plus tard, les cigognes étaient toujours installées dans leur foyer d’hébergement provisoire, profitant de l’hospitalité du Bulgare au grand cœur avec qui elles avaient manifestement sympathisé, poussant même la familiarité jusqu’à lui donner quelques coups de bec amicaux.

Safet Halil et les cigognes qu’il héberge à domicile (photo © Dimitar Dilkoff / AFP)

Et le cas n’est pas isolé puisqu’une quarantaine d’habitants de la région l’auraient imité, récupérant de nombreuses cigognes en détresse du fait de la vague de froid et des chutes de neige qui ont sévi toute la semaine dernière dans ce secteur. Mises à l’abri dans des garages et des hangars agricoles, nombre de cigognes ont ainsi pu être sauvées. Une situation peu courante et qui a suscité de nombreux échanges sur les réseaux sociaux dans un pays où la population de cigognes est en hausse puisque le dernier recensement effectué en 2016 fait état de plus de 6000 de ces volatiles soit 1000 de plus qu’en 2010 : un afflux migratoire sans précédent mais dont les Bulgares se réjouissent.

Puissent tous les populations de migrants en provenance de régions africaines bénéficier d’un accueil aussi chaleureux dans nos contrées…

L.V. 

La Lune comme une déchetterie !

28 mars 2018

L’information n’est pas nouvelle mais elle resurgit périodiquement tant elle fait honte à notre habitude de laisser traîner partout nos déchets, même sur le sol de notre satellite lunaire qui est devenue une véritable déchetterie. Eh oui, la Lune elle-même que le poète venait « voir à la brune / Sur le clocher jauni, / La lune / Comme un point sur un i », la lune donc, toute « pâle et morne », ne serait plus qu’un vaste dépotoir sous son « masque blafard »…

Module lunaire du programme Apollo (source © NASA)

Ouest France en a remis une couche récemment, mais c’est le site internet du magazine américain The Atlantic qui avait levé le lièvre en 2012, révélant que l’on estimait à l’époque à 180 tonnes la masse de déchets accumulés sur la Lune depuis 1959. Le premier de ces débris est d’ailleurs la carcasse du premier engin fabriqué de la main de l’homme qui a réussi à atteindre la Lune, à savoir la sonde soviétique Luna 2 qui s’y est écrasée lamentablement le 14 septembre 1959.

La sonde soviétique Luna 2, première à avoir atteint la Lune, où elle s’est écrasée comme une crêpe…

Il faudra attendre Luna 9 en 1966 pour qu’une première sonde parvienne à se poser en douceur sur le sol lunaire, toutes celles du programme américain Ranger, mis en œuvre entre 1961 et 1965, ayant échoué à atteindre leur but, à l’exception des trois dernières qui s’y sont aussi définitivement scratchées.

180 tonnes de déchets pour un lieu où à ce jour seulement 12 hommes ont mis le pied, à la suite de Neil Amstrong, le capitaine de la mission Apollo 11 qui en a foulé le sol pour la première fois le 20 juillet 1969, c’est quand même beaucoup ! Depuis les 6 missions du programme Apollo qui ont permis à ces rares élus de marcher sur la Lune, la dernière (Apollo 17) s’étant déroulée en décembre 1972, plus personne n’a donc remis les pieds là-haut. Mais cela n’empêche pas les déchets de continuer à s’y accumuler…

Neil Amstrong, décédé récemment à 82 ans, premier homme à marcher sur la Lune en 1969 (source © NASA)

Car les agences spatiales de tous les pays, et elles sont de plus en plus nombreuses maintenant qu’Européens, Japonais, Chinois et Indiens se targuent eux-aussi d’aller voir de plus près ce qui se passe dans l’Espace, ont pris la mauvaise habitude d’utiliser notre satellite comme une vaste décharge. Plutôt que d’organiser le rapatriement sur Terre de tous les engins spatiaux devenus inutiles une fois leur mission accomplie, le plus simple et surtout le plus économique est en effet de les programmer pour qu’ils aillent s’écraser sur le sol de notre satellite naturel où ils viennent grossir la masse de déchets accumulés.

En 2012, la NASA recensait ainsi pas moins de 809 objets abandonnés à la surface de la Lune, les plus volumineux étant les modules lunaires et autres sondes spatiales dont les épaves jonchent désormais la surface de la Lune. Mais les souvenirs abandonnés par les quelques passages de l’homme à l’occasion des missions Apollo sont loin d’être négligeables. Certains ont été laissé en place à bon escient, comme le réflecteur lunaire installé par l’équipage d’Apollo 11, qui renvoie les rayons lasers émis depuis la Terre et permet de calculer à tout moment la distance qui sépare les deux corps célestes, ou encore le télescope doré déposé par la mission Apollo 16 et qui est l’unique télescope à pouvoir observer l’espace à partir d’un autre astre.

Plusieurs de ces objets abandonnés sur la Lune l’ont aussi été en toute connaissance de cause pour une raison symbolique voire sentimentale. C’est le cas notamment d’un micro disque de silicone renfermant les messages de 73 chefs d’état, mais aussi des cendres du géologue de la NASA, Eugene Shoemaker, lequel aura rêvé toute sa vie de se rendre sur la Lune, mais a dû se contenter d’attendre sa mort pour faire le voyage en kit.

La photo de la famille de Charles Duke que l’astronaute n’a pas pu s’empêcher de laisser traîner sur le sol lunaire (source © NASA)

Ces témoignages divers dont certains redoutent qu’ils n’attirent désormais des touristes lunaires venus les recolter comme vestiges historiques, sont de nature très diverse. On y retrouve ainsi, outre 5 drapeaux américains et l’inévitable Bible, une photo de la famille de l’astronaute Charles Duke, dédicacée et abandonnée à l’occasion de la mission Apollo 16 en 1972. On doit y retrouver aussi avec un peu de chance les deux balles de golf que le facétieux Alan Shepard, contre-amiral de l’US Navy, n’a pas pu s’empêcher de lancer avec l’aide d’un club de golf transporté clandestinement…

La plume et le marteau abandonnés après une expérience de physique assez basique (source © NASA)

Même les objets utilisés à des fins scientifiques sont restés sur place. Aucun des membres de l’équipage de la mission Apollo 15 ne s’est ainsi donné la peine de ramasser le marteau et la plume de faucon qu’ils avaient laissés tomber à la surface de la Lune pour vérifier ce que tout lycéen a pourtant pu observer de visu en TP de physique et sans pour autant déployer un tel arsenal de technologie, à savoir que dans le vide deux objets tombent à la même vitesse, quelle que soit leur masse et leur forme.

Mais il faut bien reconnaître que la plupart de ces détritus jetés sans vergogne, parmi lesquels des objectifs photographiques, une caméra, mais aussi 12 paires de bottes, des sacs à dos, de vieux magazines et pas moins de 96 sacs d’excréments, d’urine et de vomi, auraient quand même mérité d’être rapatriés ou au moins détruits pour ne pas polluer prématurément le sol de notre satellite. Manifestement, les astronautes américains n’avaient à l’époque guère plus de savoir-vivre et de préoccupation pour l’environnemnt que le touriste lambda en arrêt pique-nique au bord d’une route nationale un jour de départ en vacances…

C’est d’ailleurs ce que reconnaît sans ambages l’historien en chef de la Nasa, un certain William Barry, interviewé il y a quelques années par le site Live Science : « La préoccupation principale de la Nasa, c’était : les membres de l’équipage peuvent-ils arriver sur la Lune sans encombre ? Peuvent-ils prélever les échantillons dont ils ont besoin ? Et peut-on les ramener sur Terre en un seul morceau ? Les ingénieurs n’ont pas pensé à grand-chose d’autre… ». Voilà qui n’est certes pas le versant le plus glorieux de l’aventure spatiale, mais on veut bien le croire en effet…

L.V. 

Pesticides dans les cours d’eau : France Nature Environnement s’alarme !

23 mars 2018

Epandage de pesticides en bord de cours d’eau (photo © Maxppp / France Bleu)

Le sujet n’est pas récent puisqu’un rapport officiel publié en novembre 2015 par le Commissariat général au développement durable, une instance du Ministère de l’écologie, l’analysait dans les détails, affirmant qu’au vu des suivis de qualité de l’eau effectués en 2013 dans nos rivières et nos plans d’eau (du moins là où il y a des points de mesure…), la quasi totalité des milieux aquatiques français est polluée par la présence de pesticides que l’on retrouve dans 92 % des points de mesure. Seuls les zones montagneuses et quelques rares secteurs encore épargnés par l’agriculture intensive en sont exempts.

Il faut bien reconnaître que la France fait toujours partie du peloton de tête des plus gros consommateurs de pesticides, ces substances chimiques destinées à lutter contre les organismes jugés nuisibles, qu’il s’agisse de plantes adventices (herbicides), d’insectes (insecticides), de champignons (fongicides), de vers (nématicides), de rongeurs (rodenticides) et on en oublie, utilisés à 90 % (voire davantage) par l’agriculture, surtout depuis que l’usage de ces produits est en voie de prohibition tant pour les particuliers que pour les collectivités.

Concentrations moyennes en pesticides dans les cours d’eau par bassin versant en 2014 (source : Observatoire national de la biodiversité)

Depuis 1999, la surveillance de la qualité de l’eau dans la nature n’a cessé de se développer et on disposait ainsi en 2014, selon le Ministère de l’écologie, de 3052 points de mesures de la qualité dans les eaux de surface (rivières, fleuves et lacs) et de 2121 points de suivi dans les eaux souterraines (nappes). Vu leur coût très élevé pour la collectivité, le nombre de ces analyses (qui portent aussi sur de très nombreux autres paramètres dégradant, dont les nitrates) est malheureusement assez limité, généralement 8 par an dans les cours d’eau et 4 par an seulement dans les nappes.

La tâche est en effet considérable car il s’agit de rechercher les traces de près de 700 principes actifs de pesticides (ainsi que les produits issus de leur dégradation dans le milieu naturel, qui donne parfois naissance à des substances encore plus redoutables pour le milieu naturel et souvent stables à long terme, des décennies après que le produit commercialisé ait été interdit à la vente). Cette variété de principes actifs à identifier et analyser ne cesse d’ailleurs d’augmenter, fruit d’une stratégie délibérée de l’industrie agro-chimique de mettre sans cesse sur le marché de nouveaux produits pour avoir toujours un coup d’avance sur la réglementation et le contrôle.

Ainsi en 2014 ce sont pas moins de 389 substances différentes provenant de pesticides qui ont été retrouvées sur l’ensemble des points de mesure en eaux de surface, et 265 dans les eaux souterraines, avec en moyenne pas moins de 17 substances différentes identifiées dans chaque station (mais jusqu’à 89 molécules différentes pour certains prélèvements !). Cette année-là, des pesticides ont ainsi été retrouvés, en quantité et en nombre variable selon les endroits, dans 87 % des points de mesure en eau superficielle et dans 73 % des points de suivi en nappe, ce qui en dit long sur la généralisation du phénomène.

Nombre de produits pesticides observés par point de mesure en 2014 (source : Ministère de l’écologie)

Certes, si l’on analyse l’évolution de ces observations depuis 2008, date à laquelle le réseau de suivi a commencé à être suffisamment dense pour se faire une idée globale du sujet, on observe une légère diminution de la proportion de points de mesures contaminés, malgré un nouveau pic très sensible en 2012. Cette évolution résulte sans doute des mesures d’interdiction portant sur certains produits et de l’évolution des pratiques agricoles, mais reste peu significative, d’autant que la consommation de pesticides en France ne cesse d’augmenter malgré toutes les mesures gouvernementales mises en place pour tenter de limiter leur usage.

Dans les eaux de surface, le produit phare, présent dans plus de 38 % des points de suivi est le glyphosate tandis que son produits de décomposition, l’AMPA, est retrouvé dans plus d’un point de suivi sur deux : merci Monsanto ! L’atrazine, interdite depuis 2003 est encore bien présente 11 ans plus tard, avec tout son cortège de produits de décomposition, tant dans les cours d’eau que dans les nappes. Dans ces dernières, on retrouve également de manière significative certains herbicides largement utilisés dans la culture du maïs, et l’on voit même apparaître depuis quelques années, dans nos milieux aquatiques, des résidus des fameux insecticides néonicotinoïdes de plus en plus utilisés.

Et voilà que France Nature Environnement s’empare de nouveau du dossier en lançant une pétition qui exige du gouvernement de revoir sa copie en matière de définition des zones de non traitement, tout en attaquant en parallèle plus de 40 arrêtés départementaux issus de cette évolution de la réglementation. L’affaire n’est pas des plus simples et mérite quelques éclaircissements. Cette notion de zones non traitées (ZNT) a été définie par un arrêté ministériel de septembre 2006 et vise à interdire l’usage de pesticides dans une bande de 20 à 50 m (mais pouvant aller jusqu’à 100 m) en bordure des cours d’eau, afin justement de limiter les risques de contamination par lessivage. La largeur de cette bande peut être réduite à 5 m sous réserve de respecter certaines conditions dont la présence d’une haie ou au moins d’une bande enherbée entre le champ et le milieu aquatique, ainsi que des pratiques d’application adaptées.

Bande enherbée le long d’un cours d’eau (source : Agence française pour la biodiversité)

Initialement, la liste des milieux aquatiques pour lesquels cette distance minimale de sécurité s’applique correspond à tous les cours d’eau, plans d’eau, fossés et points d’eau permanents ou intermittents figurant sur les cartes IGN au 1/25 000, mais elle peut aussi faire l’objet d’un arrêté préfectoral qui permet de prendre en compte les spécificités locales.

Car à l’usage, il n’est pas si évident qu’il n’y paraît de définir ce qu’est un cours d’eau et ce point fait l’objet depuis des années de multiples controverses avec la profession agricole. Le ruisseau qui draine le vallon de Carnoux en est un exemple parmi d’autres. Ce ru peut être considéré comme un oued qui draine toute la vallée, susceptible de faire transiter des débits conséquents en cas de forte pluie, débits qui se déversent directement dans le Merlançon (au rond point du pont des Barles) avant de rejoindre l’Huveaune plus en aval. Le reste du temps, ce cours d’eau est alimenté latéralement par les écoulements d’eaux souterraines qui s’infiltrent dans les coteaux de chaque côté du vallon. Avant l’urbanisation, cet oued était sec une partie de l’année. Depuis, il est alimenté de manière quasi permanente car il reçoit aussi tout ce que les Carnussiens déversent sans réfléchir dans le réseau pluvial : vidange de piscines, pompes d’exhaure, lavage de la voirie et déversements illicites dans les regards en bordure de chaussée, de colorants ou d’huiles usagées

Le ruisseau de Carnoux, un milieu aquatique de piètre qualité… (photo © CPC)

Ce ruisseau intermittent devenu quasiment pérenne est-il un cours d’eau pour autant ? Au vu de sa configuration et de son déversement direct dans le réseau hydrographique naturel en aval, oui. Pour autant, il n’est pas figuré comme tel sur les cartes IGN et le gestionnaire de la voirie départementale a manifestement tendance à le considérer plutôt comme un simple fossé routier largement bétonné, sans que personne ne se préoccupe de la qualité des eaux qui y transitent.

Du coup, les services de l’État se sont lancés depuis juin 2015 dans un vaste travail de cartographie afin de tenter de délimiter quels sont les cours d’eau, démarche qui a fait l’objet de discussions serrées avec nombre de gestionnaires et d’usagers dont la profession agricole. L’enjeu consistait, pour les agriculteurs notamment, à refuser le statut de cours d’eau au maximum possible d’axes d’écoulements, afin de ne pas être soumis à la loi sur l’eau qui réglemente les interventions dans les cours d’eau (enlèvement de sédiments, coupe de la végétation, remodelage de berge, etc.).

Ce travail n’était pas supposé avoir d’impact sur les zones de traitement phytosanitaire. Mais les services préfectoraux se sont engagés, suite à la parution d’un arrêté ministériel de mai 2017 qui modifie légèrement celui de 2006, dans l’élaboration de cartes permettant de définir les points d’eau à proximité desquels doivent être mises en œuvre les ZNT.

Carte des cours d’eau identifiés comme tels par la Police de l’Eau dans le département du Gard (en bleu). Les tronçons en rouge ne sont plus considérés comme des cours d’eau et les zones en violet ont un statut encore indéterminé, sujet à discussion (source : Ministère de l’écologie)

Et, surprise, ces cartes élaborées en lien étroit avec la profession agricole en parallèle de la cartographie des cours d’eau, aboutissent à réduire de manière très significative les tronçons du réseau hydrographique soumis à réglementation pour l’épandage de pesticides. Dans le Tarn-et-Garonne par exemple, c’est 30 % du réseau qui n’est ainsi plus soumis au principe des zones non traitées et même 43 % en Indre-et-Loire. Cette situation est d’autant plus ubuesque que les cartes ne sont pas cohérentes d’un département à l’autre, certains tronçons de cours d’eau étant protégés uniquement jusqu’à la frontière du département limitrophe, sans réelle cohérence puisque les écoulements se poursuivent bien sans se préocuper des limites administratives… La protection de l’eau, pourtant considéré en France comme faisant partie du « patrimoine commun de la Nation » est décidément un combat de tous les instants !

L.V. 

Gare Saint-Charles, ou la diamétralisation de la quadrature du cercle…

7 mars 2018

La gare Saint-Charles, menacée de diamétralisation…

C’est le Conseil d’orientation des infrastructures (COI de son petit nom) qui l’affirme dans le rapport de 200 pages qu’il vient de remettre, le 1er février 2018, à la ministre des transports, Elisabeth Borne : il convient de « diamétraliser » la gare Saint-Charles ! Et ce n’est pas un scoop puisque le rapport précédent, remis en 2013 et destiné également à hiérarchiser les choix d’investissement dans les infrastrutures de transports, disait déjà exactement la même chose…

Certes, le COI, instauré le 17 octobre 2017 et présidé par Philippe Duron, ex-président de l’Agence de financement des infrastructures de transport en France (AFITF), est une nouvelle structure, installée à l’occasion des Assises nationales de la mobilité, et dont l’objectif est de « définir sous deux mois une stratégie et une programmation soutenables des actions à mener dans la prochaine décennie dans le domaine des transports et des mobilités », rien de moins, mais pour autant, son analyse s’appuie sur des décennies d’études qui convergent toutes vers la nécessité d’améliorer la desserte ferroviaire entre Marseille et Nice, et de rendre plus opérationnelles les deux gares d’extrémité.

Remise du rapport Duron le 1er février 2018 à la ministre Elisabeth Borne (photo © A. Bouissou / MTES / La Gazette des communes)

Pour la ministre, « il ne s’agit pas de dépenser moins. L’enjeu est aussi et d’abord d’investir mieux pour améliorer les réseaux existants et désenclaver les territoires mal desservis ». Et comme l’argent public est de plus en plus rare, il s’agit de phaser les projet en fonction de leur priorité et des moyens financiers qui pourront être dégagés. Trois scénarios ont donc été imaginés selon que l’AFITF sera en capacité de mobiliser pour les 20 ans qui viennent entre 48 milliards d’euros (dans l’hypothèse la plus pessimiste), 60 ou 80 milliards (soyons fous !).

Dans tous les cas, la « diamétralisation » de la gare Saint-Charles est considérée comme une priorité. Pour ceux qui auraient quelques lacunes en matière de géométrie dans l’espace et de langue de bois technocratique, précisons au passage que l’opération de diamétralisation consiste tout simplement à rendre traversante une gare qui fonctionne jusqu’à présent en cul-de-sac et où les trains qui arrivent sont obligés de repartir en marche arrière.

Différents scénarios à l’étude pour la diamétralisation de la gare Saint-Charles

Mais pas question pour autant, bien évidemment, de créer une nouvelle voie ferrée qui sortirait de la façade nouvellement reconfigurée de la gare Saint-Charles et viendrait se faufiler via la Porte d’Aix, encore en chantier… Le but de la manœuvre est purement et simplement de construire une nouvelle gare en souterrain, prolongée de part et d’autre par des voies en tunnel afin de permettre aux TGV de transiter par Saint-Charles tout en laissant le niveau actuel de la gare pour le seul trafic ferroviaire local, un peu comme cela a été fait il y a des années pour la Gare de Lyon à Paris. Comme le précise clairement (ou presque) le rapport du COI : « l’objectif réside dans la limitation des cisaillements et des rebroussements consubstantiels à la gare actuelle en cul-de-sac » : Ah, qu’en termes galants ces choses-là sont dites…

Toujours est-il que le réaménagement de la gare Saint-Charles fait partie des travaux jugés prioritaires, au même titre d’ailleurs que la première phase de déploiement de l’ERTMS, un autre bel acronyme technocratique qui signifie en bon français bruxellois European rail trafic management system, autrement dit l’art et la manière de remplacer la bonne vieille signalisation ferroviaire au sol par un système de régulation en cabine plus souple qui permet d’augmenter de 20 à 30 % le cadencement des trains, en principe sans collision…

Selon le scénario de financement retenu, les travaux de réaménagement du plateau actuel de la gare Saint-Charles devraient débuter au plus tard en 2027, mais peut-être même dès 2020 si les budgets sont au rendez-vous. Ensuite, à savoir entre 2028 et 2032 (voire même dès 2027 si l’AFITF arrive à imposer le scénario 3 à 80 milliards), pourront débuter les travaux de réalisation de la nouvelle gare en souterrain pour atteindre la fameuse diamétralisation.

Le trajet de la ligne nouvelle Provence Côte d’Azur (source © Préfecture de région PACA)

La première étape, qui intègre également, outre le réaménagement des gares de surface de Marseille et de Nice, celle de la Pauline près de Toulon, coûtera 860 millions d’euros pour la seule région PACA. La seconde, qui verra non seulement la réalisation de la gare souterraine Saint-Charles, mais aussi le réaménagement de la ligne classique entre Cannes et Nice, fera grimper la facture à 2,9 milliards d’euros. Viennent ensuite deux autres phases de travaux à programmer. La suivante permettra, pour la bagatelle de 3,9 milliards, de terminer l’aménagement de la gare Saint-Augustin à Nice et de créer la nouvelle gare de La Bocca à Cannes tout en aménageant le tronçon de ligne nouvelle entre Cannes et Nice. Quant à la dernière étape, prévue à partir de 2038 seulement selon les scénarios 1 et 2 les plus probables, son coût prévisionnel est de 6,6 milliards et il verrait la réalisation de deux tronçons supplémentaires de ligne nouvelle, entre Aubagne et Toulon d’une part, entre Cannes et Le Muy d’autre part.

Reste bien entendu à savoir désormais quel accueil sera donné à cette ultime proposition d’ajustement pour un projet qui vivote dans les cartons depuis des années mais qui peine à se concrétiser faute de financement approprié. Il n’y a donc plus qu’à croiser les doigts pour espérer que tout cela s’inscrira bien comme prévu dans le prochain projet de loi d’orientation des mobilités…

L.V. 

Biomasse bois : 3 projets retenus en PACA

3 mars 2018

Le bois, source renouvelable d’énergie (photo © Frédéric Douard)

C’est un communiqué du Ministère de la transition écologique et solidaire qui l’a annoncé, le 28 février 2018 : la deuxième tranche de l’appel à projets lancé en vue de soutenir, via un complément de rémunération, des projets de développement d’unités de production de biomasse, a retenu 11 projets dont trois qui se situent en région PACA : un beau succès pour le développement de la production énergétique à partir de la biomasse forestière dans notre région !

La première tranche de cet appel à projets lancé en février 2016 visait explicitement à encourager à la fois les projets de méthanisation, autrement dit la production de biogaz à partir de déchets ou de matière végétale brute, mais aussi la production directe d’électricité à partir de la combustion du bois. Ce développement de la biomasse en France est une nécessité comme l’affirme Nicolas Hulot : « La France a voté en décembre dernier une loi mettant fin à la recherche et à l’exploitation des hydrocarbures sur tout notre territoire. En parallèle, notre pays doit monter en puissance sur le développement des énergies renouvelables pour répondre aux objectifs fixés dans le Plan climat. Les projets annoncés aujourd’hui répondent à cette ambition de soutenir des filières créatrices d’emplois ».

Stock de copeaux de bois destinés à la filière bois énergie (photo © Richard Mayer / La Gazette)

A l’échelle mondiale, on estime que l’électricité produite à partir de la biomasse représente de l’ordre de 58 GW mais que cette puissance pourrait atteindre 86 GW d’ici 2021, ce qui représente un potentiel de croissance remarquable. En France, c’est moins de 1 % de l’électricité produite qui provient de la biomasse, même si cette fillière représentait déjà en 2014 de l’ordre de 7,5 % de la production d’électricité d’origine renouvelable (loin derrière l’hydroélectricité et l’éolien, mais devant le solaire néanmoins).

Le principe de la filière bois-énergie est des plus simples puisqu’il se limite à faire brûler le bois pour chauffer de l’eau et produire de la vapeur qui actionnera une turbine comme dans n’importe quelle centrale électrique. Il faut environ 4 tonnes de bois pour produire autant d’électricité qu’avec une tonne de pétrole, mais le CO2 qui est relâché dans l’atmosphère à cette occasion correspond à la seule quantité qui a été séquestrée durant la croissance des arbres, d’où un bilan neutre en termes d’émission de gaz à effet de serre, contrairement à ce qui se passe via l’utilisation d’un combustible fossile.

Digesteur à méthanisation de Marnay Energie à Feux dans le Cher, construite par Xergi (photo © Xergi)

Dans le cadre de la méthanisation, le procédé est plus complexe puisqu’on récupère d’abord le biogaz issu de la fermentation de la matière organique utilisée (déchets organiques, résidus végétaux, boues issues de stations d’épuration, ou déchets provenant de certaines activités agro-industrielles) et que c’est ce biogaz qui sert ensuite soit pour produire de l’électricité soit pour se chauffer.

Toujours est-il que l’on est désormais rentré dans un véritable processus visant à encourager ce type de production en France et cet appel à projets du ministère y contribue. Ce sont en effet 45 dossiers de candidatures qui ont été reçus à l’occasion de cette seconde tranche de l’appel à projet, sachant que la troisième tranche sera ouverte à compter du 29 juin 2018 et devrait permettre de sélectionner encore de nouveaux projets industiels.

Le ministre Nicolas Hulot visitant la plateforme expérimentale Gaya à Saint-Fons (production de biométhane à partie de biomasse sèche) le 26 juillet 2017 (photo © ENGIE)

Sur les 11 projets ainsi retenus, 2 correspondent à des installations de méthanisation prévues respectivement en Bretagne et dans le Médoc. Tous les autres sont des projet bois-énergie pour des puissances installées unitaires supérieures à 300 kW, l’ensemble des projets totalisant une puissance globale installée de près de 53 MW (à comparer avec une tranche de réacteur nucléaire de type Fessenheim dont la puissance nominale est de 900 MW).

La plus ambitieuse de ces installations est justement prévue dans les Bouches-du-Rhône, à Tarascon, portée par la société marseillaise Bio-Watt, pour une puissance totale de 25 MW. Les deux autres projets implantés en région PACA sont d’ampleur nettement plus limitée avec des puissances visées oscillant entre 1MW pour le projet de Campus SAG Sud Luberon à Villelaure, dans le Vaucluse, et 1,2 MW pour celui porté par la société Pérénia à Clans, une commune forestière située dans la vallée de la Tinée, dans les Alpes-Maritimes.

Ces désignations interviennent alors que le projet de plus grande centrale biomasse de France prévu à Gardanne, porté initialement par le groupe énergétique allemand E.ON puis repris par sa filiale, la société Uniper France Power, continue à faire polémique. Pour rappel, le Tribunal administratif de Marseille avait annulé le 8 juin 2017 l’autorisation d’exploitation accordée par l’État en 2012, au motif que l’étude d’impact n’analysait pas « les effets négatifs indirects et permanents du projet sur les espaces forestiers de la zone d’approvisionnement » de la centrale, située dans un rayon de 400 km.

Vue de l’unité de la centrale thermique de Provence, à Gardanne destinée à produire de l’électricité à partir de la biomasse (photo © Serge Guéroult / La Provence)

Il faut dire que le projet était particulièrement ambitieux, voire totalement démesuré pour ses détracteurs qui évoquent « un véritable aspirateur à forêts » destiné à raser les châtaigneraies des Cévennes et à faire disparaître toute la forêt méditerranéenne… Il consistait à transformer, moyennant un investissement de 265 millions d’euros, la tranche 4 de l’ancienne centrale à lignite de Gardanne, en une vaste centrale à biomasse, d’une puissance de 150 MW (soit 6 % de la consommation totale de la région PACA), capable de brûler d’ici 2024, 850 000 tonnes de bois par an, dont 445 000 tonnes provenant de boisements locaux, le reste étant a priri constitué de déchets verts et de bois recyclé.

Les deux parcs naturels régionaux du Luberon et du Verdon sont vent debout contre ce projet de centrale à biomasse, au grand dam du Président de la Région, Renaud Muselier, qui menace du coup de leur couper les vivres, estimant dans un communiqué que « l’écologie doit être mise au service de l’économie pour faire de la croissance verte un atout ». Mettre l’écologie au service de l’économie, les écologistes apprécieront certainement…

En juillet 2017, Nicolas Hulot a malgré tout décidé de faire appel du jugement du Tribunal administratif. Quant aux parcs naturels régionaux, ils ont fini par rentrer dans le rang. Comme l’a raconté Reporterre, le 29 septembre dernier, les deux PNR réunis à Valensole ont accepté de signer un protocole d’accord avec Uniper, décidant de l’abandon de leurs poursuites devant le Tribunal administratif et de l’accompagnement de la nouvelle étude d’impact qui s’est du coup déroulé fin 2017 dans la plus grande discrétion. L’association France Nature Environnement PACA, elle-même très opposée au projet a aussi rendu les armes, effrayée par les baisses de subvention annoncées par la Région. Un passage en force donc et qui a déjà permis à l’unité de biomasse de produire 250 MWh au cours de 2200 heures de fonctionnement accumulés pendant les phases d’essais en 2017.

Pour l’instant, 55 % de la ressource utilisée à Gardanne est importée, pour l’essentiel de plantations d’eucalyptus situées en Espagne et au Brésil, 20 % étant issu de la production forestière locale, le reste provenant de déchets de récupération et de bois en fin de vie. Un progrès sans doute par rapport au charbon qui alimentait jusque là cette centrale thermique, l’une des 4 dernières encore en activité dans l’hexagone, mais qui est encore loi d’apaiser toutes les craintes des défenseurs locaux de l’environnement !

L.V.  

La voiture électrique est-elle écologique ?

1 mars 2018

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V. 

Changement climatique : pourquoi personne ne bouge ?

22 février 2018

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

Sainte-Baume : le PNR nouveau est né !

17 février 2018

Rencontre le 21 décembre 2017 entre le premier ministre Edouard Philippe et le président du PNR Sainte-Baume en présence du président de la Région PACA, Renaud Muselier (source © PNR Sainte-Baume)

Ce n’est pas vraiment une surprise mais plutôt l’aboutissement d’un long et patient processus d’élaboration concertée qui a permis d’aboutir, le 20 décembre 2017 à la naissance officielle, via un décret signé par le premier ministre Edouard Philippe, du parc naturel régional (PNR) de la Sainte-Baume, le 52ème parc ainsi créé en France. Cinquante ans après la création du concept de « parc naturel régional » en 1967 par le Général de Gaulle, ces 52 PNR couvrent désormais 15 % du territoire national et 6 % de la population française y habite.

En effet, contrairement aux parc nationaux qui existent en France depuis 1963 mais qui ont plutôt vocation à protéger des espaces naturels peu habités, les PNR ont été créés sous l’impulsion de la DATAR dans une perspective d’aménagement d’espaces ruraux dans des secteurs qui présentent non seulement un patrimoine environnemental remarquable mais aussi un patrimoine culturel voire un cadre de vie et d’activités qu’il importe de préserver en vue de favoriser le développement économique et touristique local.

La région PACA possède désormais 8 parc naturels régionaux dont le plus emblématique est sans doute celui de Camargue, mais parmi lesquels on peut citer aussi ceux du Queyras, du Luberon, du Verdon ou encore des Alpilles. Autant de lieux d’une grande richesse écologique et qui présentent des paysages hors du commun, mais qui sont avant tout des espaces de vie structurés autour d’une charte qui traduit un véritable projet de développement territorial.

Pour ce qui concerne le PNR de la Sainte-Baume, le projet était en gestation depuis une dizaine d’années, même si certains pionniers en soutenaient l’idée depuis les années 1970, et a fait l’objet ces derniers temps d’une intense concertation entre les collectivités locales, les services de l’État, les partenaires associatifs et les acteurs économiques. Présidé par Michel Gros, par ailleurs maire de La Roquebrussane, le nouveau PNR couvre une superficie de 810 km² et s’étend sur le territoire de 26 communes du Var et des Bouches-du-Rhône. 80 % de ce territoire est constitué d’espaces naturels mais 58 500 habitants y vivent, avec des activités économiques variées.

Limites du périmètre du PNR Sainte-Baume

Le parc est situé aux portes de Carnoux puisque la commune tout proche de Cuges-les-Pins est entièrement située dans le périmètre du nouveau PNR qui s’étend au nord jusqu’à Saint-Maximin et à l’est jusqu’à Brignoles. L’inauguration du nouveau parc n’est pas encore fixée mais devrait avoir lieu au cours du premier trimestre 2018.

En attendant, le syndicat mixte du PNR anime déjà depuis un an les deux sites Natura 2000 partiellement juxtaposés au cœur du parc : Massif de la Sainte-Baume (zone spéciale de conservation, définie au titre de la directive européenne Habitats) et Sainte-Baume occidentale (zone de protection spéciale, définie au titre de la directive européenne Oiseaux). Des inventaires biologiques et une étude socio-économique ont déjà été conduits en 2017 dans ce cadre, en vue de définir les enjeux et les objectifs de conservation. Une fois ce diagnostic posé, un programme d’action sera élaboré d’ici 2019, afin de définir les axes d’intervention pour préserver ce patrimoine naturel remarquable qui contient notamment la fameuse hêtraie historique de la Sainte-Baume ainsi que des sources pétrifiantes spectaculaires dans des formations de travertins, et qui abrite de nombreuses espèces animales et végétales rares.

Entablements de travertins à la source de l’Huveaune (source © Les balades de Gecko)

Le processus de concertation engagé depuis des années avec de nombreux acteurs du territoire en vue de l’émergence de ce nouveau PNR est détaillé sur le site du nouveau syndicat mixte. On y retrouve, outre de nombreux éléments de présentation du projet, dont un film grand public qui met en avant les atouts et caractéristiques de ce territoire, un rappel de la genèse de cette aventure qui s’est concrétisée en 2012 par la création d’un syndicat de préfiguration du futur PNR. L’année suivante a été mis sur pied un Conseil de développement, rassemblant de nombreux acteurs locaux fédérés autour du projet, et a été lancée la concertation en vue d’élaborer un diagnostic partagé et de dessiner les grandes lignes de la future charte du parc.

Un document de synthèse qui présente les grandes lignes de la charte

Il a fallu ensuite attendre 2015 pour que soit finalisée cette charte destinée à fixer pour les 15 ans à venir les grandes orientation du nouveau PNR. L’année 2016 a été mise à profit pour lancer la consultation auprès du Conseil national de protection de la nature et auprès des habitants (enquête publique), ainsi que pour permettre aux collectivités concernées de délibérer pour exprimer leur volonté d’adhésion. Et c’est donc en 2017 seulement que le syndicat mixte de préfiguration s’est transformé en syndicat mixte du parc tandis que le décret ministériel de labellisation du nouveau PNR était signé officiellement le 20 décembre dernier.

C’est donc à l’issue d’un long processus de co-construction que voit le jour cette nouvelle structure qui est désormais destinée à protéger et valoriser le patrimoine naturel, culturel et humain de ce vaste espace remarquable, via la mise en œuvre d’une politique cohérente d’aménagement et de développement économique, social et culturel, respectueuse de l’environnement.

La grotte de Ste Marie Madeleine à Plans d’Aups, un des sites emblématique du nouveau PNR (source © Provence verte)

Tout un programme qui va demander beaucoup de diplomatie et de pédagogie pour arriver à concilier les impératifs de préservation d’un écosystème fragile avec les ambitions légitimes des acteurs locaux en matière de développement économique et touristique, où comment marier en bonne intelligence les exploitations de carrières avec la préservation durable des ressources en eau du massif, les nuisances sonores du circuit automobile du Castellet avec le maintien d’une faune d’aigles de Bonelli et de chauve-souris endémiques, l’afflux de touristes avec les nécessités de recueillement autour de la grotte de Sainte Marie-Madeleine, les soucis de préservation du paysage avec le souhait de développer des sites de production d’électricité par centrales photovoltaïques, ou encore l’extension de la viticulture avec le développement d’une agriculture biologique adepte des circuits courts ?

Autant de défis passionnants auxquels le nouveau PNR de la Sainte-Baume va se trouver confronté au jour le jour et qui donnent un aperçu des difficultés de la tâche qui l’attend !

L.V.  

Des villes menacées par la pénurie d’eau ?

15 février 2018

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Jura : la consigne remise au goût du jour

5 février 2018

Consigner les bouteilles en verre : voilà une pratique autrefois très courante et qui a quasiment disparu de notre environnement quotidien. Dans les années 1960, le geste était pourtant des plus banal, qui consistait à rapporter à son épicier où dans les grandes surfaces alors en plein expansion ses bouteilles vides de lait, de vin ou de bière, et ceci en échange de quelques pièces de monnaie ou d’un bon d’achat de valeur modique.

La pratique ne date d’ailleurs pas d’hier puisqu’elle aurait été initiée, dit-on, en 1799 à Dublin par un vendeur d’eau minérale gazeuse, imité dès 1800 par la marque Schweppes. En 1884, la Suède a généralisé le dispositif à grande échelle, allant jusqu’à imposer une standardisation des bouteilles pour en faciliter le recyclage.

Stockage de verre brisé issu du recyclage (source © Verre avenir)

Car le dispositif de la consigne ne présente que des avantages, tant écologiques qu’économiques. Une bouteille consignée (conçue spécifiquement à cet effet pour être plus résistante) peut être réutilisée une cinquantaine de fois moyennant un simple lavage. Ce qui permet d’économiser, selon une étude menée en Alsace et reprise par la fondation Nicolas Hulot, jusqu’à 75 % d’énergie et 33 % d’eau par rapport au recyclage classique qui nécessite de broyer les bouteilles, de débarraser le verre de ses impuretés puis de le fondre dans un four à 1 500 °C afin de fabriquer de nouveaux flacons…

Et pourtant, la France a presque complètement abandonné cette démarche dans les années 1980, alors que la filière des bouteilles en verre se trouvait fortement déstabilisée du fait du développement massif des emballages jetables en plastique. En 1992, lorsqu’a été créé en France le principe de « la responsabilité élargie du producteur », l’objectif prioritaire des industriels était d’éviter qu’on lui impose un système de consigne et ceci pour des raisons purement commerciales. La directive européenne adoptée en 1994 rend en effet désormais obligatoire la reprise ou la collecte des emballages ménagers en vue de leur réutilisation ou leur recyclage.

Récolte sélective du verre : ça déborde parfois… (source © Ouest-France)

La dispositif français oblige quant à lui les entreprises produisant ce qui deviendra des déchets, de verser une contribution financière à des organismes chargés d’organiser les filières de collecte et de traitement de ces déchets, en l’occurrence l’Adelphe, créée en 1993 à l’initiative des opérateurs industriels du secteur des vins et spiritueux. Or le verre pèse pour près de la moitié dans les déchets ménagers des Français, avec environ 2,3 millions de tonnes collectées chaque année par les collectivités. Et les sommes versées par les industriels pour la collecte et le traitement de ces déchets, de l’ordre de 60 millions d’euros par an, ne couvrent qu’une partie du coût, le reste étant pris en charge par les collectivités locales et payé par le contribuable via la taxe d’enlèvement des ordures ménagères.

Automate pour la collecte des bouteilles consignées en Allemagne

Un modèle imposé par les industriels donc, mais qui coûte cher au consommateur comme au contribuable et dont le bilan énergétique est déplorable ! Mais un modèle qui pourrait facilement être changé, à l’exemple de nombreux pays européens dont l’Allemagne où près des trois quarts des bouteilles sont consignées. Il est d’ailleurs cocasse de constater que Verallia, ancienne filiale conditionnement en verre de Saint-Gobain, produit justement des bouteilles consignées destinées au marché allemand

En France, la pratique de la consigne n’a cependant pas totalement disparu puisqu’elle est toujours pratiquée dans les hôtels, cafés et restaurants, ce qui permet ainsi de réutiliser directement environ 500 000 tonnes de verre par an, ce qui représente pas loin d’un milliard de bouteilles, sachant qu’on en produit chaque année de l’ordre de 3,4 milliards…

Et l’Alsace, peut-être en raison de sa proximité culturelle et géographique avec l’Allemagne, n’a jamais abandonné non plus le principe de la consigne, au point de faire des émules puisque l’on assiste depuis quelques années à l’émergence d’un mouvement de réutilisation des bouteilles dans le Jura.

L’initiative date de 2015 et est à porter au crédit de Clus’Ter Jura, une société coopérative d’intérêt collectif, elle-même issue de Juratri, une entreprise d’insertion créée en 1993 à Lons-le-Saunier et spécialisée dans le tri sélectif des déchets. Lauréate de l’appel à projet « Territoire zéro gaspillage, zéro déchet » organisé depuis 2014 par le ministère de l’environnement, l’initiative sobrement intitulée « J’aime mes bouteilles » commence à faire parler d’elle dans les médias.

Aude Weiss, responsable de la filière J’aime mes bouteilles (photo © Laëtitia Achilli)

Une animatrice, Aude Weiss, a été recrutée en septembre dernier pour piloter le projet qui consiste à collecter les bouteilles de vin issus de la production locale et qui sont consommés à 60 % dans le Jura, ce qui rend d’autant plus aisée et rentable leur réutilisation. Depuis un an, ce sont ainsi déjà plus de 50 000 bouteilles de vin qui ont été récupérées dans 25 points de collecte (Biocoop, cavistes, épiceries, etc.) où les clients les rapportent (gratuitement pour l’instant). La structure revend ensuite ces bouteilles aux viticulteurs, au prix de 18 à 20 centimes la bouteille, contre 24 à 27 centimes pour une neuve, ce qui leur permet de les réutiliser moyennant une économie substantielle supérieure à 20 %.

Dispositif de collecte des bouteilles mis en place dans le Jura par J’aime mes bouteilles

Le mouvement ainsi initié est en plein essor et espère augmenter significativement son impact en visant la collecte de 500 000 bouteilles d’ici 2020, avec une extension à d’autres productions locales telles que la bière et les jus de fruits. La mise en place d’une gratification pour inciter davantage les consommateurs à rapporter leurs bouteilles vides est aussi envisagée, comme en Allemagne où les bouteilles sont vendues un peu plus chères, mais où l’acompte est ensuite redonné aux consommateurs qui rapportent les bouteilles : 8 centimes pour une canette de bière, 15 pour une bouteille en plastique recyclable et 25 centimes pour les contenants non recyclables – sous forme de bons en magasin ou via des automates collecteurs.

Non seulement cette pratique est vertueuse sur le plan environnemental en contribuant à diminuer les volumes de déchets, mais de surcroît elle offre aux plus démunis la possibilité d’arrondir leurs fins de mois en ramassant les bouteilles et canettes vides laissées à l’abandon. Comme quoi, bénéfices économiques, sociaux et environnementaux arrivent parfois à se rejoindre !

L.V.  

Carnoux en noir et blanc…

3 décembre 2017

Il y a un peu plus de trois mois déjà, le 19 août 2017, la zone boisée située entre Aubagne et Carnoux s’embrasait. Il avait fallu alors une mobilisation exceptionnelle des services d’incendie et de secours pour parvenir in extremis à arrêter les flammes le long de l’avenue Jean Bart, sans pouvoir pour autant empêcher que plusieurs haies de thuyas ne se transforment en torches dans les jardins des propriétés les plus exposées. Une fois l’incendie maîtrisé, c’est un spectacle de désolation qui s’étend désormais sur tout le flanc nord de la commune, visible même depuis l’espace, et qui vient rappeler à chacun à quel point la ville est vulnérable face à ce type de risque naturel.

Les chutes de neige survenues hier et qui ont saupoudré quelques centimètres de poudreuse dans les rues de Carnoux ont tranformé en quelques heures ce paysage dévasté, noir et calciné, devenu comme par enchantement d’une blancheur éclatante.

Ce matin, sous le soleil revenu, le spectacle était saisissant de contraste entre le sol recouvert d’un mince manteau neigeux quasi continu et les branches sombres, tordues, comme torturées par l’incendie, qui se dressaient vers le ciel, d’un bleu intense. De quoi rappeler à chacun la triste réalité de ce feu de forêt qui a bien failli réduire la commune à l’état de cendre, comme bien d’autres villes dans le monde exposées elles-aussi à de terribles feux de forêt cet été et qui n’ont pas eu la possibilité d’être protégées.

L.V.  

Vous reprendrez bien un peu de glyphosate ?

30 novembre 2017

« L’homme est un animal doué de raison », disait le philosophe Aristote. C’est parfois à se demander. Prenons l’affaire du glyphosate. Voilà un produit miracle, mis sous le marché en 1974 sous le doux nom de Roundup et qui a fait la fortune de la firme Monsanto, devenant en quelques années le pesticide le plus vendu au monde : pas moins de 800 000 tonnes par an dont plus de 10 000 tonnes rien qu’en France. Le brevet est tombé dans le domaine public en 2000 mais il continue à rapporter la bagatelle de 5 milliards de dollars chaque année à la firme Monsanto, désormais tombée dans l’escarcelle du géant allemand Bayer.

Les agriculteurs affiliés à la FNSEA ne jurent que par lui et considèrent qu’il est désormais impossible à l’agriculture française de se passer du glyphosate. Comme l’a affirmé Eric Thirouin, secrétaire général de la FNSEA à un journaliste du Monde, interdire l’utilisation de cet herbicide, reviendrait « à poser un boulet à l’agriculture française » et coûterait pas moins de 2 milliards d’euros à une filière nationale déjà bien mal en point. La raison d’un tel surcoût : il faudrait que les céréaliers en reviennent à la charrue et se remettent à labourer leurs terres, ce qui les obligerait « à augmenter leur consommation de gas oil et leurs émissions de CO2 ».

Un véritable scénario catastrophe qui laisse pantois. Certes, nous voilà partiellement rassurés, nos agriculteurs ne seront pas obligés d’en revenir pour autant à l’araire tirée par des bœufs, voire à la daba. Mais tout de même, de là à prétendre que le glyphosate est la meilleure arme qu’on ait trouvée pour protéger l’environnement et combattre le réchauffement climatique, voilà qui paraît un peu fort de café.

Pour labourer profond, il faut ce qu’il faut… (source : Massey-Fergusson)

On en vient même à se demander, lorsqu’on voit le nombre de tracteurs dernier cri, avec cabine insonorisée équipée de GPS, en train de tracer leurs sillons dans les plaines céréalières de la Beauce ou de la Brie, si certains ne seraient pas en train de pousser un peu loin le bouchon en voulant nous faire croire qu’on a arrêté depuis belle lurette de retourner les champs et que, grâce au glyphosate, tout la profession s’est convertie à la permaculture…

Voilà en tout cas une situation bien peu rationnelle en apparence. Alors qu’en Europe et singulièrement en France, la demande en produits issus de l’agriculture biologique explose, au point qu’on est obligé d’importer massivement pour y faire face, la majorité active (ou du moins la plus bruyante) de la profession agricole se bat pour conserver le droit d’utiliser des produits phytosanitaires dont l’effet sur les sols et sur l’environnement est catastrophique, avec pour principal argument que c’est le seul moyen pour produire à bas coût et répondre ainsi aux diktats de la grande distribution.

La filière agricole et le ministre de l’agriculture en tête, se sont ainsi bruyamment félicités de la décision honteuse prise le 27 novembre 2017 par les États membres de l’Union européenne à une large majorité de prolonger de 5 ans la licence d’exploitation du glyphosate malgré tous les risques qu’il représente non seulement pour l’environnement mais aussi pour la santé humaine puisqu’il est désormais considéré comme « cancérogène probable » suite à une étude publiée en mars 2015 par le Centre international de recherche contre le cancer qui dépend de l’OMS.

Un dessin de Deligne (source : Urtikan)

La déclassification en mars 2017 des fameux « Monsanto papers » indique d’ailleurs que la firme américaine a découvert ce pouvoir mutagène du glyphosate dès 1999 et a tout fait depuis, grâce à son réseau d’influence auprès d’experts internationaux reconnus, pour semer le doute à ce sujet et publier nombre de résultats d’études qui tendent à prouver le contraire pour renforcer sa position.

Voilà en tout cas qui montre, une fois de plus, à quel point il est difficile, sur des dossiers aussi complexes et qui comportent de tels enjeux économiques, de prendre des décisions qui seraient conformes à l’intérêt général. Difficile d’ailleurs de ne pas faire le parallèle avec le cas de l’amiante dont on connait les dangers depuis les années 1890 mais pour laquelle il a fallu attendre 1997 pour que son utilisation soit enfin interdite en France.

Monument dédié aux victimes de l’amiante à Condé-sur-Noireau

Les propriétés de ce matériau étaient telles qu’il a été massivement utilisé dans l’industrie et la construction, sous forme d’amiante-ciment, en renforcement des enrobés routiers, comme isolant thermique ou encore dans les garnitures de freins. Pendant des décennies, des générations entières d’ouvriers ont été exposées à l’inhalation de fibres d’amiante dont l’accumulation dans les poumons est la cause de cancer. Rien qu’en France, 6 500 cas de maladie professionnelle liée à l’amiante ont ainsi été reconnus pour la seule année 2005 et on considérait en 2015 que chaque année de l’ordre de 2 200 personnes développent un cancer du fait de l’amiante et que 1 700 personnes en meurent.

C’est en 1899 qu’a été constaté le premier décès imputé directement à l’amiante et en 1906 déjà un inspecteur du travail s’alarmait des nombreuses pathologies des ouvriers dans une filature de Condé-sur-Noireau, là même où en 1972 Ferrodo installera une usine de garnitures de frein dans laquelle plusieurs centaines d’ouvriers seront victimes d’exposition grave aux fibres d’amiante.

Bâtiments de l’ancienne mine d’amiante de Canari en Corse (photo © Gérard Baldocchi, Corse Matin)

Mais pendant très longtemps, les syndicats de travailleurs ont milité aux côté du lobby des entreprises de l’amiante pour lutter contre toute limitation de l’utilisation de ce produit considéré lui-aussi comme indispensable, de même que les Corses se sont battus pour conserver leur mine d’amiante à Canari ou que les élus locaux un peu partout se sont démenés pour maintenir en activité les usines Eternit comme à Port-de-Bouc où le site est désormais ornée d’un monument aux morts dédié aux victimes de l’amiante.

Travaux de désamiantage dans les locaux de l’université de Jussieu (source : EPAURIF)

Il a fallu pour que l’on cesse enfin d’utiliser ce produit nocif que l’on se rende compte que ce n’était pas seulement les professionnels qui étaient touchés mais la société toute entière. Alors qu’en 1994 six enseignants exposés à l’amiante dans un lycée de Gérarmer décèdent et qu’apparaissent les premières victimes sur le site de la faculté de Jussieu, l’inénarrable Claude Allègre, toujours aussi lucide, en est encore à railler, en 1996, « un phénomène de psychose collective ». C’est sans doute ce qu’il dirait aujourd’hui de la phobie du glyphosate, s’il avait conservé un minimum de crédibilité pour qu’on lui tende encore un micro…

En 2005, un rapport parlementaire faisait état de 35 000 morts dus à l’exposition à l’amiante en France entre 1965 et 1995 et de plusieurs milliers de décès supplémentaires attendus entre 2005 et 2030. Notons également que le Fonds d’indemnisation des victimes de l’amiante a déjà déboursé plus de 2 milliards d’euros en une dizaine d’années et que le désamiantage de la seule université de Jussieu a déjà coûté de l’ordre de 2 milliards d’euros également. De quoi largement relativiser les arguments de la FNSEA qui voudrait nous faire croire que, pour le glyphosate comme pour d’autres dossiers, la meilleure solution est encore de foncer dans le mur en fermant les yeux…

L.V. 

Ordures ménagères : faut-il vraiment trier ses déchets ?

28 novembre 2017

Ordures ménagères dans les rues de Marseille (photo © Robert Poulain, source Destimed)

Le traitement des ordures ménagères fait partie de ces dossiers complexes que les collectivités ont bien du mal à gérer. Leur volume ne cesse d’augmenter : chaque Français jette plus d’1 kg de déchet chaque jour, soit 573 kg par an, et cette quantité a doublé au cours des 40 dernières années ! Et les solutions techniques pour les traiter sont de plus en plus coûteuses.

Le simple enfouissement des ordures pose de sérieux problèmes environnementaux et tend à disparaître, sauf pour les déchets ultimes, dans des conditions très contrôlés, d’autant que plus personne n’accepte l’ouverture d’une décharge à côté de chez lui. Mais on enfouit encore près de 30 % de nos déchets, ce qui montre à quel point le recyclage reste largement à développer.

L’incinération, qui concerne désormais de l’ordre d’un tiers du traitement des déchets, crée également de sérieuses réticences de la part du voisinage et n’est rentable que pour de gros volumes. Le coût moyen de traitement des ordures par incinération, comme cela est pratiqué pour l’agglomération marseillaise, est évalué par l’ADEME à 121 € la tonne (en 2013) mais les coûts augmentent rapidement lorsque les volumes à traiter sont faibles, du fait des charges fixes élevées. Il existe actuellement en France plus de 125 unités d’incinération, dont la plupart (moins de 70 % en réalité) valorisent l’énergie produite (en alimentant des réseaux de chaleur).

Incinérateur d’ordures ménagères à Fos-sur-Mer (photo © Pierre Ratcliffe)

En France, on estime le volume global de déchets produits annuellement à 355 millions de tonnes dont l’essentiel provient des chantiers de construction (estimé à 250 Mt) et, dans une moindre part (6Mt environ) de l’activité économique industrielle. La part des ordures ménagères proprement dite représente de l’ordre de 17 Mt, à laquelle s’ajoute à peu près autant de déchets issus des artisans et commerçants et qui sont généralement collectés en même temps, ainsi que 4 Mt produits par les collectivités elles-mêmes, soit environ 38 millions de tonnes de déchets à traiter chaque année par les collectivités.

Décharge sauvage d’ordures ménagères sur le littoral méditerranéen (source © Ecologie Nature)

Voilà qui fait un volume considérable et qui coûte très cher à la société : de l’ordre de 10 milliards d’euros chaque année (dont la motié payée directement par les ménages via la taxe d’enlèvement des ordures ménagères) alors que ce montant n’était que de 3,5 milliards en 1990, à une période où les déchets étaient moins nombreux, plus facilement dégradables et surtout où l’on se contentait encore bien souvent de les entasser dans la nature dans de simples décharges, ce qui limitait les coûts à la collecte et au transport…

Une partie de ces déchets, déposés en déchetterie ou collectés en porte à porte via les poubelles jaunes peut être recyclée via différentes filières, pour l’essentiel largement subventionées car encore peu rentables économiquement. Mais près de la moitié de ce volume est constituée d’ordures ménagères et assimilées qui s’entassent dans nos poubelles grises et ne peut être facilement valorisée. Malgré toutes les campagnes de sensibilisation et d’information qui se multiplient depuis des années, le tri individuel des déchets n’est pas partout entré dans les mœurs et l’agglomération marseillaise fait partie des mauvais élèves.

On observe bien une amélioration globale du taux de recyclage qui dépasse désormais la barre des 60 % pour les emballages du programme Eco-emballage (mais plafonne encore en dessous de 45 % pour les emballages industriels…). Tous les immeubles collectifs sont loin d’être équipés pour la collecte sélective et les erreurs de tri sont telles que bien des containers collectés de la sorte s’avèrent inutilisables, d’autant que les règles de tri sont évolutives, plus complexes qu’il n’y paraît, et varient d’une collectivité à l’autre. En gros, seule une petite moitié des déchets recyclables fait l’objet d’un tri effectif à la source, via les dispositifs d’apport volontaire ou via la collecte sélective en porte à porte.

Plaquette pédagogique pour le tri des déchets, éditée par la société Eaux de Marseille

Face à ce constat, certains ont eu l’idée de mieux valoriser le tout venant issu de nos poubelles grises en procédant à leur tri de manière automatique. C’est le processus qu’a mis au point la société Vacher et qui est à l’œuvre depuis mi-2014 dans l’écopôle Altriom en Haute-Loire. A l’origine de cette initiative, un appel d’offre de la communauté d’agglomération du Puy-en-Velay, alliée avec la communauté de communes du Pays de Saugues et deux syndicats intercommunaux voisins de collecte et de traitement des ordures ménagères, celui des Monts du Forez et celui d’Emblavez-Meygal.

Ces colectivités se heurtaient depuis des années à l’impossibilité d’ouvrir un nouveau centre d’enfouissement des déchets. La solution proposée par le groupement consiste à trier les ordures ménagères en séparant de manière automatisée la matière organique d’une part (valorisée par compostage), et les emballages plastiques et métalliques ainsi que les papiers-cartons d’autre part, qui pourront ainsi être recyclés. Le reste, considéré pour l’essentiel comme combustible solide de récupération, est incinéré dans des fours de cimenteries locales, à l’exception d’une part de refus qui correspond grosso modo à 10 % du volume initial et qui, lui, doit effectivement être envoyé dans un centre d’enfouissement pour déchets ultimes. Tout le système repose sur un dispositif breveté très sophistiqué capable d’ouvrir les sacs de déchets et de traiter 20 tonnes par heure à raison de 21 heures par jour, avec plusieurs flux de valorisation, un bel outil technologique, pour un coût tout à fait compétitif puisqu’il est estimé entre 60 et 100 € la tonne !

Vue de l’usine Altriom au Puy-en-Velay (source Altriom)

Bien entendu, les concepteurs d’un tel système, pompeusement dénommé 3Wayste, le présentent comme révolutionnaire puisqu’il permettrait de valoriser 90 % des ordures ménagères entrantes alors que le système de collecte sélective en porte à porte, au Puy-en-Velay comme à Carnoux-en-Provence, ne dépasse guère les 16 %… A se demander d’ailleurs s’il est bien raisonnable de poursuivre cet effort de tri sélectif volontaire à la source auquel les Français semblent totalement rétifs quand on en voit les piètres résultats alors qu’il est en vigueur depuis des années et devrait désormais être entré dans les habitudes au vu de tous les efforts pédagogiques entrepris, y compris en milieu scolaire depuis le plus jeune âge

C’est d’ailleurs ce que préconise le directeur du centre Altriom qui envisage désormais de supprimer carrément la collecte sélective dans le centre-ville du Puy. Un choix statégique qui serait certainement vécu comme une incroyable reculade de la part de tous ceux qui se battent depuis des années pour que chaque citoyen prenne conscience qu’il doit être acteur de la gestion de son environnement et que réduire ses déchets en triant tout ce qui peut-être valorisé fait partie des gestes qui lui incombent en toute responsabilité… D’autant qu’en réalité le système revient à envoyer entre 38 et 46 % de ses flux de déchets entrants directement dans les fours de cimenterie.

Voilà en tout cas un beau débat de société en perspective !

L.V.  

Les derniers rebuts de Thulé

18 novembre 2017

Au printemps 1948, à l’issue de ses études à l’Institut de Géographie de l’Université de Paris, le jeune Jean Malaurie, embarque à 26 ans pour participer à la première expédition polaire conduite par Paul-Emile Victor au Groenland. Il renouvellera l’expérience l’année suivante mais se détourne très vite de ce programme d’exploration scientifique qui ne s’intéresse nullement à la vie des habitants du cru, les Inuits.

Jean Malaurie en avril 1951 (photo © Collection personnelle Jean Malaurie)

En juillet 1950, Jean Malaurie repart donc seul au Groenland pour y conduire, pour le compte du CNRS, la première expédition polaire française à visée à la fois géographique et ethnographique. Il ne s’intéresse pas seulement à la géomorphologie des terres arctiques qui sera le sujet de sa thèse, mais aussi et surtout aux hommes qui y vivent. Il établit ainsi des liens d’amitiés avec le groupe de chasseurs de phoques de Thulé avec qui il passe un hiver entier, dressant pour la première fois et sur quatre générations, l’arbre généalogique de la petite communauté isolée dans des conditions extrèmes.

Avec l’Inuit Kutsikitsoq et deux traineaux à chiens, sans radio ni boussole (inexploitable à ces latitudes), ils seront ainsi les deux premiers hommes au monde à atteindre le pôle nord magnétique, le 29 mai 1951.

Le 16 juin 1951, il découvre fortuitement à Thulé, une base militaire américaine construite secrètement pour accueillir des bombardiers nucléaires. Il observe avec consternation, de ses yeux d’ethnologue, le choc culturel auquel sont confrontés les Inuits dont la civilisation relève alors quasiment de l’âge de la pierre, et qui se retrouvent brutalement face à une débauche de moyens matériels déversés par la puissance militaire américaine. Le choc est brutal et Jean Malaurie saisit rapidement les enjeux culturels et politiques de cette rencontre, au point qu’il décide de prendre publiquement position contre l’implantation de cette base.

C’est cette découverte qui sera une des principales motivations de la publication de son livre intitulé Les derniers rois de Thulé, un best seller qui paraît en 1955 aux éditions Plon, et qui inaugure une nouvelle collection, baptisée Terre humaine, que dirigera désormais Jean Malaurie, une collection prestigieuse qui éditera notamment Tristes Tropiques de Claude Lévi-Strauss, Le cheval d’orgueil de Pierre Jakez Hélias, ou encore Pour l’Afrique, j’accuse de René Dumont. Élu en 1957, sur recommandation de Fernand Braudel et de Claude Lévi-Strauss, à la première chaire de géographie polaire de l’histoire de l’Université française, créée pour l’occasion à l’École pratique des hautes études, Jean Malaurie fonde en 1958 le Centre d’études arctiques, et lance, en 1960, Inter-Nord, la grande revue arctique du CNRS.

Cette base militaire américaine de Thulé, dont les premières installations datent de 1941, a subi une importante extension en 1951, avec l’accord des autorités danoises et dans le cadre de l’OTAN, mais sans la moindre consultation des populations autochtones. Pire, en 1953, les 187 Inuits qui vivaient à proximité ont été purement et simplement expulsés et contraints en quelques jours seulement d’abandonner leurs campements et leurs territoires de pêche et de chasse qu’ils occupaient depuis des millénaires, pour s’exiler 150 km plus au nord, à Qaanaaq. Il leur faudra attendre 1999 pour qu’ils reçoivent enfin un dédommagement pour cet exil forcé !

Inuits déménagés à Qaanaaq après la construction de la base de Thulé (photo de presse source Yonder)

Avion de chasse américain à Thulé en 1960 (source © United States Air Force)

C’est que la base américaine de Thulé est devenue hautement stratégique puisqu’elle accueille dans le plus grand secret des bombardiers stratégiques et un personnel militaire pléthorique allant jusqu’à 10 000 personnes. C’est depuis cette base que durant l’hiver 1956-57, en pleine guerre froide, des Boeing B-47 Stratojet effectuèrent des vols de reconnaissance pour aller inspecter les défenses soviétiques. En 1954, l’armée US y procède à l’édification de la Globecom Tower, un mât radio d’une hauteur de 378 mètres qui, lors de sa construction, constituait la troisième plus haute construction humaine sur terre…

Vue aérienne de la base de Thulé

Le 21 janvier 1968, alors que l’activité de la base a connu un certain ralentissement mais abrite encore près de 4 000 agents, un bombardier B-52 Stratofortress s’abîme dans l’océan Arctique, près du Groenland. Ce bombardier transportait quatre bombes nucléaires, dont trois ont été pluvérisées sur la banquise et en mer, la quatrième n’ayant jamais pu été repêchée. De nombreux Inuits, réquisitionnés pour participer aux opérations de nettoyage après la catastrophe, ont développé des maladies du fait des radiations auxquelles ils ont été exposés et ont eu toutes les peines du monde à obtenir des indemnisations après des années de combat juridique.

En 1959, c’est depuis la base de Thulé qu’a été entreprise, toujours dans le plus grand secret, la construction d’une autre base militaire, dénommée Camp Century et située au nord du Groenland, à 240 km de la côte. Il s’agissait officiellement d’une simple base de recherche, constituée de tunnels creusés sous la calotte glaciaire, de laboratoires scientifiques et d’un hôpital alimenté en électricité par un petit réacteur nucléaire acheminé sur place en pièces détachées et mis en service en octobre 1960. C’est d’ailleurs depuis cette base qu’ont été extraites les carottes de glace à partir desquelles le géophysicien danois Willi Dansgaard a réalisé les premières études sur l’évolution du climat depuis 100 000 ans.

Tunnel en construction à Camp Century (source © Frank J. Leskovitz)

Mais Camp Century abritait aussi une base militaire top secret construite dans le cadre du projet Iceworm (« ver de glacier ») et dont l’objectif était d’installer 600 missiles balistiques capable de frapper l’URSS. Pas moins de 21 tunnels ont ainsi été creusés sous la glace et jusqu’à 200 personnes travaillaient sur place en période estivale. Mais en 1964, les mouvements de la banquise se sont révélés tels qu’il a bien fallu se rendre à l’évidence et abandonner le projet. Le réacteur nucléaire a été démantelé et la base est tombée à l’abandon. Faute d’entretien, les tunnels se sont effondrés les uns après les autres et la base a été peu à peu ensevelie. Il a d’ailleurs fallu attendre janvier 1997 pour que le projet soit rendu public, lorsque l’Institut danois de la politique étrangère publia un rapport, à la demande du Parlement danois, concernant l’histoire des armes nucléaires au Groenland. Ce rapport provoqua un véritable scandale, puisqu’il montrait qu’à l’époque le gouvernement danois avait autorisé tacitement le transport d’armes nucléaires au Groenland, en violation avec la déclaration officielle du Premier ministre, Hans Christian Hansen, qui affirmait en 1957 que le Danemark était une zone totalement exempte d’armes nucléaires.

Etat de la base lors d’une inspection en 1969 (source © Frank J. Leskovitz)

Le problème est que, 50 ans après l’abandon du projet, le réchauffement climatique qui touche particulièrement les hautes latitudes terrestres et provoque désormais des feux de brousse jusqu’au Groenland, menace la stabilité de ces vestiges qui à l’époque étaient enfouis sous 30 m de neige et qui s’étendent sur 55 hectares. Si la fonte de la glace se poursuit au rythme actuel, elle ne sera bientôt plus compensée par les chutes de neige, et les vestiges enterrés vont peu à peu être exhumés. Or il reste encore sur place plus de 200 000 l de fuel stocké dans des cuves sans doute percées depuis belle lurette par la rouille, ainsi de 20 000 l de produits chimiques divers et variés, 240 000 l d’eaux usées jamais traitées et 9 200 t de déchets de nature diverses, ainsi que des générateurs et transformateurs contenant des PCB, sans compter l’enceinte de confinement du réacteur nucléaire, toujours radioactive…

Voilà, s’il en était besoin, un exemple supplémentaire des conséquences potentielles de certaines des idées géniales qui ont germé un jour dans l’esprit de nos dirigeants et de nos élites militaires empreintes de la plus grande confiance dans leur toute puissance technologique, mais peu regardantes sur les risques que leurs élucubrations hasardeuses pouvaient faire courir aux générations futures…

L.V.  

A quoi sert donc le Parc des Calanques ?

30 octobre 2017

Au dessus de la calanques d’En Vau

Souvenons-nous des débats homériques qui avaient secoué le petit monde politique local lorsqu’avait été lancée, en 2009, la concertation en vue de définir les contours du futur Parc national des Calanques, alors en gestation depuis une dizaine d’années mais dont la mise en œuvre devenait envisageable grâce à la réforme des parcs nationaux adoptée en 2006 et surtout suite à l’arrêté de prise en considération du projet signé par le premier ministre de l’époque le 20 avril 2009, un certain François Fillon, qui s’est depuis illustré par d’autres actions moins glorieuses…

Lors d’une conférence organisée sur Carnoux à ce sujet en décembre 2009, les craintes que suscitaient le projet avaient été lourdement exprimées. Comme de coutume, la plupart des élus locaux étaient alors mobilisés contre ce projet, perçu comme une main mise de l’État et dont la concrétisation allait nécessairement se traduire par l’imposition de contraintes supplémentaires et la perte de certaines de leurs prérogatives en matière d’aménagement du territoire et de développement urbain.

Extrait d’un article publié dans La Provence le 11 décembre 2009

Ce sont d’ailleurs ces arguments qu’a mis en avant le conseil municipal de Carnoux pour décider à l’unanimité de son refus de s’intégrer à l’aire d’adhésion du Parc lors de sa création en avril 2012. Tout le monde ou presque était alors persuadé que la création de ce Parc national allait se traduire par une mise sous cloche du massif des Calanques, sous le regard sourcilleux d’agents assermentés veillant scupuleusement à la stricte application de réglements tatillons, de nature à interdire toute activité de pêche, de chasse et de loisir.

Panneau de signalisation du Parc national des Calanques (route des Crêtes)

Mais les élus locaux se sont tellement démenés que les contours du Parc ont été réduits à la portion congrue et la charte du Parc complètement vidée de sa substance. Du coup, 5 ans après sa création, le Parc national des Calanques est comme transparent. En dehors de quelques panneaux bien discrets posés à certaines entrées et de quelques dizaines d’agents qui patrouillent dans le massif pour rappeler avec patience les règles de base à respecter dans un espace naturel protégé, l’impact du Parc national est jusqu’à présent excessivement modeste.

L’émissaire de Cortiou par où sont déversés les effluents de la station d’épuration Géolide dans le coeur marin du Parc national des Calanques

Aucun arrêt de l’urbanisation n’a été constaté depuis la création du Parc et la bétonisation se poursuit comme jamais dans toutes les communes limitrophes, de Marseille à La Ciotat en passant par Cassis. Les eaux usées de toute l’agglomération marseillaise et de Cassis continuent de se rejeter en plein coeur du Parc national, de même d’ailleurs que les déchets industriels toxiques de l’usine d’alumine de Gardanne, malgré les avis négatifs exprimés par le Ministère de l’Environnement, mais avec l’aval des élus du Parc, tandis que les eaux limpides des calanques continuent d’être sillonnées en tout sens par des norias de bateaux à touristes, de yachts privés, de hors-bord et de jet ski tous plus bruyants et plus polluants les uns que les autres..

Quant à la chasse, non seulement le Parc national ne l’a pas interdite sur son périmètre mais de surcroit il y autorise explicitement la chasse aux gluaux, pourtant expressément illicite aux yeux de la législation européenne, ainsi que le lâcher de gibier de tir, de ces faisans d’élevage sachant à peine voler qui sont lâchés dans la nature la veille de l’ouverture et qui se font écraser sur les routes par des automobilistes distraits.

Ballet de bateaux à l’entrée de la calanque de Port Miou

Pour ce qui est de la pêche, et en dehors des quelques zones de non-pêche soigneusement délimitées, la réglementation est des plus légères, autorisant par exemple pour la pêche de loisir 7 kg de poissons par jour et par personne auxquels s’ajoutent 15 prises tels que loups, daurades, congres ou bonites… Difficile de définir des règles moins contraignantes ! Elles résultent d’ailleurs de décisions prises par une commission rassemblant de nombreux acteurs socio-économiques : prudhommies de pêche, comité régional de pêche, représentations de fédérations de pêche de loisir, clubs et sociétés nautiques de pêche… Autant dire que chacun y plaide d’abord pour ses propres intérêts !

Mérou brun, espècé protégée (photo © Hervé Thedy)

En réalité, les seules limites qu’a réussi à fixer le Parc national concerne la lutte contre le braconnage, dans le but avoué de ne pas venir concurrencer les intérêts des pêcheurs professionnels. Et pourtant, force est de constater que même sur ce point le Parc national n’a pas fait preuve jusque là d’une grande efficacité comme vient de le démontrer l’affaire qui défraie l’actualité et qui a été révélée par un article de La Provence le 24 octobre dernier.

Les faits ne datent pas d’hier puisqu’ils ont été dénoncés en septembre 2015 par un groupe de plaisanciers excédés d’observer, jour après jour, des braconniers venir pêcher en toute impunité et avec de gros moyens dans les zones interdites du Parc, notamment autour de l’île de Riou ou près du phare du Planier. Ils adressent alors une lettre anonyme à la compagnie de gendarmerie maritime de Marseille, mais sans aucun effet. Un an plus tard, un pêcheur professionnel revient à la charge et prend à son tour la plume pour dénoncer ces agissements scandaleux et illicites, qui sont d’ailleurs confirmés par des observations effectuées par les agents du Parc national eux-mêmes.

Les gendarmes finissent par ouvrir une enquête et mettent sur écoute les téléphones portables des suspects, entre septembre 2016 et février 2017, tout en épluchant leurs comptes bancaires. Ils n’ont alors aucun mal à confirmer l’existence d’une véritable entreprise de braconnage à grande échelle, aux activités quasi industrielles. Deux pêcheurs professionnels, dont l‘un a d’ailleurs déjà été condamné il y a deux ans pour activité illégale dans ce même Parc des Calanques, sont mis en cause et les montants en jeux sont considérables.

Extrait d’une plaquette éditée par le Parc national des Calanques

Vue de la calanque d’En Vau et du Cap Canaille

Les biens utilisés pour ce braconage à grande échelle, dont un bateau semi-rigide explicitement nommé « Bracoboat » ont été saisis pour une valeur estimée à environ 200 000 €, ce qui confirme l’échelle industrielle de ce trafic. Les 4 pêcheurs et chasseurs sous-maris impliqués dans ce pillage en règle des richesses biologiques du Parc national des Calanques sont poursuivis pour travail dissimulé et blanchiment de travail dissimulé en bande organisée, pêche maritime dans une zone interdite et mise sur le marché par un établissement non agréé, de produits d’origine animale destinés à la consommation humaine. Ils comparaîtront devant le tribunal correctionnel de Marseille le 8 novembre prochain et risquent de lourdes amendes.

En parallèle, 8 revendeurs qui écoulaient le produits de leurs pêches miraculeuses, dont des poissonniers et grossistes ainsi que des restaurateurs renommés de Marseille, sont convoqués devant le délégué du Procureur de la République car ils sont également poursuivis pour achat en connaissance de cause, de produits de la pêche sous-marine non professionnelle et d’achat non autorisé d’espèces animales protégées, dont certaines étaient d’ailleurs pêchées dans des zones réputées inalubres au droit de l’émissaire de Cortiou en particulier.

Ecogardes du Parc national des Calanques

Ce véritable pillage organisé qui se déroule depuis des années au nez et à la barbe des agents du Parc national des Calanques dont la principale raison d’être consistait pourtant à assurer une meilleure protection des richesses environnementales de ce milieu naturel exceptionnel, conduit à s’interroger sur l’efficacité réelle de cet outil. L’implication forte des collectivités locales dans sa gouvernance était certes une nécessité pour permettre l’acceptation du projet, mais elle s’est traduit par un tel affaiblissement des contraintes réglementaires qu’on en vient à se demander si le Parc, dans son fonctionnement actuel, présente la moindre utilité, même si les plus optimistes diront que ce serait sans doute bien pire sans cela…

L.V.  

Des algues à la rescousse de la planète

21 octobre 2017

A Paris, la société Suez Environnement vient d’installer une nouvelle sorte de mobilier urbain qui rappelle furieusement les antiques colonnes Morris, lesquelles parsemaient les artères de la capitale au XIXème siècle pour afficher spectacles et informations diverses. Dressée sur la place d’Alésia dans le 14ème arrondissement, au centre d’un carrefour où transitent chaque jour en moyenne pas moins de 72 000 véhicules, cette colonne d »un nouveau style, est en réalité un puits de carbone expérimental, ainsi que l’ont rapporté notamment Le Monde et Les Echos.

Colonne Morris aquarium installée place d’Alésia (photo © Gilles Rolle / REA)

Le principe de fonctionnement est des plus simples. Comme chacun sait, les algues, ainsi que tous les végétaux pourvus de chloroplastes et aptes à la photosynthèse, absorbent en présence de lumière le gaz carbonique dont elles assimilent le carbone et rejettent l’oxygène.

La colonne Morris high tech de 4 m de hauteur installée en juillet 2017 place d’Alésia par Suez en accord avec la Mairie de Paris n’est ni plus ni moins qu’un vaste aquarium de 1 m³ qui contient des microalgues. Un système de ventilation leur permet de s’alimenter avec l’air ambiant chargé en gaz carbonique et en polluants divers dont le dixyde d’azote (NO2) rejeté en grande quantité par les pots d’échappement des véhicules et dont la quantité à cet endroit dépasse régulièrement le seuil réglementaire de 40 µg/m³, selon les données d’Airparif.

Principe de fonctionnement du puits de carbone (source © SUEZ)

Des diodes électroluminescentes fournissent aux algues l’éclairage suffisant pour optimiser les réactions de photosynthèse et l’oxygène ainsi produit est rejeté dans l’air ambiant grâce au système de ventilation : rien de plus simple, il suffisait d’y penser ! A force de se goinfrer ainsi de gaz carbonique, les microalgues vont naturellement croître et se multiplier. Quand il y en aura trop, un coup de chasse d’eau et la biomasse en excès filera via le réseau d’assainissement vers la station d’épuration où elle sera transformée en biogaz. Après traitement, le méthane ainsi récupéré sera ensuite réinjecté dans le réseau de gaz naturel. Un bel exemple d’économie recyclée où l’on est gagnant à chaque étape…

Prototype en cours de test à la station d’épuration de Colombes (source © SUEZ)

Le dispositif, mis au point avec la start-up Fermentalg, basée à Libourne en Gironde et spécialisée dans la production de microalgues destinées à la nutrition humaine et animale, a fait l’objet d’une présentation lors de la COP 21 en décembre 2015. En janvier 2017, un premier test en vraie grandeur a été effectué à l’usine de traitement des eaux usées du SIAAP (Syndicat interdépartemental de l’assainissement de l’agglomération parisienne) à Colombes où un puits de carbone a été mis en place, alimenté par les gaz à effet de serre rejetés par les fumées du four d’incinération des boues de l’usine. Le système a donné entière satisfaction et la durée de vie des algues s’est révélée bien plus longue que prévu grâce à cette source d’alimentation constante en CO2.

Devant le succès de l’opération, la question s’est posée de poursuivre l’expérimentation dans un site urbain où les taux de gaz carbonique varient davantage. Célia Blauel, adjointe en charge de l’environnement à la mairie de Paris, s’est ainsi laissée convaincre et la fameuse colonne Morris a donc été installée place d’Alésia. L’objectif est de fixer une tonne de CO2 par an, soit un effet comparable à une centaine d’arbres, tout en produisant une dizaine de kg de biométhane, un objectif jugé bien modeste par certains au vu du coût de l’investissement, qui n’a pas été communiqué mais qui semble assez élevé. Le système permettra aussi d’absorber une partie des polluants atmosphériques de type oxydes de soufre, mais c’est seulement à l’issue de cette phase expérimentale qu’on pourra déterminer dans quelle proportion.

Bref, le chemin semble encore bien long avant que de telles colonnes épuratoires ne se développent dans les rues de la capitale, mais l’idée est ingénieuse et vient rappeler à quel point les algues peuvent être des auxiliaires précieux de notre vie quotidienne. Les microalgues en particulier, qui sont très abondantes dans de nombreux milieux naturels et peuvent facilement être cultivées sans nécessiter pour cela de vastes surfaces agricoles, ont un potentiel de développement dix à trente fois supérieur aux plantes terrestres, puisqu’elles sont capables de doubler leur biomasse chaque jour dans des conditions optimales.

Réacteurs photo-biologiques pour la culture de micro-algues (source © WebTV de l’Université de Nantes)

Utilisées de longue date comme nutriment, cosmétique, colorant ou complément alimentaire, les microalgues pourraient bien contribuer demain à la production de biocarburants, pour l’instant issu surtout de la transformation de soja mais au prix de l’accaparement de vastes superficies de terres agricoles. Ainsi, des chercheurs chiliens sont parvenus récemment à produire du biodiesel à base de microalgues en essayant de réduire autant que possible la quantité d’énergie nécessaire pour la croissance de ces organismes unicellulaires, mais le procédé reste pour l’instant au stade de la recherche.

Bitume bio obtenu à partir de résidus de microalgues (source © WebTV de l’Université de Nantes)

En attendant, des chercheurs du CNRS et de l’université de Nantes associés avec la société AlgoSource Technologies basée à Saint-Nazaire, sont peut-être en train de mettre au point le bitume algaire de demain, ainsi que l’a rapporté Le Monde. Leurs travaux, issus du projet Algoroute, publiés en avril 2015 dans la revue ACS Sustainable Chemistry & Engineering et qui ont fait l’objet du dépôt d’un brevet, montrent en effet qu’il est possible, en laboratoire, d’obtenir à partir de résidus de microalgues placés dans un bain d’eau chauffée sous pression, une substance visqueuse hydrophobe, qui présente des caractéristiques similaires à celles du bitume pétrolier : même couleur noire, même viscoélasticité qui assure la cohésion des granulats entrant dans la composition des revêtements routiers, et propriétés rhéologiques comparables conférant au matériau résistance et flexibilité sous l’application de charges roulantes.

Voilà en tout cas qui laisse entrevoir, pour un avenir peut-être proche, des possibilités intéressantes de substitution de certains produits dérivés de l’exploitation pétrolière. A défaut de se passer de routes et de voitures, ce sont peut-être les cultures d’algues qui permettront un jour de trouver enfin un équilibre durable entre développement économique et pérennité de notre environnement naturel…

L.V.  

Un jardin se crée à Carnoux !

16 octobre 2017

Depuis des années, beaucoup de Carnussiens s’interrogeaient sur l’avenir de l’arboretum planté dans les hauts de Carnoux, juste à côté du cimetière. Cette parcelle municipale, autrefois occupée par un éphémère circuit automobile et où il avait été un temps évoqué l’idée d’y creuser un bassin nautique, avait été le support d’un projet séduisant porté par le Lion’s Club et qui consistait à y planter des espèces d’arbres variées dédiées à chaque naissance de nouveaux Carnussiens.

Une des stèles de l’arboretum, désormais dans le périmètre du jardin

Entièrement financé par la section locale du Lion’s Club et inauguré en 2006 par le maire de la commune, le projet a nécessité de remblayer l’ensemble de la parcelle avec plus d’1 m de terre pour espérer y voir prospérer des arbres, tous plantés en grandes pompes et assortis chacun d’une superbe stèle en béton portant fièrement une plaque gravée au nom des nouveaux nés du mois, devenant ainsi parrains et tuteurs de l’arbre. Une bien lourde responsabilité pour ces jeunes Carnussiens car, malgré les énormes quantités de terre rapportée (en réalité, des déchets de démolition lestés de blocs de béton et de plaques de goudron), le soin apporté à la mise en terre des arbres dans une grosse motte et malgré le réseau de goutte-à-goutte installé à grands frais sur tout le terrain, les pauvres arbres ont eu bien du mal à survivre au-delà de quelques années.

Le spectacle de désolation qu’offre depuis quelques années ce dernier espace encore vierge de Carnoux a incité quelques habitants de la ville à initier fin 2016 et après avoir visionné le film documentaire « Demain », réalisé par Cyril Dion et Mélanie Laurent, l’idée d’y créer un jardin collectif ouvert aux habitants de Carnoux, dans un esprit collaboratif et pédagogique. Fortement soutenu par Sophie Gébelin, adjointe en charge de l’environnement, le projet a fait l’objet d’un questionnaire diffusé en février 2017 à l’ensemble des associations de Carnoux afin de recueillir l’avis des habitants et évaluer leur potentiel souhait d’y participer.

La bonne surprise est venue du taux de réponse remarquable reçu à ce questionnaire puisque plusieurs centaines de familles se sont manifestées pour exprimer leur intérêt. Une association intitulée « Un jardin se crée à Carnoux-en-Provence » a donc été fondée dans la foulée et déclarée en Préfecture en mars 2017. La commune a accepté de laisser gratuitement à l’association, via une convention, la jouissance de quelques centaines de mètres carrés à titre expérimental, ainsi que la possibilité de se brancher sur le réseau de distribution d’eau qui irrigue déjà les arbres.

Quant au Lion’s Club, enthousiasmé par l’idée de redonner une deuxième vie plus verdoyante à cette parcelle en triste état, il a accepté d’accompagner financièrement le projet, ce qui a permis au petit groupe de volontaires d’acheter du grillage pour protéger le futur jardin contre les intrusions de sangliers et de mettre en place un système automatisé d’arrosage par goutte-à-goutte. Et ensuite, chacun s’est retroussé les manches pour commencer à aménager la future parcelle.

Le jardin en cours d’aménagement

Vu la nature des remblais qui la recouvrent, il n’était bien évidemment pas envisageable d’y semer directement radis et salades. L’association, qui souhaitait d’emblée s’inspirer d’une approche de type permaculture, a donc privilégié la culture sur buttes fertilisées à long terme par l’enfouissement de quantités importantes de matière organique sous forme de bois et déchets végétaux. Il s’agit bien sûr de cultiver sans intrants chimiques, en favorisant les associations culturales et en limitant le travail de labour.

Dès le printemps, le petit groupe de pionniers s’est donc retrouvé régulièrement les vendredis après-midi sur la parcelle pour l’aménager progressivement et constituer les premières buttes de culture à vocation expérimentale. Vus l’exiguïté du terrain alloué et la nature du sol a priori peu favorable au maraîchage, il n’était pas possible d’ouvrir trop largement l’association dès le départ, au risque de créer rapidement désillusion et découragement.

Et cet été, les résultats ont été à la hauteur des espérances avec de belles récoltes de tomates, de pommes de terre et de basilic en particulier. Il y a bien eu une tentative d’effraction (alors que la porte du jardin n’est pas fermée !), sans doute un peu de cueillette sauvage et surtout beaucoup de picorage des tomates par des pies affamées et des escargots gloutons, mais l’expérience a montré qu’il était tout à fait envisageable de poursuivre le maraîchage sur le plateau de l’Anguila malgré les conditions pédoclimatiques sans doute pas très optimales.

L’association s’est réunie le 29 septembre 2017 pour tirer un premier bilan de cette saison expérimentale, ce qui a permis d’intégrer quelques familles supplémentaires mais pour l’instant il n’est pas encore question d’étendre la superficie concédée par la commune.

Vue des nouvelles buttes aménagées le 14 octobre 2017

C’est donc toujours dans le même enclos que tous les sympathisants et volontaires se sont réunis ce samedi 14 octobre pour une journée de travail collectif qui a permis de remodeler largement une bonne partie de la parcelle. Quatre nouvelles buttes ont ainsi été aménagées, trois arbres fruitiers et plusieurs arbustes ont été plantés, le tout dans la bonne humeur, l’entraide et la convivialité !

L’aventure du jardin collectif expérimental de Carnoux se poursuit…

L. V. 

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.