Archive for the ‘Environnement’ Category

Sainte-Baume : le PNR nouveau est né !

17 février 2018

Rencontre le 21 décembre 2017 entre le premier ministre Edouard Philippe et le président du PNR Sainte-Baume en présence du président de la Région PACA, Renaud Muselier (source © PNR Sainte-Baume)

Ce n’est pas vraiment une surprise mais plutôt l’aboutissement d’un long et patient processus d’élaboration concertée qui a permis d’aboutir, le 20 décembre 2017 à la naissance officielle, via un décret signé par le premier ministre Edouard Philippe, du parc naturel régional (PNR) de la Sainte-Baume, le 52ème parc ainsi créé en France. Cinquante ans après la création du concept de « parc naturel régional » en 1967 par le Général de Gaulle, ces 52 PNR couvrent désormais 15 % du territoire national et 6 % de la population française y habite.

En effet, contrairement aux parc nationaux qui existent en France depuis 1963 mais qui ont plutôt vocation à protéger des espaces naturels peu habités, les PNR ont été créés sous l’impulsion de la DATAR dans une perspective d’aménagement d’espaces ruraux dans des secteurs qui présentent non seulement un patrimoine environnemental remarquable mais aussi un patrimoine culturel voire un cadre de vie et d’activités qu’il importe de préserver en vue de favoriser le développement économique et touristique local.

La région PACA possède désormais 8 parc naturels régionaux dont le plus emblématique est sans doute celui de Camargue, mais parmi lesquels on peut citer aussi ceux du Queyras, du Luberon, du Verdon ou encore des Alpilles. Autant de lieux d’une grande richesse écologique et qui présentent des paysages hors du commun, mais qui sont avant tout des espaces de vie structurés autour d’une charte qui traduit un véritable projet de développement territorial.

Pour ce qui concerne le PNR de la Sainte-Baume, le projet était en gestation depuis une dizaine d’années, même si certains pionniers en soutenaient l’idée depuis les années 1970, et a fait l’objet ces derniers temps d’une intense concertation entre les collectivités locales, les services de l’État, les partenaires associatifs et les acteurs économiques. Présidé par Michel Gros, par ailleurs maire de La Roquebrussane, le nouveau PNR couvre une superficie de 810 km² et s’étend sur le territoire de 26 communes du Var et des Bouches-du-Rhône. 80 % de ce territoire est constitué d’espaces naturels mais 58 500 habitants y vivent, avec des activités économiques variées.

Limites du périmètre du PNR Sainte-Baume

Le parc est situé aux portes de Carnoux puisque la commune tout proche de Cuges-les-Pins est entièrement située dans le périmètre du nouveau PNR qui s’étend au nord jusqu’à Saint-Maximin et à l’est jusqu’à Brignoles. L’inauguration du nouveau parc n’est pas encore fixée mais devrait avoir lieu au cours du premier trimestre 2018.

En attendant, le syndicat mixte du PNR anime déjà depuis un an les deux sites Natura 2000 partiellement juxtaposés au cœur du parc : Massif de la Sainte-Baume (zone spéciale de conservation, définie au titre de la directive européenne Habitats) et Sainte-Baume occidentale (zone de protection spéciale, définie au titre de la directive européenne Oiseaux). Des inventaires biologiques et une étude socio-économique ont déjà été conduits en 2017 dans ce cadre, en vue de définir les enjeux et les objectifs de conservation. Une fois ce diagnostic posé, un programme d’action sera élaboré d’ici 2019, afin de définir les axes d’intervention pour préserver ce patrimoine naturel remarquable qui contient notamment la fameuse hêtraie historique de la Sainte-Baume ainsi que des sources pétrifiantes spectaculaires dans des formations de travertins, et qui abrite de nombreuses espèces animales et végétales rares.

Entablements de travertins à la source de l’Huveaune (source © Les balades de Gecko)

Le processus de concertation engagé depuis des années avec de nombreux acteurs du territoire en vue de l’émergence de ce nouveau PNR est détaillé sur le site du nouveau syndicat mixte. On y retrouve, outre de nombreux éléments de présentation du projet, dont un film grand public qui met en avant les atouts et caractéristiques de ce territoire, un rappel de la genèse de cette aventure qui s’est concrétisée en 2012 par la création d’un syndicat de préfiguration du futur PNR. L’année suivante a été mis sur pied un Conseil de développement, rassemblant de nombreux acteurs locaux fédérés autour du projet, et a été lancée la concertation en vue d’élaborer un diagnostic partagé et de dessiner les grandes lignes de la future charte du parc.

Un document de synthèse qui présente les grandes lignes de la charte

Il a fallu ensuite attendre 2015 pour que soit finalisée cette charte destinée à fixer pour les 15 ans à venir les grandes orientation du nouveau PNR. L’année 2016 a été mise à profit pour lancer la consultation auprès du Conseil national de protection de la nature et auprès des habitants (enquête publique), ainsi que pour permettre aux collectivités concernées de délibérer pour exprimer leur volonté d’adhésion. Et c’est donc en 2017 seulement que le syndicat mixte de préfiguration s’est transformé en syndicat mixte du parc tandis que le décret ministériel de labellisation du nouveau PNR était signé officiellement le 20 décembre dernier.

C’est donc à l’issue d’un long processus de co-construction que voit le jour cette nouvelle structure qui est désormais destinée à protéger et valoriser le patrimoine naturel, culturel et humain de ce vaste espace remarquable, via la mise en œuvre d’une politique cohérente d’aménagement et de développement économique, social et culturel, respectueuse de l’environnement.

La grotte de Ste Marie Madeleine à Plans d’Aups, un des sites emblématique du nouveau PNR (source © Provence verte)

Tout un programme qui va demander beaucoup de diplomatie et de pédagogie pour arriver à concilier les impératifs de préservation d’un écosystème fragile avec les ambitions légitimes des acteurs locaux en matière de développement économique et touristique, où comment marier en bonne intelligence les exploitations de carrières avec la préservation durable des ressources en eau du massif, les nuisances sonores du circuit automobile du Castellet avec le maintien d’une faune d’aigles de Bonelli et de chauve-souris endémiques, l’afflux de touristes avec les nécessités de recueillement autour de la grotte de Sainte Marie-Madeleine, les soucis de préservation du paysage avec le souhait de développer des sites de production d’électricité par centrales photovoltaïques, ou encore l’extension de la viticulture avec le développement d’une agriculture biologique adepte des circuits courts ?

Autant de défis passionnants auxquels le nouveau PNR de la Sainte-Baume va se trouver confronté au jour le jour et qui donnent un aperçu des difficultés de la tâche qui l’attend !

L.V.  

Publicités

Des villes menacées par la pénurie d’eau ?

15 février 2018

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Jura : la consigne remise au goût du jour

5 février 2018

Consigner les bouteilles en verre : voilà une pratique autrefois très courante et qui a quasiment disparu de notre environnement quotidien. Dans les années 1960, le geste était pourtant des plus banal, qui consistait à rapporter à son épicier où dans les grandes surfaces alors en plein expansion ses bouteilles vides de lait, de vin ou de bière, et ceci en échange de quelques pièces de monnaie ou d’un bon d’achat de valeur modique.

La pratique ne date d’ailleurs pas d’hier puisqu’elle aurait été initiée, dit-on, en 1799 à Dublin par un vendeur d’eau minérale gazeuse, imité dès 1800 par la marque Schweppes. En 1884, la Suède a généralisé le dispositif à grande échelle, allant jusqu’à imposer une standardisation des bouteilles pour en faciliter le recyclage.

Stockage de verre brisé issu du recyclage (source © Verre avenir)

Car le dispositif de la consigne ne présente que des avantages, tant écologiques qu’économiques. Une bouteille consignée (conçue spécifiquement à cet effet pour être plus résistante) peut être réutilisée une cinquantaine de fois moyennant un simple lavage. Ce qui permet d’économiser, selon une étude menée en Alsace et reprise par la fondation Nicolas Hulot, jusqu’à 75 % d’énergie et 33 % d’eau par rapport au recyclage classique qui nécessite de broyer les bouteilles, de débarraser le verre de ses impuretés puis de le fondre dans un four à 1 500 °C afin de fabriquer de nouveaux flacons…

Et pourtant, la France a presque complètement abandonné cette démarche dans les années 1980, alors que la filière des bouteilles en verre se trouvait fortement déstabilisée du fait du développement massif des emballages jetables en plastique. En 1992, lorsqu’a été créé en France le principe de « la responsabilité élargie du producteur », l’objectif prioritaire des industriels était d’éviter qu’on lui impose un système de consigne et ceci pour des raisons purement commerciales. La directive européenne adoptée en 1994 rend en effet désormais obligatoire la reprise ou la collecte des emballages ménagers en vue de leur réutilisation ou leur recyclage.

Récolte sélective du verre : ça déborde parfois… (source © Ouest-France)

La dispositif français oblige quant à lui les entreprises produisant ce qui deviendra des déchets, de verser une contribution financière à des organismes chargés d’organiser les filières de collecte et de traitement de ces déchets, en l’occurrence l’Adelphe, créée en 1993 à l’initiative des opérateurs industriels du secteur des vins et spiritueux. Or le verre pèse pour près de la moitié dans les déchets ménagers des Français, avec environ 2,3 millions de tonnes collectées chaque année par les collectivités. Et les sommes versées par les industriels pour la collecte et le traitement de ces déchets, de l’ordre de 60 millions d’euros par an, ne couvrent qu’une partie du coût, le reste étant pris en charge par les collectivités locales et payé par le contribuable via la taxe d’enlèvement des ordures ménagères.

Automate pour la collecte des bouteilles consignées en Allemagne

Un modèle imposé par les industriels donc, mais qui coûte cher au consommateur comme au contribuable et dont le bilan énergétique est déplorable ! Mais un modèle qui pourrait facilement être changé, à l’exemple de nombreux pays européens dont l’Allemagne où près des trois quarts des bouteilles sont consignées. Il est d’ailleurs cocasse de constater que Verallia, ancienne filiale conditionnement en verre de Saint-Gobain, produit justement des bouteilles consignées destinées au marché allemand

En France, la pratique de la consigne n’a cependant pas totalement disparu puisqu’elle est toujours pratiquée dans les hôtels, cafés et restaurants, ce qui permet ainsi de réutiliser directement environ 500 000 tonnes de verre par an, ce qui représente pas loin d’un milliard de bouteilles, sachant qu’on en produit chaque année de l’ordre de 3,4 milliards…

Et l’Alsace, peut-être en raison de sa proximité culturelle et géographique avec l’Allemagne, n’a jamais abandonné non plus le principe de la consigne, au point de faire des émules puisque l’on assiste depuis quelques années à l’émergence d’un mouvement de réutilisation des bouteilles dans le Jura.

L’initiative date de 2015 et est à porter au crédit de Clus’Ter Jura, une société coopérative d’intérêt collectif, elle-même issue de Juratri, une entreprise d’insertion créée en 1993 à Lons-le-Saunier et spécialisée dans le tri sélectif des déchets. Lauréate de l’appel à projet « Territoire zéro gaspillage, zéro déchet » organisé depuis 2014 par le ministère de l’environnement, l’initiative sobrement intitulée « J’aime mes bouteilles » commence à faire parler d’elle dans les médias.

Aude Weiss, responsable de la filière J’aime mes bouteilles (photo © Laëtitia Achilli)

Une animatrice, Aude Weiss, a été recrutée en septembre dernier pour piloter le projet qui consiste à collecter les bouteilles de vin issus de la production locale et qui sont consommés à 60 % dans le Jura, ce qui rend d’autant plus aisée et rentable leur réutilisation. Depuis un an, ce sont ainsi déjà plus de 50 000 bouteilles de vin qui ont été récupérées dans 25 points de collecte (Biocoop, cavistes, épiceries, etc.) où les clients les rapportent (gratuitement pour l’instant). La structure revend ensuite ces bouteilles aux viticulteurs, au prix de 18 à 20 centimes la bouteille, contre 24 à 27 centimes pour une neuve, ce qui leur permet de les réutiliser moyennant une économie substantielle supérieure à 20 %.

Dispositif de collecte des bouteilles mis en place dans le Jura par J’aime mes bouteilles

Le mouvement ainsi initié est en plein essor et espère augmenter significativement son impact en visant la collecte de 500 000 bouteilles d’ici 2020, avec une extension à d’autres productions locales telles que la bière et les jus de fruits. La mise en place d’une gratification pour inciter davantage les consommateurs à rapporter leurs bouteilles vides est aussi envisagée, comme en Allemagne où les bouteilles sont vendues un peu plus chères, mais où l’acompte est ensuite redonné aux consommateurs qui rapportent les bouteilles : 8 centimes pour une canette de bière, 15 pour une bouteille en plastique recyclable et 25 centimes pour les contenants non recyclables – sous forme de bons en magasin ou via des automates collecteurs.

Non seulement cette pratique est vertueuse sur le plan environnemental en contribuant à diminuer les volumes de déchets, mais de surcroît elle offre aux plus démunis la possibilité d’arrondir leurs fins de mois en ramassant les bouteilles et canettes vides laissées à l’abandon. Comme quoi, bénéfices économiques, sociaux et environnementaux arrivent parfois à se rejoindre !

L.V.  

Paris : la bataille de l’eau s’engage !

20 décembre 2017

L’agglomération parisienne fait partie de ces grandes métropoles mondiales pour lesquelles la gestion de l’eau ne va pas de soi. Nos ancêtres les Gaulois de la tribu des Parisii, en installant leurs cabanes de torchis sur l’île de la Cité (à moins que ce ne soit à Nanterre comme le laissent à penser certaines fouilles récentes), en bordure de la Seine, croyaient pourtant s’être prémunis contre cette question de l’approvisionnement en eau potable.

Le lac du Der, en dérivation de la Marne, un des 4 lacs réservoirs en amont de Paris

Mais ils n’imaginaient pas que leur petite cité deviendrait un jour une métropole de 7 millions d’habitants. Or la Seine n’est somme toute qu’un petit fleuve dont le débit en plein été peut devenir ridiculement bas. C’est d’ailleurs pour cette raison qu’ont été construits, après la grande sécheresse de 1921, les quatre grands lacs-réservoirs qui stockent, très en amont du Bassin parisien, sur les cours de la Seine, de la Marne, de l’Aube et de l’Yonne, plus de 800 millions de m3 d’eau qui sont ensuite relâchés progressivement pendant tout l’été et l’automne afin de soutenir le débit d’étiage de la Seine à Paris, tout en contribuant également à la protection de l’agglomération contre les crues d’hiver.

Eugène Belgrand, concepteur du réseau d’eau et d’assainissement de Paris (source © Ecole Polytechnique)

C’est en 1776, sous le règne de Louis XVI, que les frères Perrier créent la première Compagnie des eaux et installent une pompe sur la Seine pour alimenter un réseau de fontaines. Et c’est Napoléon qui fait creuser le canal de l’Ourcq, imaginé jadis par Colbert, et qui alimente encore de nos jours le réseau d’eau non potable qui sert notamment à nettoyer à grandes eaux les rues de la capitale.

Mais c’est à partir de 1854 que, sous l’impulsion du baron Haussmann et de l’ingénieur Eugène Belgrand, se met en place l’essentiel du réseau actuel d’alimentation en eau potable (et du réseau d’assainissement) de la ville. En 1865, les eaux de la Dhuis permettent d’approvisionner les quartiers les plus hauts de Belleville et de Ménilmontant.

Un des ponts aqueducs acheminant les eaux de la Vanne à Paris

Dix ans plus tard, ce sont les eaux de la Vanne, captées à plus de 170 km au sud de Paris, qui sont dérivées vers la capitale, au prix d’aqueducs interminables. En 1893, ce sont les sources de l’Avre, de la Vigne et du Breuil, dans l’Eure à plus de 100 km de Paris, qui sont à leur tour acheminées vers Paris. A l’occasion de l’Exposition universelle de 1900, elles sont grossies par les eaux prélevées sur le Loing et le Lunain, et en 1925 par celles de la Voulzie. En parallèle sont construites deux usines de pompage des eaux de la Seine (à Ivry) et de la Marne (à Saint-Maur). Une troisième, implantée à Orly, les renforcera en 1969.

Célia Blauel, présidente d’Eau de Paris

Et c’est la Compagnie générale des eaux, créée en 1852 sous Napoléon III et rejointe en 1880 par son principal concurrent, la Lyonnaise des Eaux, qui se partagent rapidement la gestion du dispositif. Sur Paris, il a fallu une décision politique du maire Bertrand Delanoë en 2008 pour sortir de ce face-à-face et mettre en place une régie municipale, Eaux de Paris, actuellement présidée par Célia Blauel et qui assure depuis le 1er janvier 2010 l’approvisionnement et la distribution de l’eau potable pour trois millions de Parisiens.

Mais dans le reste de l’agglomération, c’est encore Véolia et Suez, les deux mastodontes héritiers de la Générale et de la Lyonnaise, qui se partagent le gâteau. Suez s’occupe comme délégataire du Syndicat des eaux de la presqu’île de Gennevilliers (SEPG) de la distribution d’eau auprès de 600 000 abonnés de l’ouest parisien, tandis que Véolia gère les 4,5 millions d’usagers du SEDIF, le Syndicat des eaux d’Ile de France, qui règne sur pas moins de 150 communes en Petite et Grande Couronne. Et dans les deux cas depuis 1923 : un record de longévité !

André Santini, président du SEDIF (photo © SIPA)

Certes, la loi Sapin a mis un terme à ces délégations de service public qui s’éternisent et dont la durée légale ne peut désormais excéder 12 années. En 2008, André Santini, maire inamovible d’Issy-les-Moulineaux et président du SEDIF sans discontinuer depuis 1983, a donc été contraint de remettre en jeu le contrat de Véolia. Un appel d’offre a été lancé qui a rapidement tourné à l’affrontement sans pitié entre les deux géants du secteur, jusqu’à ce que Suez se retire de la course, à l’issue d’un combat homérique que relate un savoureux article du Point. Dans l’affaire, Véolia a été contraint de réduire sa marge de 20 % mais le fromage reste alléchant puisque ce contrat représenterait 37 % des 600 millions d’euros de chiffre d’affaire de Véolia Eau.

La Chambre régionale des comptes, qui vient tout juste d’analyser la gestion de ces trois grands services d’eau franciliens sur la période 2010-2014, n’a pas manqué, une fois de plus, de tresser des lauriers à la Ville de Paris qui a parfaitement réussi son pari du retour à une régie municipale et qui offre à ses abonnés le prix de l’eau le moins cher tout en assurant une qualité du service et un niveau d’investissement irréprochables.

Usine de potabilisation de l’eau à Neuilly-sur-Marne (source © SEDIF)

Inversement, les critiques pleuvent sur les délégations de services publics du SEDIF et du SEPG pour lesquels la CRC passe en revue nombre d’irrégularités, de manquements, d’abus et de dérives de toutes sortes, conduisant à une déconnexion totale entre les montants facturés à l’usager et la réalité des dépenses effectives d’investissement, comme l’analyse notamment Marc Laimé sur son site très documenté Les eaux glacées du calcul égoïste.

Ce qui n’empêche pas le SEDIF de fanfaronner et de promouvoir partout son projet de « grand ring de l’eau ». Un concept qui vise à mailler encore davantage les différentes sources d’approvisionnement de l’agglomération parisienne et qui s’est traduit notamment par l’acquisition en février dernier de 6 km de conduites, en vue de relier deux des trois principales usines de pompage et de potabilisation du SEDIF, celle de Méry-sur-Oise et celle de Neuilly-sur-Marne (la troisième étant celle de Choisy-le-Roi, sur la Seine). En fait, une formidable offensive pour étouffer Eau de Paris et viser à terme le monopole de la distribution d’eau potable sur l’ensemble du territoire métropolitain dont les contours restent encore un peu flous.

Unité de nano-filtration dans l’usine du SEDIF à Méry-sur-Oise (source © Véolia)

Du coup, la bataille entre le SEDIF (dont le contrat actuel prend fin en 2022) et Eau de Paris a repris de plus belle, à la faveur des dernières évolutions institutionnelles et notamment de la loi NOTRe qui prévoit qu’à compter du 1er janvier 2020 ce sont désormais aux intercommunalités de prendre la compétence de la production et de la distribution de l’eau potable (comme d’ailleurs de l’assainissement). Sur le territoire de la Métropole du Grand Paris, ce sont désormais les EPT (établissements publics territoriaux) qui sont donc aux manettes, s’étant substitués automatiquement aux communes ou aux intercommunalités. A eux donc de décider s’ils souhaitent ou non adhérer au SEDIF pour lui déléguer cette compétence, et ceci avant le 31 décembre 2017.

Le collectif citoyen Coordination Eau Ile de France, milite donc auprès des élus de certains EPT de Seine-Saint-Denis et du Val-de-Marne en les incitant à profiter de cette fenêtre de tir inespérée pour tenter de sortir du SEDIF et reprendre la gestion de l’eau en régie, ce qui est totalement impossible en temps normal car les statuts du SEDIF empêchent tout départ unilatéral. Et c’est ainsi que 24 des 36 communes des trois EPT Plaine-Commune, Est-Ensemble et Grand Orly-Seine-Bièvre, ont délibéré pour décider de ne pas réadhérer au SEDIF pour les deux ans qui viennent, jusqu’à cette fameuse date butoir du 1er janvier 2020.

Le SEDIF avait bien tenté de bloquer toute initiative en ce sens en laissant entendre qu’en cas de décision de la sorte il se verrait contrait de fermer le robinet sans autre forme de procès le 31 décembre 2017 à minuit et que les élus récalcitrants devront alors se débrouiller pour expliquer leur décision politique malheureuse à leurs électeurs assoiffés. Mais André Santini a fini par reconnaître que cela ressemblait un peu trop à du chantage et avait accepté le 20 octobre dernier le principe de signer des conventions provisoires pour les deux ans à venir, le temps pour les EPT concernés de mener les études nécessaires en vue de déterminer leur position pour 2020. Est-ce un premier pas vers le retour à une extension des régies en Ile de France ? L’avenir le dira…

L.V.

Les inondations irriguent aussi la photographie

9 décembre 2017

Certains sujets semblent davantage que d’autres inspirer les artistes, à moins qu’il ne s’agisse d’effets de mode. Les peintres d’antan se délectaient de natures mortes et de batailles navales. Les photographes d’aujourd’hui s’inspirent beaucoup des inondations, certes devenues de plus en plus spectaculaires à force de construire toujours davantage en zone inondable…

Nous avions déjà cité ici le travail remarquable de Jérôme Knez qui avait eu l’idée de juxtaposer à des photos d’archives de la grande crue parisienne de janvier 1910 d’autres clichés pris exactement au même endroit pendant l’inondation de juin 2016. Il faut croire que ce dernier événement a frappé les imaginations. Bien que modeste par son impact sur Paris, il avait quand même occasionné pour environ 1,4 milliards d’euros de dommages selon les assureurs si on totalise l’ensemble des dégâts observés durant toute la durée de cet événement météorologique, plutôt rare pour la saison et qui s’était traduit sur certains cours d’eau dont le Loing par une crue au moins centennale. Un tel montant en fait d’ailleurs l’inondation la plus coûteuse depuis 35 ans qu’existe le dispositif d’indemnisation des catastrophes naturelles en France !

Le Grand Palais et le pont Alexandre III (photo © Benoît Lapray)

En tout cas, cet événement a inspiré d’autres artistes dont Benoit Lapray qui s’était déjà fait connaître notamment pour ces photos de superhéros « en quête d’absolu ». La série d’images intitulées « when te night falls » et qui est notamment consultable dans le magazine The Photo Academy, est constituée également de doublons de clichés, pris exactement au même endroit et selon un cadrage rigoureusement identique.

Les immeubles du quai André Citroën dans le 15e arrondissement (photo © Benoît Lapray)

Mais pour chacun des sites, les deux images sont le jour et la nuit. Tous les clichés nocturnes ont été pris de nuit, au plus fort de la crue de juin 2016. Quant à leurs équivalents diurnes, ils ont été pris sous un soleil radieux, un an plus tard, alors que la crue de 2016 n’était plus qu’un lointain souvenir.

Quai de la Rapée (photo © Benoît Lapray)

Du coup, le contraste est saisissant entre les clichés pris à la lueur des réverbères en juin 2016 alors que l’eau noire de la Seine submergeait les voies sur berges et venait lécher le tablier de certains ponts, et ceux pris en plein jour un an plus tard et pour lesquels on a bien du mal à imaginer que les promenades verdoyantes et les jardins publics en bordure de Seine puissent être recouverts par 1 m d’eau voire bien davantage.

Au pied du pont Alexandre III (photo © Benoît Lapray)

Une série de clichés en tout cas très pédagogique et qui incite les Parisiens à conserver en tête cette idée que le coeur de la capitale et notamment certains quartiers en bord de Seine sont particulièrement vulnérables en cas de crue majeur du fleuve qui les traverse.

Et ce photographe n’est pas le seul à mettre ainsi en scène l’impact des inondations sur notre quotidien. Citons aussi son collègue sud-africain Gideon Mendel dont les clichés ont fait le tour du monde et ont été repris par de très nombreux médias. Depuis 2007, cet artiste a sillonné le monde, de la Caroline du Sud au Pakistan, en passant par le Brésil, l’Allemagne ou le Nigéria, pour témoigner visuellement de la manière dont les habitants sont impactés dans leur intimité par des inondations.

Un cliché de la série Portraits submergés (photo © Gideon Mendel)

Il en a tiré quatre séries rassemblées sous le titre accrocheur « Un monde qui se noie » et qui ont été notamment exposées aux Rencontres d’Arles en septembre dernier. La première de ces séries, « Portraits submergés », peut-être la plus spectaculaire, met en scène de simples habitants, souvent des couples, qui posent sur le pas de leur porte ou dans leur salon envahi d’eau boueuse dans laquelle ils disparaissent parfois jusqu’à mi-corps voire jusqu’aux épaules.

Dans une maison inondée du Yorkshire (Royaume-Uni) en 2007 (photo © Gideon Mendel, extraite de la série Portaits submergés)

On lit dans le regard de ces victimes des intempéries un certain fatalisme, mais aussi beaucoup de désarroi et de désespoir devant la perte de leur propre habitat devenu totalement inutilisable du fait de l’eau boueuse qui s’est engouffrée partout. On repense au slogan choc qu’avait mis en avant l’établissement public Loire pour rappeler aux populations riveraines que le risque inondation est toujours présent même si les populations l’ont largement oublié depuis les fortes crues qui s’étaient succédé en 1846, 1856, 1866 et 1907 notamment : « parce que la Loire est mieux dans son lit que dans le vôtre… ».

Maison inondée au Royaume-Uni (photo © Gideon Mendel, extraite de la série Lignes de crue)

Sauf que pour ces victimes d’inondation, l’eau s’est bel et bien répandue dans leur salon et leur chambre à coucher, tranformant à jamais ce qui était leur cadre de vie quotidien en un milieu hostile dans lequel leurs effets personnels sont en train de pourrir lentement. La série de clichés intitulée « Ligne d’eau » insiste justement sur les marques laissées par l’eau dans un décor vide de ses habitants mais tout aussi poignant de désolation.

Photo délavée récupérée dans une maison au Bengladesh (photo © Gideon Mendel, extraite de la série Trace d’eau)

Quant à la série dénommée « Traces d’eau », le photographe Gideon Mendel montre des agrandissements des photos personnelles définitivement altérées par le séjour prolongé dans l’eau boueuse et que leurs propriétaires ont soigneusement repêchées pour tenter de conserver un peu des souvenirs de leur vie, gâchée à tout jamais par la catastrophe qui les a touchés. On y voit des visages à moitié effacés, révélateurs de la fragilité de tout ce qui fait notre vie quotidienne face à un risque naturel.

Un beau travail esthétique et pédagogique qui mérite d’être salué en espérant qu’il pourra aider certains à prendre conscience qu’il vaut mieux se préparer à toute éventualité quand on vit en zone inondable : le fait d’avoir conscience du risque permet en effet de réduire fortement sa propre vulnérabilité. Une crue n’est jamais qu’un événement naturel récurrent et il dépend largement de notre comportement et de notre niveau d’adaptation qu’il ne se transforme pas en un drame personnel. Une chose est sûre : faire l’autruche en se persuadant que cela n’arrive qu’aux autres n’est certainement pas la meilleure façon de s’y préparer…

L.V.  

Carnoux en noir et blanc…

3 décembre 2017

Il y a un peu plus de trois mois déjà, le 19 août 2017, la zone boisée située entre Aubagne et Carnoux s’embrasait. Il avait fallu alors une mobilisation exceptionnelle des services d’incendie et de secours pour parvenir in extremis à arrêter les flammes le long de l’avenue Jean Bart, sans pouvoir pour autant empêcher que plusieurs haies de thuyas ne se transforment en torches dans les jardins des propriétés les plus exposées. Une fois l’incendie maîtrisé, c’est un spectacle de désolation qui s’étend désormais sur tout le flanc nord de la commune, visible même depuis l’espace, et qui vient rappeler à chacun à quel point la ville est vulnérable face à ce type de risque naturel.

Les chutes de neige survenues hier et qui ont saupoudré quelques centimètres de poudreuse dans les rues de Carnoux ont tranformé en quelques heures ce paysage dévasté, noir et calciné, devenu comme par enchantement d’une blancheur éclatante.

Ce matin, sous le soleil revenu, le spectacle était saisissant de contraste entre le sol recouvert d’un mince manteau neigeux quasi continu et les branches sombres, tordues, comme torturées par l’incendie, qui se dressaient vers le ciel, d’un bleu intense. De quoi rappeler à chacun la triste réalité de ce feu de forêt qui a bien failli réduire la commune à l’état de cendre, comme bien d’autres villes dans le monde exposées elles-aussi à de terribles feux de forêt cet été et qui n’ont pas eu la possibilité d’être protégées.

L.V.  

Vous reprendrez bien un peu de glyphosate ?

30 novembre 2017

« L’homme est un animal doué de raison », disait le philosophe Aristote. C’est parfois à se demander. Prenons l’affaire du glyphosate. Voilà un produit miracle, mis sous le marché en 1974 sous le doux nom de Roundup et qui a fait la fortune de la firme Monsanto, devenant en quelques années le pesticide le plus vendu au monde : pas moins de 800 000 tonnes par an dont plus de 10 000 tonnes rien qu’en France. Le brevet est tombé dans le domaine public en 2000 mais il continue à rapporter la bagatelle de 5 milliards de dollars chaque année à la firme Monsanto, désormais tombée dans l’escarcelle du géant allemand Bayer.

Les agriculteurs affiliés à la FNSEA ne jurent que par lui et considèrent qu’il est désormais impossible à l’agriculture française de se passer du glyphosate. Comme l’a affirmé Eric Thirouin, secrétaire général de la FNSEA à un journaliste du Monde, interdire l’utilisation de cet herbicide, reviendrait « à poser un boulet à l’agriculture française » et coûterait pas moins de 2 milliards d’euros à une filière nationale déjà bien mal en point. La raison d’un tel surcoût : il faudrait que les céréaliers en reviennent à la charrue et se remettent à labourer leurs terres, ce qui les obligerait « à augmenter leur consommation de gas oil et leurs émissions de CO2 ».

Un véritable scénario catastrophe qui laisse pantois. Certes, nous voilà partiellement rassurés, nos agriculteurs ne seront pas obligés d’en revenir pour autant à l’araire tirée par des bœufs, voire à la daba. Mais tout de même, de là à prétendre que le glyphosate est la meilleure arme qu’on ait trouvée pour protéger l’environnement et combattre le réchauffement climatique, voilà qui paraît un peu fort de café.

Pour labourer profond, il faut ce qu’il faut… (source : Massey-Fergusson)

On en vient même à se demander, lorsqu’on voit le nombre de tracteurs dernier cri, avec cabine insonorisée équipée de GPS, en train de tracer leurs sillons dans les plaines céréalières de la Beauce ou de la Brie, si certains ne seraient pas en train de pousser un peu loin le bouchon en voulant nous faire croire qu’on a arrêté depuis belle lurette de retourner les champs et que, grâce au glyphosate, tout la profession s’est convertie à la permaculture…

Voilà en tout cas une situation bien peu rationnelle en apparence. Alors qu’en Europe et singulièrement en France, la demande en produits issus de l’agriculture biologique explose, au point qu’on est obligé d’importer massivement pour y faire face, la majorité active (ou du moins la plus bruyante) de la profession agricole se bat pour conserver le droit d’utiliser des produits phytosanitaires dont l’effet sur les sols et sur l’environnement est catastrophique, avec pour principal argument que c’est le seul moyen pour produire à bas coût et répondre ainsi aux diktats de la grande distribution.

La filière agricole et le ministre de l’agriculture en tête, se sont ainsi bruyamment félicités de la décision honteuse prise le 27 novembre 2017 par les États membres de l’Union européenne à une large majorité de prolonger de 5 ans la licence d’exploitation du glyphosate malgré tous les risques qu’il représente non seulement pour l’environnement mais aussi pour la santé humaine puisqu’il est désormais considéré comme « cancérogène probable » suite à une étude publiée en mars 2015 par le Centre international de recherche contre le cancer qui dépend de l’OMS.

Un dessin de Deligne (source : Urtikan)

La déclassification en mars 2017 des fameux « Monsanto papers » indique d’ailleurs que la firme américaine a découvert ce pouvoir mutagène du glyphosate dès 1999 et a tout fait depuis, grâce à son réseau d’influence auprès d’experts internationaux reconnus, pour semer le doute à ce sujet et publier nombre de résultats d’études qui tendent à prouver le contraire pour renforcer sa position.

Voilà en tout cas qui montre, une fois de plus, à quel point il est difficile, sur des dossiers aussi complexes et qui comportent de tels enjeux économiques, de prendre des décisions qui seraient conformes à l’intérêt général. Difficile d’ailleurs de ne pas faire le parallèle avec le cas de l’amiante dont on connait les dangers depuis les années 1890 mais pour laquelle il a fallu attendre 1997 pour que son utilisation soit enfin interdite en France.

Monument dédié aux victimes de l’amiante à Condé-sur-Noireau

Les propriétés de ce matériau étaient telles qu’il a été massivement utilisé dans l’industrie et la construction, sous forme d’amiante-ciment, en renforcement des enrobés routiers, comme isolant thermique ou encore dans les garnitures de freins. Pendant des décennies, des générations entières d’ouvriers ont été exposées à l’inhalation de fibres d’amiante dont l’accumulation dans les poumons est la cause de cancer. Rien qu’en France, 6 500 cas de maladie professionnelle liée à l’amiante ont ainsi été reconnus pour la seule année 2005 et on considérait en 2015 que chaque année de l’ordre de 2 200 personnes développent un cancer du fait de l’amiante et que 1 700 personnes en meurent.

C’est en 1899 qu’a été constaté le premier décès imputé directement à l’amiante et en 1906 déjà un inspecteur du travail s’alarmait des nombreuses pathologies des ouvriers dans une filature de Condé-sur-Noireau, là même où en 1972 Ferrodo installera une usine de garnitures de frein dans laquelle plusieurs centaines d’ouvriers seront victimes d’exposition grave aux fibres d’amiante.

Bâtiments de l’ancienne mine d’amiante de Canari en Corse (photo © Gérard Baldocchi, Corse Matin)

Mais pendant très longtemps, les syndicats de travailleurs ont milité aux côté du lobby des entreprises de l’amiante pour lutter contre toute limitation de l’utilisation de ce produit considéré lui-aussi comme indispensable, de même que les Corses se sont battus pour conserver leur mine d’amiante à Canari ou que les élus locaux un peu partout se sont démenés pour maintenir en activité les usines Eternit comme à Port-de-Bouc où le site est désormais ornée d’un monument aux morts dédié aux victimes de l’amiante.

Travaux de désamiantage dans les locaux de l’université de Jussieu (source : EPAURIF)

Il a fallu pour que l’on cesse enfin d’utiliser ce produit nocif que l’on se rende compte que ce n’était pas seulement les professionnels qui étaient touchés mais la société toute entière. Alors qu’en 1994 six enseignants exposés à l’amiante dans un lycée de Gérarmer décèdent et qu’apparaissent les premières victimes sur le site de la faculté de Jussieu, l’inénarrable Claude Allègre, toujours aussi lucide, en est encore à railler, en 1996, « un phénomène de psychose collective ». C’est sans doute ce qu’il dirait aujourd’hui de la phobie du glyphosate, s’il avait conservé un minimum de crédibilité pour qu’on lui tende encore un micro…

En 2005, un rapport parlementaire faisait état de 35 000 morts dus à l’exposition à l’amiante en France entre 1965 et 1995 et de plusieurs milliers de décès supplémentaires attendus entre 2005 et 2030. Notons également que le Fonds d’indemnisation des victimes de l’amiante a déjà déboursé plus de 2 milliards d’euros en une dizaine d’années et que le désamiantage de la seule université de Jussieu a déjà coûté de l’ordre de 2 milliards d’euros également. De quoi largement relativiser les arguments de la FNSEA qui voudrait nous faire croire que, pour le glyphosate comme pour d’autres dossiers, la meilleure solution est encore de foncer dans le mur en fermant les yeux…

L.V. 

Ordures ménagères : faut-il vraiment trier ses déchets ?

28 novembre 2017

Ordures ménagères dans les rues de Marseille (photo © Robert Poulain, source Destimed)

Le traitement des ordures ménagères fait partie de ces dossiers complexes que les collectivités ont bien du mal à gérer. Leur volume ne cesse d’augmenter : chaque Français jette plus d’1 kg de déchet chaque jour, soit 573 kg par an, et cette quantité a doublé au cours des 40 dernières années ! Et les solutions techniques pour les traiter sont de plus en plus coûteuses.

Le simple enfouissement des ordures pose de sérieux problèmes environnementaux et tend à disparaître, sauf pour les déchets ultimes, dans des conditions très contrôlés, d’autant que plus personne n’accepte l’ouverture d’une décharge à côté de chez lui. Mais on enfouit encore près de 30 % de nos déchets, ce qui montre à quel point le recyclage reste largement à développer.

L’incinération, qui concerne désormais de l’ordre d’un tiers du traitement des déchets, crée également de sérieuses réticences de la part du voisinage et n’est rentable que pour de gros volumes. Le coût moyen de traitement des ordures par incinération, comme cela est pratiqué pour l’agglomération marseillaise, est évalué par l’ADEME à 121 € la tonne (en 2013) mais les coûts augmentent rapidement lorsque les volumes à traiter sont faibles, du fait des charges fixes élevées. Il existe actuellement en France plus de 125 unités d’incinération, dont la plupart (moins de 70 % en réalité) valorisent l’énergie produite (en alimentant des réseaux de chaleur).

Incinérateur d’ordures ménagères à Fos-sur-Mer (photo © Pierre Ratcliffe)

En France, on estime le volume global de déchets produits annuellement à 355 millions de tonnes dont l’essentiel provient des chantiers de construction (estimé à 250 Mt) et, dans une moindre part (6Mt environ) de l’activité économique industrielle. La part des ordures ménagères proprement dite représente de l’ordre de 17 Mt, à laquelle s’ajoute à peu près autant de déchets issus des artisans et commerçants et qui sont généralement collectés en même temps, ainsi que 4 Mt produits par les collectivités elles-mêmes, soit environ 38 millions de tonnes de déchets à traiter chaque année par les collectivités.

Décharge sauvage d’ordures ménagères sur le littoral méditerranéen (source © Ecologie Nature)

Voilà qui fait un volume considérable et qui coûte très cher à la société : de l’ordre de 10 milliards d’euros chaque année (dont la motié payée directement par les ménages via la taxe d’enlèvement des ordures ménagères) alors que ce montant n’était que de 3,5 milliards en 1990, à une période où les déchets étaient moins nombreux, plus facilement dégradables et surtout où l’on se contentait encore bien souvent de les entasser dans la nature dans de simples décharges, ce qui limitait les coûts à la collecte et au transport…

Une partie de ces déchets, déposés en déchetterie ou collectés en porte à porte via les poubelles jaunes peut être recyclée via différentes filières, pour l’essentiel largement subventionées car encore peu rentables économiquement. Mais près de la moitié de ce volume est constituée d’ordures ménagères et assimilées qui s’entassent dans nos poubelles grises et ne peut être facilement valorisée. Malgré toutes les campagnes de sensibilisation et d’information qui se multiplient depuis des années, le tri individuel des déchets n’est pas partout entré dans les mœurs et l’agglomération marseillaise fait partie des mauvais élèves.

On observe bien une amélioration globale du taux de recyclage qui dépasse désormais la barre des 60 % pour les emballages du programme Eco-emballage (mais plafonne encore en dessous de 45 % pour les emballages industriels…). Tous les immeubles collectifs sont loin d’être équipés pour la collecte sélective et les erreurs de tri sont telles que bien des containers collectés de la sorte s’avèrent inutilisables, d’autant que les règles de tri sont évolutives, plus complexes qu’il n’y paraît, et varient d’une collectivité à l’autre. En gros, seule une petite moitié des déchets recyclables fait l’objet d’un tri effectif à la source, via les dispositifs d’apport volontaire ou via la collecte sélective en porte à porte.

Plaquette pédagogique pour le tri des déchets, éditée par la société Eaux de Marseille

Face à ce constat, certains ont eu l’idée de mieux valoriser le tout venant issu de nos poubelles grises en procédant à leur tri de manière automatique. C’est le processus qu’a mis au point la société Vacher et qui est à l’œuvre depuis mi-2014 dans l’écopôle Altriom en Haute-Loire. A l’origine de cette initiative, un appel d’offre de la communauté d’agglomération du Puy-en-Velay, alliée avec la communauté de communes du Pays de Saugues et deux syndicats intercommunaux voisins de collecte et de traitement des ordures ménagères, celui des Monts du Forez et celui d’Emblavez-Meygal.

Ces colectivités se heurtaient depuis des années à l’impossibilité d’ouvrir un nouveau centre d’enfouissement des déchets. La solution proposée par le groupement consiste à trier les ordures ménagères en séparant de manière automatisée la matière organique d’une part (valorisée par compostage), et les emballages plastiques et métalliques ainsi que les papiers-cartons d’autre part, qui pourront ainsi être recyclés. Le reste, considéré pour l’essentiel comme combustible solide de récupération, est incinéré dans des fours de cimenteries locales, à l’exception d’une part de refus qui correspond grosso modo à 10 % du volume initial et qui, lui, doit effectivement être envoyé dans un centre d’enfouissement pour déchets ultimes. Tout le système repose sur un dispositif breveté très sophistiqué capable d’ouvrir les sacs de déchets et de traiter 20 tonnes par heure à raison de 21 heures par jour, avec plusieurs flux de valorisation, un bel outil technologique, pour un coût tout à fait compétitif puisqu’il est estimé entre 60 et 100 € la tonne !

Vue de l’usine Altriom au Puy-en-Velay (source Altriom)

Bien entendu, les concepteurs d’un tel système, pompeusement dénommé 3Wayste, le présentent comme révolutionnaire puisqu’il permettrait de valoriser 90 % des ordures ménagères entrantes alors que le système de collecte sélective en porte à porte, au Puy-en-Velay comme à Carnoux-en-Provence, ne dépasse guère les 16 %… A se demander d’ailleurs s’il est bien raisonnable de poursuivre cet effort de tri sélectif volontaire à la source auquel les Français semblent totalement rétifs quand on en voit les piètres résultats alors qu’il est en vigueur depuis des années et devrait désormais être entré dans les habitudes au vu de tous les efforts pédagogiques entrepris, y compris en milieu scolaire depuis le plus jeune âge

C’est d’ailleurs ce que préconise le directeur du centre Altriom qui envisage désormais de supprimer carrément la collecte sélective dans le centre-ville du Puy. Un choix statégique qui serait certainement vécu comme une incroyable reculade de la part de tous ceux qui se battent depuis des années pour que chaque citoyen prenne conscience qu’il doit être acteur de la gestion de son environnement et que réduire ses déchets en triant tout ce qui peut-être valorisé fait partie des gestes qui lui incombent en toute responsabilité… D’autant qu’en réalité le système revient à envoyer entre 38 et 46 % de ses flux de déchets entrants directement dans les fours de cimenterie.

Voilà en tout cas un beau débat de société en perspective !

L.V.  

Les derniers rebuts de Thulé

18 novembre 2017

Au printemps 1948, à l’issue de ses études à l’Institut de Géographie de l’Université de Paris, le jeune Jean Malaurie, embarque à 26 ans pour participer à la première expédition polaire conduite par Paul-Emile Victor au Groenland. Il renouvellera l’expérience l’année suivante mais se détourne très vite de ce programme d’exploration scientifique qui ne s’intéresse nullement à la vie des habitants du cru, les Inuits.

Jean Malaurie en avril 1951 (photo © Collection personnelle Jean Malaurie)

En juillet 1950, Jean Malaurie repart donc seul au Groenland pour y conduire, pour le compte du CNRS, la première expédition polaire française à visée à la fois géographique et ethnographique. Il ne s’intéresse pas seulement à la géomorphologie des terres arctiques qui sera le sujet de sa thèse, mais aussi et surtout aux hommes qui y vivent. Il établit ainsi des liens d’amitiés avec le groupe de chasseurs de phoques de Thulé avec qui il passe un hiver entier, dressant pour la première fois et sur quatre générations, l’arbre généalogique de la petite communauté isolée dans des conditions extrèmes.

Avec l’Inuit Kutsikitsoq et deux traineaux à chiens, sans radio ni boussole (inexploitable à ces latitudes), ils seront ainsi les deux premiers hommes au monde à atteindre le pôle nord magnétique, le 29 mai 1951.

Le 16 juin 1951, il découvre fortuitement à Thulé, une base militaire américaine construite secrètement pour accueillir des bombardiers nucléaires. Il observe avec consternation, de ses yeux d’ethnologue, le choc culturel auquel sont confrontés les Inuits dont la civilisation relève alors quasiment de l’âge de la pierre, et qui se retrouvent brutalement face à une débauche de moyens matériels déversés par la puissance militaire américaine. Le choc est brutal et Jean Malaurie saisit rapidement les enjeux culturels et politiques de cette rencontre, au point qu’il décide de prendre publiquement position contre l’implantation de cette base.

C’est cette découverte qui sera une des principales motivations de la publication de son livre intitulé Les derniers rois de Thulé, un best seller qui paraît en 1955 aux éditions Plon, et qui inaugure une nouvelle collection, baptisée Terre humaine, que dirigera désormais Jean Malaurie, une collection prestigieuse qui éditera notamment Tristes Tropiques de Claude Lévi-Strauss, Le cheval d’orgueil de Pierre Jakez Hélias, ou encore Pour l’Afrique, j’accuse de René Dumont. Élu en 1957, sur recommandation de Fernand Braudel et de Claude Lévi-Strauss, à la première chaire de géographie polaire de l’histoire de l’Université française, créée pour l’occasion à l’École pratique des hautes études, Jean Malaurie fonde en 1958 le Centre d’études arctiques, et lance, en 1960, Inter-Nord, la grande revue arctique du CNRS.

Cette base militaire américaine de Thulé, dont les premières installations datent de 1941, a subi une importante extension en 1951, avec l’accord des autorités danoises et dans le cadre de l’OTAN, mais sans la moindre consultation des populations autochtones. Pire, en 1953, les 187 Inuits qui vivaient à proximité ont été purement et simplement expulsés et contraints en quelques jours seulement d’abandonner leurs campements et leurs territoires de pêche et de chasse qu’ils occupaient depuis des millénaires, pour s’exiler 150 km plus au nord, à Qaanaaq. Il leur faudra attendre 1999 pour qu’ils reçoivent enfin un dédommagement pour cet exil forcé !

Inuits déménagés à Qaanaaq après la construction de la base de Thulé (photo de presse source Yonder)

Avion de chasse américain à Thulé en 1960 (source © United States Air Force)

C’est que la base américaine de Thulé est devenue hautement stratégique puisqu’elle accueille dans le plus grand secret des bombardiers stratégiques et un personnel militaire pléthorique allant jusqu’à 10 000 personnes. C’est depuis cette base que durant l’hiver 1956-57, en pleine guerre froide, des Boeing B-47 Stratojet effectuèrent des vols de reconnaissance pour aller inspecter les défenses soviétiques. En 1954, l’armée US y procède à l’édification de la Globecom Tower, un mât radio d’une hauteur de 378 mètres qui, lors de sa construction, constituait la troisième plus haute construction humaine sur terre…

Vue aérienne de la base de Thulé

Le 21 janvier 1968, alors que l’activité de la base a connu un certain ralentissement mais abrite encore près de 4 000 agents, un bombardier B-52 Stratofortress s’abîme dans l’océan Arctique, près du Groenland. Ce bombardier transportait quatre bombes nucléaires, dont trois ont été pluvérisées sur la banquise et en mer, la quatrième n’ayant jamais pu été repêchée. De nombreux Inuits, réquisitionnés pour participer aux opérations de nettoyage après la catastrophe, ont développé des maladies du fait des radiations auxquelles ils ont été exposés et ont eu toutes les peines du monde à obtenir des indemnisations après des années de combat juridique.

En 1959, c’est depuis la base de Thulé qu’a été entreprise, toujours dans le plus grand secret, la construction d’une autre base militaire, dénommée Camp Century et située au nord du Groenland, à 240 km de la côte. Il s’agissait officiellement d’une simple base de recherche, constituée de tunnels creusés sous la calotte glaciaire, de laboratoires scientifiques et d’un hôpital alimenté en électricité par un petit réacteur nucléaire acheminé sur place en pièces détachées et mis en service en octobre 1960. C’est d’ailleurs depuis cette base qu’ont été extraites les carottes de glace à partir desquelles le géophysicien danois Willi Dansgaard a réalisé les premières études sur l’évolution du climat depuis 100 000 ans.

Tunnel en construction à Camp Century (source © Frank J. Leskovitz)

Mais Camp Century abritait aussi une base militaire top secret construite dans le cadre du projet Iceworm (« ver de glacier ») et dont l’objectif était d’installer 600 missiles balistiques capable de frapper l’URSS. Pas moins de 21 tunnels ont ainsi été creusés sous la glace et jusqu’à 200 personnes travaillaient sur place en période estivale. Mais en 1964, les mouvements de la banquise se sont révélés tels qu’il a bien fallu se rendre à l’évidence et abandonner le projet. Le réacteur nucléaire a été démantelé et la base est tombée à l’abandon. Faute d’entretien, les tunnels se sont effondrés les uns après les autres et la base a été peu à peu ensevelie. Il a d’ailleurs fallu attendre janvier 1997 pour que le projet soit rendu public, lorsque l’Institut danois de la politique étrangère publia un rapport, à la demande du Parlement danois, concernant l’histoire des armes nucléaires au Groenland. Ce rapport provoqua un véritable scandale, puisqu’il montrait qu’à l’époque le gouvernement danois avait autorisé tacitement le transport d’armes nucléaires au Groenland, en violation avec la déclaration officielle du Premier ministre, Hans Christian Hansen, qui affirmait en 1957 que le Danemark était une zone totalement exempte d’armes nucléaires.

Etat de la base lors d’une inspection en 1969 (source © Frank J. Leskovitz)

Le problème est que, 50 ans après l’abandon du projet, le réchauffement climatique qui touche particulièrement les hautes latitudes terrestres et provoque désormais des feux de brousse jusqu’au Groenland, menace la stabilité de ces vestiges qui à l’époque étaient enfouis sous 30 m de neige et qui s’étendent sur 55 hectares. Si la fonte de la glace se poursuit au rythme actuel, elle ne sera bientôt plus compensée par les chutes de neige, et les vestiges enterrés vont peu à peu être exhumés. Or il reste encore sur place plus de 200 000 l de fuel stocké dans des cuves sans doute percées depuis belle lurette par la rouille, ainsi de 20 000 l de produits chimiques divers et variés, 240 000 l d’eaux usées jamais traitées et 9 200 t de déchets de nature diverses, ainsi que des générateurs et transformateurs contenant des PCB, sans compter l’enceinte de confinement du réacteur nucléaire, toujours radioactive…

Voilà, s’il en était besoin, un exemple supplémentaire des conséquences potentielles de certaines des idées géniales qui ont germé un jour dans l’esprit de nos dirigeants et de nos élites militaires empreintes de la plus grande confiance dans leur toute puissance technologique, mais peu regardantes sur les risques que leurs élucubrations hasardeuses pouvaient faire courir aux générations futures…

L.V.  

A quoi sert donc le Parc des Calanques ?

30 octobre 2017

Au dessus de la calanques d’En Vau

Souvenons-nous des débats homériques qui avaient secoué le petit monde politique local lorsqu’avait été lancée, en 2009, la concertation en vue de définir les contours du futur Parc national des Calanques, alors en gestation depuis une dizaine d’années mais dont la mise en œuvre devenait envisageable grâce à la réforme des parcs nationaux adoptée en 2006 et surtout suite à l’arrêté de prise en considération du projet signé par le premier ministre de l’époque le 20 avril 2009, un certain François Fillon, qui s’est depuis illustré par d’autres actions moins glorieuses…

Lors d’une conférence organisée sur Carnoux à ce sujet en décembre 2009, les craintes que suscitaient le projet avaient été lourdement exprimées. Comme de coutume, la plupart des élus locaux étaient alors mobilisés contre ce projet, perçu comme une main mise de l’État et dont la concrétisation allait nécessairement se traduire par l’imposition de contraintes supplémentaires et la perte de certaines de leurs prérogatives en matière d’aménagement du territoire et de développement urbain.

Extrait d’un article publié dans La Provence le 11 décembre 2009

Ce sont d’ailleurs ces arguments qu’a mis en avant le conseil municipal de Carnoux pour décider à l’unanimité de son refus de s’intégrer à l’aire d’adhésion du Parc lors de sa création en avril 2012. Tout le monde ou presque était alors persuadé que la création de ce Parc national allait se traduire par une mise sous cloche du massif des Calanques, sous le regard sourcilleux d’agents assermentés veillant scupuleusement à la stricte application de réglements tatillons, de nature à interdire toute activité de pêche, de chasse et de loisir.

Panneau de signalisation du Parc national des Calanques (route des Crêtes)

Mais les élus locaux se sont tellement démenés que les contours du Parc ont été réduits à la portion congrue et la charte du Parc complètement vidée de sa substance. Du coup, 5 ans après sa création, le Parc national des Calanques est comme transparent. En dehors de quelques panneaux bien discrets posés à certaines entrées et de quelques dizaines d’agents qui patrouillent dans le massif pour rappeler avec patience les règles de base à respecter dans un espace naturel protégé, l’impact du Parc national est jusqu’à présent excessivement modeste.

L’émissaire de Cortiou par où sont déversés les effluents de la station d’épuration Géolide dans le coeur marin du Parc national des Calanques

Aucun arrêt de l’urbanisation n’a été constaté depuis la création du Parc et la bétonisation se poursuit comme jamais dans toutes les communes limitrophes, de Marseille à La Ciotat en passant par Cassis. Les eaux usées de toute l’agglomération marseillaise et de Cassis continuent de se rejeter en plein coeur du Parc national, de même d’ailleurs que les déchets industriels toxiques de l’usine d’alumine de Gardanne, malgré les avis négatifs exprimés par le Ministère de l’Environnement, mais avec l’aval des élus du Parc, tandis que les eaux limpides des calanques continuent d’être sillonnées en tout sens par des norias de bateaux à touristes, de yachts privés, de hors-bord et de jet ski tous plus bruyants et plus polluants les uns que les autres..

Quant à la chasse, non seulement le Parc national ne l’a pas interdite sur son périmètre mais de surcroit il y autorise explicitement la chasse aux gluaux, pourtant expressément illicite aux yeux de la législation européenne, ainsi que le lâcher de gibier de tir, de ces faisans d’élevage sachant à peine voler qui sont lâchés dans la nature la veille de l’ouverture et qui se font écraser sur les routes par des automobilistes distraits.

Ballet de bateaux à l’entrée de la calanque de Port Miou

Pour ce qui est de la pêche, et en dehors des quelques zones de non-pêche soigneusement délimitées, la réglementation est des plus légères, autorisant par exemple pour la pêche de loisir 7 kg de poissons par jour et par personne auxquels s’ajoutent 15 prises tels que loups, daurades, congres ou bonites… Difficile de définir des règles moins contraignantes ! Elles résultent d’ailleurs de décisions prises par une commission rassemblant de nombreux acteurs socio-économiques : prudhommies de pêche, comité régional de pêche, représentations de fédérations de pêche de loisir, clubs et sociétés nautiques de pêche… Autant dire que chacun y plaide d’abord pour ses propres intérêts !

Mérou brun, espècé protégée (photo © Hervé Thedy)

En réalité, les seules limites qu’a réussi à fixer le Parc national concerne la lutte contre le braconnage, dans le but avoué de ne pas venir concurrencer les intérêts des pêcheurs professionnels. Et pourtant, force est de constater que même sur ce point le Parc national n’a pas fait preuve jusque là d’une grande efficacité comme vient de le démontrer l’affaire qui défraie l’actualité et qui a été révélée par un article de La Provence le 24 octobre dernier.

Les faits ne datent pas d’hier puisqu’ils ont été dénoncés en septembre 2015 par un groupe de plaisanciers excédés d’observer, jour après jour, des braconniers venir pêcher en toute impunité et avec de gros moyens dans les zones interdites du Parc, notamment autour de l’île de Riou ou près du phare du Planier. Ils adressent alors une lettre anonyme à la compagnie de gendarmerie maritime de Marseille, mais sans aucun effet. Un an plus tard, un pêcheur professionnel revient à la charge et prend à son tour la plume pour dénoncer ces agissements scandaleux et illicites, qui sont d’ailleurs confirmés par des observations effectuées par les agents du Parc national eux-mêmes.

Les gendarmes finissent par ouvrir une enquête et mettent sur écoute les téléphones portables des suspects, entre septembre 2016 et février 2017, tout en épluchant leurs comptes bancaires. Ils n’ont alors aucun mal à confirmer l’existence d’une véritable entreprise de braconnage à grande échelle, aux activités quasi industrielles. Deux pêcheurs professionnels, dont l‘un a d’ailleurs déjà été condamné il y a deux ans pour activité illégale dans ce même Parc des Calanques, sont mis en cause et les montants en jeux sont considérables.

Extrait d’une plaquette éditée par le Parc national des Calanques

Vue de la calanque d’En Vau et du Cap Canaille

Les biens utilisés pour ce braconage à grande échelle, dont un bateau semi-rigide explicitement nommé « Bracoboat » ont été saisis pour une valeur estimée à environ 200 000 €, ce qui confirme l’échelle industrielle de ce trafic. Les 4 pêcheurs et chasseurs sous-maris impliqués dans ce pillage en règle des richesses biologiques du Parc national des Calanques sont poursuivis pour travail dissimulé et blanchiment de travail dissimulé en bande organisée, pêche maritime dans une zone interdite et mise sur le marché par un établissement non agréé, de produits d’origine animale destinés à la consommation humaine. Ils comparaîtront devant le tribunal correctionnel de Marseille le 8 novembre prochain et risquent de lourdes amendes.

En parallèle, 8 revendeurs qui écoulaient le produits de leurs pêches miraculeuses, dont des poissonniers et grossistes ainsi que des restaurateurs renommés de Marseille, sont convoqués devant le délégué du Procureur de la République car ils sont également poursuivis pour achat en connaissance de cause, de produits de la pêche sous-marine non professionnelle et d’achat non autorisé d’espèces animales protégées, dont certaines étaient d’ailleurs pêchées dans des zones réputées inalubres au droit de l’émissaire de Cortiou en particulier.

Ecogardes du Parc national des Calanques

Ce véritable pillage organisé qui se déroule depuis des années au nez et à la barbe des agents du Parc national des Calanques dont la principale raison d’être consistait pourtant à assurer une meilleure protection des richesses environnementales de ce milieu naturel exceptionnel, conduit à s’interroger sur l’efficacité réelle de cet outil. L’implication forte des collectivités locales dans sa gouvernance était certes une nécessité pour permettre l’acceptation du projet, mais elle s’est traduit par un tel affaiblissement des contraintes réglementaires qu’on en vient à se demander si le Parc, dans son fonctionnement actuel, présente la moindre utilité, même si les plus optimistes diront que ce serait sans doute bien pire sans cela…

L.V.  

Des algues à la rescousse de la planète

21 octobre 2017

A Paris, la société Suez Environnement vient d’installer une nouvelle sorte de mobilier urbain qui rappelle furieusement les antiques colonnes Morris, lesquelles parsemaient les artères de la capitale au XIXème siècle pour afficher spectacles et informations diverses. Dressée sur la place d’Alésia dans le 14ème arrondissement, au centre d’un carrefour où transitent chaque jour en moyenne pas moins de 72 000 véhicules, cette colonne d »un nouveau style, est en réalité un puits de carbone expérimental, ainsi que l’ont rapporté notamment Le Monde et Les Echos.

Colonne Morris aquarium installée place d’Alésia (photo © Gilles Rolle / REA)

Le principe de fonctionnement est des plus simples. Comme chacun sait, les algues, ainsi que tous les végétaux pourvus de chloroplastes et aptes à la photosynthèse, absorbent en présence de lumière le gaz carbonique dont elles assimilent le carbone et rejettent l’oxygène.

La colonne Morris high tech de 4 m de hauteur installée en juillet 2017 place d’Alésia par Suez en accord avec la Mairie de Paris n’est ni plus ni moins qu’un vaste aquarium de 1 m³ qui contient des microalgues. Un système de ventilation leur permet de s’alimenter avec l’air ambiant chargé en gaz carbonique et en polluants divers dont le dixyde d’azote (NO2) rejeté en grande quantité par les pots d’échappement des véhicules et dont la quantité à cet endroit dépasse régulièrement le seuil réglementaire de 40 µg/m³, selon les données d’Airparif.

Principe de fonctionnement du puits de carbone (source © SUEZ)

Des diodes électroluminescentes fournissent aux algues l’éclairage suffisant pour optimiser les réactions de photosynthèse et l’oxygène ainsi produit est rejeté dans l’air ambiant grâce au système de ventilation : rien de plus simple, il suffisait d’y penser ! A force de se goinfrer ainsi de gaz carbonique, les microalgues vont naturellement croître et se multiplier. Quand il y en aura trop, un coup de chasse d’eau et la biomasse en excès filera via le réseau d’assainissement vers la station d’épuration où elle sera transformée en biogaz. Après traitement, le méthane ainsi récupéré sera ensuite réinjecté dans le réseau de gaz naturel. Un bel exemple d’économie recyclée où l’on est gagnant à chaque étape…

Prototype en cours de test à la station d’épuration de Colombes (source © SUEZ)

Le dispositif, mis au point avec la start-up Fermentalg, basée à Libourne en Gironde et spécialisée dans la production de microalgues destinées à la nutrition humaine et animale, a fait l’objet d’une présentation lors de la COP 21 en décembre 2015. En janvier 2017, un premier test en vraie grandeur a été effectué à l’usine de traitement des eaux usées du SIAAP (Syndicat interdépartemental de l’assainissement de l’agglomération parisienne) à Colombes où un puits de carbone a été mis en place, alimenté par les gaz à effet de serre rejetés par les fumées du four d’incinération des boues de l’usine. Le système a donné entière satisfaction et la durée de vie des algues s’est révélée bien plus longue que prévu grâce à cette source d’alimentation constante en CO2.

Devant le succès de l’opération, la question s’est posée de poursuivre l’expérimentation dans un site urbain où les taux de gaz carbonique varient davantage. Célia Blauel, adjointe en charge de l’environnement à la mairie de Paris, s’est ainsi laissée convaincre et la fameuse colonne Morris a donc été installée place d’Alésia. L’objectif est de fixer une tonne de CO2 par an, soit un effet comparable à une centaine d’arbres, tout en produisant une dizaine de kg de biométhane, un objectif jugé bien modeste par certains au vu du coût de l’investissement, qui n’a pas été communiqué mais qui semble assez élevé. Le système permettra aussi d’absorber une partie des polluants atmosphériques de type oxydes de soufre, mais c’est seulement à l’issue de cette phase expérimentale qu’on pourra déterminer dans quelle proportion.

Bref, le chemin semble encore bien long avant que de telles colonnes épuratoires ne se développent dans les rues de la capitale, mais l’idée est ingénieuse et vient rappeler à quel point les algues peuvent être des auxiliaires précieux de notre vie quotidienne. Les microalgues en particulier, qui sont très abondantes dans de nombreux milieux naturels et peuvent facilement être cultivées sans nécessiter pour cela de vastes surfaces agricoles, ont un potentiel de développement dix à trente fois supérieur aux plantes terrestres, puisqu’elles sont capables de doubler leur biomasse chaque jour dans des conditions optimales.

Réacteurs photo-biologiques pour la culture de micro-algues (source © WebTV de l’Université de Nantes)

Utilisées de longue date comme nutriment, cosmétique, colorant ou complément alimentaire, les microalgues pourraient bien contribuer demain à la production de biocarburants, pour l’instant issu surtout de la transformation de soja mais au prix de l’accaparement de vastes superficies de terres agricoles. Ainsi, des chercheurs chiliens sont parvenus récemment à produire du biodiesel à base de microalgues en essayant de réduire autant que possible la quantité d’énergie nécessaire pour la croissance de ces organismes unicellulaires, mais le procédé reste pour l’instant au stade de la recherche.

Bitume bio obtenu à partir de résidus de microalgues (source © WebTV de l’Université de Nantes)

En attendant, des chercheurs du CNRS et de l’université de Nantes associés avec la société AlgoSource Technologies basée à Saint-Nazaire, sont peut-être en train de mettre au point le bitume algaire de demain, ainsi que l’a rapporté Le Monde. Leurs travaux, issus du projet Algoroute, publiés en avril 2015 dans la revue ACS Sustainable Chemistry & Engineering et qui ont fait l’objet du dépôt d’un brevet, montrent en effet qu’il est possible, en laboratoire, d’obtenir à partir de résidus de microalgues placés dans un bain d’eau chauffée sous pression, une substance visqueuse hydrophobe, qui présente des caractéristiques similaires à celles du bitume pétrolier : même couleur noire, même viscoélasticité qui assure la cohésion des granulats entrant dans la composition des revêtements routiers, et propriétés rhéologiques comparables conférant au matériau résistance et flexibilité sous l’application de charges roulantes.

Voilà en tout cas qui laisse entrevoir, pour un avenir peut-être proche, des possibilités intéressantes de substitution de certains produits dérivés de l’exploitation pétrolière. A défaut de se passer de routes et de voitures, ce sont peut-être les cultures d’algues qui permettront un jour de trouver enfin un équilibre durable entre développement économique et pérennité de notre environnement naturel…

L.V.  

Ciel d’apocalypse en Bretagne et fournaise portugaise

18 octobre 2017

Le ciel au-dessus des toits de Rennes, lundi 16 octobre après-midi (photo © Marie Dufay / AFP)

Voilà encore de bien étranges manifestations du changement climatique global que l’on peut observer et dont les médias se sont largement fait l’écho. Ce lundi 16 octobre 2017, les Bretons ont eu la surprise d’observer un ciel plombé couleur jaune sépia plongeant leur quotidien dans une lumière crépusculaire et glauque alors que le thermomètre marquait 19 °C à Brest, à 8h du matin, et jusqu’à 25 °C dans la journée, des températures pour le moins inhabituelles à cette période de l’année.

Cette sinistre coloration jaunâtre du ciel, s’accompagnant d’une odeur prononcée de cendre, a plongé plusieurs villes bretonnes dans une ambiance quasi apocalyptique qui a beaucoup fait jaser sur les réseaux sociaux. Cette situation découle directement du flux d’air orienté du sud et correspondant au déplacement de l’ouragan Ophelia. Ces vents qui soufflaient lundi jusqu’à 130 km/h se sont chargés, lors de leur passage sur les côtes nord-africaines, de très nombreuses particules sableuses qu’ils ont charriés à travers toute la péninsule ibérique puis dans leur traversée du Golfe de Gascogne.

Ciel jaune et températures élevées pour la saison en Bretagne heures (photo © David Vincent / AP)

De nombreux records de chaleur ont été battus du fait de cette arrivée d’air subtropical poussé par la tempête Ophelia. On a ainsi relevé plus de 30 °C à Pau ou Mont-de-Marsan et même 31 °C à Vic-en-Bigorre dans les Hautes-Pyrénées. A Calais, le thermomètre a affiché jusqu’à 26 °C, soit 10 °C de plus que les normales saisonnières. A Uccle, près de Bruxelles, la station météo qui date de 1833 n’avait jamais enregistré un tel record de chaleur (25,7 °C) à une période aussi tardive de l’année…

Après la Bretagne, c’est le sud de l’Angleterre qui a été frappé par le même phénomène. Dans l’après-midi du 16 octobre, la ville de Londres elle-même a été plongée dans cette atmosphère irréelle et angoissante occasionnée par un ciel orangé.

En parallèle, la tempête s’est renforcée en poursuivant sa route vers les côtes irlandaises. A la mi-journée, des rafales soufflant à 190 km/h ont été enregistrées à la pointe sud de l’île. De nombreuses toitures se sont envolées et on déplore trois morts, pour la plupart écrasés suite à la chute d’arbres. Le soir, environ 360 000 foyers étaient privés d’électricité. Cette tempête est sans doute une des pires qu’ait connue l’Irlande depuis le passage de l’ouragan Debbie en 1961, qui avait fait 11 victimes.

Passage de l’ouragan Ophelia sur les côtes irlandaises

Mais en Bretagne comme en Angleterre, l’air n’était pas seulement chargé de particules sableuses d’origine saharienne. Il charriait aussi les cendres des gigantesques incendies qui ravagent actuellement le Portugal, attisés par ces vents violents qui balaient les côtes de la péninsule ibérique. Des centaines de départs de feu se sont ainsi déclarés dimanche 15 octobre dans le nord et le centre du Portugal, ainsi que dans la région espagnole voisine de Galice. Certains semblent d’origine criminelle mais la plupart sont liés à l’imprudence, et tous ont été attisés par les vents violents de l’ouragan Ophelia, se propageant rapidement du fait de l’extrême sécheresse de la végétation après des mois de déficit pluviométrique.

A ce jour, on estime à 350 000 hectares au moins la superficie qui est ainsi partie en fumée au Portugal lors de cet épisode, et le bilan humain est particulièrement lourd avec 4 morts en Espagne et 41 au Portugal. Plus de 3000 pompiers ont été mobilisés pour lutter contre les flammes, avec même l’aide de bombardiers d’eau italiens.

Feu de forêt dans la région de Leiria, le 18 juin 2017 (photo © Patricia De Melo Moreira / AFP)

Déjà, en juin dernier, le pays avait été victime d’un gigantesque incendie qui avait provoqué la mort de 64 personnes dans la région de Leiria. Provoqué par la foudre alors que les températures au sol dépassaient les 40 °C, le feu avait progressé à une vitesse phénoménale parmi les forêts de pins et d’eucalyptus, piégeant de nombreux habitants dans leur maison ou sur les routes. Un véritable désastre malgré la mobilisation de 2000 pompiers volontaires.

A côté de ces feux de forêts catastrophiques, l’incendie qui a menacé Carnoux cet été paraît bien anodin même s’il aurait pu avoir lui-aussi des conséquences dramatiques. Et bien d’autres se sont produit récemment à travers le monde. Ainsi, la Californie qui fait l’objet depuis le 8 octobre de violents incendies, les pires peut-être que cette région a connu depuis 1933, même si en septembre 2015 déjà, la Californie avait été ravagée par les flammes, déplorant alors la destruction de plus de 600 bâtiments dont de nombreuses maisons d’habitation.

Maison en flamme dans la région de Napa en Californie le 9 octobre 2017 (photo © AFP)

Depuis le début du mois d’octobre, 22 départs de feu ont été notés et le dernier bilan disponible à ce jour fait état de 86 000 hectares brûlés avec près de 5 000 maisons réduites en cendres. Plus de 600 000 personnes ont dû être évacuées en catastrophe et au moins 41 mort sont à déplorer, ainsi que 88 disparus. Un très lourd bilan donc et des images d’apocalypse là aussi comme le montrent les photos aériennes : des lotissements entiers ont été totalement rayés de la carte suite au passage des flammes.

Fourgon postal distribuant le courrier dans les ruines de Santa Rosa, Californie, le 10 octobre 2017 (capture video © Douglas Thron)

Le photographe Douglas Thron, filmant avec son drone les ruines de la ville de Santa Rosa, dans le nord de la Californie, a néanmoins eu la surprise d’y repérer une activité insolite, celle du fourgon de la Poste venant consciencieusement distribuer le courrier dans les boîtes aux lettres, seules vestiges non calcinés au milieu d’un champ de ruines. Contrairement à la Poste de Carnoux, qui n’est plus que l’ombre d’un service public bien chancelant, la Poste californienne fait preuve d’un niveau de résilience remarquable…

L.V.

Un jardin se crée à Carnoux !

16 octobre 2017

Depuis des années, beaucoup de Carnussiens s’interrogeaient sur l’avenir de l’arboretum planté dans les hauts de Carnoux, juste à côté du cimetière. Cette parcelle municipale, autrefois occupée par un éphémère circuit automobile et où il avait été un temps évoqué l’idée d’y creuser un bassin nautique, avait été le support d’un projet séduisant porté par le Lion’s Club et qui consistait à y planter des espèces d’arbres variées dédiées à chaque naissance de nouveaux Carnussiens.

Une des stèles de l’arboretum, désormais dans le périmètre du jardin

Entièrement financé par la section locale du Lion’s Club et inauguré en 2006 par le maire de la commune, le projet a nécessité de remblayer l’ensemble de la parcelle avec plus d’1 m de terre pour espérer y voir prospérer des arbres, tous plantés en grandes pompes et assortis chacun d’une superbe stèle en béton portant fièrement une plaque gravée au nom des nouveaux nés du mois, devenant ainsi parrains et tuteurs de l’arbre. Une bien lourde responsabilité pour ces jeunes Carnussiens car, malgré les énormes quantités de terre rapportée (en réalité, des déchets de démolition lestés de blocs de béton et de plaques de goudron), le soin apporté à la mise en terre des arbres dans une grosse motte et malgré le réseau de goutte-à-goutte installé à grands frais sur tout le terrain, les pauvres arbres ont eu bien du mal à survivre au-delà de quelques années.

Le spectacle de désolation qu’offre depuis quelques années ce dernier espace encore vierge de Carnoux a incité quelques habitants de la ville à initier fin 2016 et après avoir visionné le film documentaire « Demain », réalisé par Cyril Dion et Mélanie Laurent, l’idée d’y créer un jardin collectif ouvert aux habitants de Carnoux, dans un esprit collaboratif et pédagogique. Fortement soutenu par Sophie Gébelin, adjointe en charge de l’environnement, le projet a fait l’objet d’un questionnaire diffusé en février 2017 à l’ensemble des associations de Carnoux afin de recueillir l’avis des habitants et évaluer leur potentiel souhait d’y participer.

La bonne surprise est venue du taux de réponse remarquable reçu à ce questionnaire puisque plusieurs centaines de familles se sont manifestées pour exprimer leur intérêt. Une association intitulée « Un jardin se crée à Carnoux-en-Provence » a donc été fondée dans la foulée et déclarée en Préfecture en mars 2017. La commune a accepté de laisser gratuitement à l’association, via une convention, la jouissance de quelques centaines de mètres carrés à titre expérimental, ainsi que la possibilité de se brancher sur le réseau de distribution d’eau qui irrigue déjà les arbres.

Quant au Lion’s Club, enthousiasmé par l’idée de redonner une deuxième vie plus verdoyante à cette parcelle en triste état, il a accepté d’accompagner financièrement le projet, ce qui a permis au petit groupe de volontaires d’acheter du grillage pour protéger le futur jardin contre les intrusions de sangliers et de mettre en place un système automatisé d’arrosage par goutte-à-goutte. Et ensuite, chacun s’est retroussé les manches pour commencer à aménager la future parcelle.

Le jardin en cours d’aménagement

Vu la nature des remblais qui la recouvrent, il n’était bien évidemment pas envisageable d’y semer directement radis et salades. L’association, qui souhaitait d’emblée s’inspirer d’une approche de type permaculture, a donc privilégié la culture sur buttes fertilisées à long terme par l’enfouissement de quantités importantes de matière organique sous forme de bois et déchets végétaux. Il s’agit bien sûr de cultiver sans intrants chimiques, en favorisant les associations culturales et en limitant le travail de labour.

Dès le printemps, le petit groupe de pionniers s’est donc retrouvé régulièrement les vendredis après-midi sur la parcelle pour l’aménager progressivement et constituer les premières buttes de culture à vocation expérimentale. Vus l’exiguïté du terrain alloué et la nature du sol a priori peu favorable au maraîchage, il n’était pas possible d’ouvrir trop largement l’association dès le départ, au risque de créer rapidement désillusion et découragement.

Et cet été, les résultats ont été à la hauteur des espérances avec de belles récoltes de tomates, de pommes de terre et de basilic en particulier. Il y a bien eu une tentative d’effraction (alors que la porte du jardin n’est pas fermée !), sans doute un peu de cueillette sauvage et surtout beaucoup de picorage des tomates par des pies affamées et des escargots gloutons, mais l’expérience a montré qu’il était tout à fait envisageable de poursuivre le maraîchage sur le plateau de l’Anguila malgré les conditions pédoclimatiques sans doute pas très optimales.

L’association s’est réunie le 29 septembre 2017 pour tirer un premier bilan de cette saison expérimentale, ce qui a permis d’intégrer quelques familles supplémentaires mais pour l’instant il n’est pas encore question d’étendre la superficie concédée par la commune.

Vue des nouvelles buttes aménagées le 14 octobre 2017

C’est donc toujours dans le même enclos que tous les sympathisants et volontaires se sont réunis ce samedi 14 octobre pour une journée de travail collectif qui a permis de remodeler largement une bonne partie de la parcelle. Quatre nouvelles buttes ont ainsi été aménagées, trois arbres fruitiers et plusieurs arbustes ont été plantés, le tout dans la bonne humeur, l’entraide et la convivialité !

L’aventure du jardin collectif expérimental de Carnoux se poursuit…

L. V. 

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Les îles Poubelles, une nouvelle nation émergente ?

1 octobre 2017

Que retiendra t-on de la 72ème assemblée générale des Nations-Unies qui vient de se tenir à New-York, du 12 au 25 septembre 2017 ? Le discours belliciste de Donald Trump, menaçant de rayer de la carte la Corée du Nord et de déchirer l’accord obtenu sur le nucléaire iranien, après 12 ans d’âpres négociations ? Celui de son homologue Emmanuel Macron, chantre du multilatéralisme, héraut de la lutte contre le réchauffement climatique et porte-parole des sans-voix et des opprimés ?

Source Plastic Oceans Foundation

Ou peut-être la campagne médiatique qui a beaucoup fait jaser dans les couloirs et qui vise la reconnaissance officielle d’un 196e État baptisé Trash Isles, autrement dit, Les îles Poubelles ? Une pétition toujours en ligne et qui a déjà recueilli plus de 125 000 signatures a en effet été remise au nouveau secrétaire général des Nations-Unies, António Guterres. Elle cherche, de manière quelque peu symbolique, à faire reconnaître comme un nouvel État, le gigantesque amas de déchets flottants, grand comme la France, qui s’étend au centre du Pacifique Nord.

La campagne est pilotée par le site américain LADbible soutenu par l’ONG Plastic Oceans Foundation. L’idée qu’ils mettent en avant paraît saugrenue mais ne manque pas de panache. On connaît depuis 1997, et leur découverte fortuite par le navigateur Charles Moore, l’existence de ces vastes amas de déchets qui dérivent dans tous les océans de la planète mais dont les principaux se regroupent sous forme d’immenses vortex concentrés par les courants marins circulaires dans le Pacifique nord mais aussi dans le Pacifique sud, l’Atlantique nord et sud et bien sûr l’Océan indien. La Méditerranée elle-même n’est pas épargnée par le phénomène, comme toutes les étendues marines bordées de zone densément urbanisées.

Situation des principales plaques de déchets flottants (infographie © Le Monde)

Les expéditions scientifiques se sont multipliées ces 15 dernières années pour explorer ce que certains ont dénommé « Le septème continent ». En décembre 2014, une vaste étude internationale, parue dans la revue PLOS ONE, à l’issue de 24 campagnes effectuées entre 2007 et 2013, non seulement sur les cinq grands gyres océaniques, mais aussi près des côtes australiennes, dans le golfe du Bengale et en Méditerranée, avait ainsi estimé à 269 000 tonnes la quantité de détritus flottant sur les mers du globe. On a plus récemment évalué à environ 8 millions de tonnes la quantité de déchets plastiques qui auraient été rejetés directement en mer au cours de la seule année 2010.

Des miliiers de déchets plastiques flottant (photo © Christophe Launay / Race for Water)

Nous avons tous en tête ces images de milliers de déchets flottants de toutes sortes qui s’amassent sur les plages et près des côtes, que certains essaient tant bien que mal de récupérer et de valoriser. Mais les études montrent que les vortex de déchets qui dérivent au milieu des océans ressemblent en réalité plutôt à une soupe compacte constituée de milliards de microdéchets de polyéthylène, de polypropylène et de polyéthylène téréphtalate (PET) dont la taille ne dépasse guère quelques millimètres et qui ne sont pas détruits par les micro-organismes..

Les gros éléments en plastique ont tendance en effet à se fragmenter sous l’action des vagues et du rayonnement solaire, mais aussi parce qu’ils rencontrent de nombreux oiseaux et mammifères marins qui les croient comestibles et qui en meurent bien souvent comme en attestent leurs cadavres. En revanche, ces minuscules fragments de plastique eux ne disparaissent pas et continuent de flotter entre deux eaux pendant des siècles, constituant d’immenses radeaux de la taille d’un pays européen voire bien davantage, et dont on a encore du mal à évaluer l’ampleur du volume immergé. On commence en revanche à mieux identifier les nombreux effets néfastes de ces micro-résidus non seulement sur la faune marine mais aussi comme vecteurs de la prolifération de certaines espèces invasives.

C’est pour tenter d’attirer l’attention sur cette situation inacceptable que certains ont eu l’idée de faire reconnaître comme un nouveau pays le plus vaste de ces continents de déchets, celui que l’on surnomme le « Great Pacific Garbage Patch » (la grande poubelle du Pacifique). L’ancien candidat aux élections présidentielles américaines, Al Gore, fait ainsi partie des tous premiers signataires de cette pétition et aspire à devenir citoyen de ce nouvel État en voie d’émergence qui possède déjà son drapeau, son passeport et même sa monnaie, le « débris », bien entendu…

Un billet du futur Etat en gestation ? (photo © Mario Kerkstra)

Pour pouvoir être reconnu comme nation, il faut en effet disposer d’un territoire, former un gouvernement, avoir une population permanente et être capable d’interagir avec les autres nations. D’où l’idée de cette pétition qui vise à recenser tous les volontaires désireux de devenir citoyen de ce futur État. 

Le passeport du futur pays ? (photo © Mario Kerkstra)

Si d’aventure le processus arrivait à son terme, ce radeau flottant de déchets serait en mesure de solliciter l’application de la charte de l’environnement édictée par les Nations-Unies et qui postule : « tous les membres doivent coopérer dans un esprit de partenariat global pour conserver, protéger et restaurer la santé et l’intégrité de l’écosystème planétaire ». Autrement dit, cela obligerait les autres nations à s’engager à venir nettoyer ce continent de déchets.

Une démarche pour le moins originale donc, qui, bien évidemment, n’a aucune chance d’aboutir, mais qui ne manque pas d’interpeller. Voilà que des dizaines de milliers de citoyens du monde, Américains pour beaucoup, se revendiquent citoyens d’un nouvel État en voie d’émergence et s’échinent à le faire reconnaître par les autres nations non pas pour le coloniser mais tout simplement pour le faire disparaître. A côté d’un tel casse-tête juridique, la crise de la Corée du Nord ressemble à de la petite bière…

L.V.  

Au Cameroun, des bouteilles à la mer…

28 septembre 2017

Alors que tous les médias sont focalisés sur les inondations récentes qui se sont produites dans le sud des États-Unis et aux Antilles suite au passage des derniers cyclones Harvey puis Irma, on aurait presque tendance à oublier que bien d’autres régions du monde ont été meurtries récemment par des événements climatiques tout aussi spectaculaires. Fin août 2017, on estime ainsi que plus de 1500 personnes ont péri du fait des inondations consécutives à la mousson en Asie du Sud-Est, principalement en Inde, au Népal, au Bengladesh et au Pakistan.

Inondations à Freetown, Sierra Leone, en août 2017 (photo © Jamie Hitchen / Twitter)

Mais l’Afrique est aussi régulièrement touchée par les inondations. Cet été, c’est notamment le Sierra Leone qui a été cruellement frappé par de terribles inondations qui ont dévasté plusieurs quartiers de la capitale Freetown où un bilan provisoire établi par la Croix-Rouge faisait état, mi-août, d’au moins 312 victimes recensées tandis que de spectaculaires coulées de boues ravageaient tout sur leur passage, éventrant de nombreuses maisons et ensevelissant des dizaines de personnes.

Le Cameroun fait partie de ces pays de l’Afrique subtropicale régulièrement touché par les fortes pluies qui s’abattent en été. Le 14 septembre dernier, le site Cameroon-info, faisait ainsi état de graves inondations qui paralysent la capitale Douala après trois jours de pluies particulièrement intenses tombant sans discontinuer, tandis que le 11 septembre, la ville de Yaoundé avait déjà essuyé des inondations dévastatrices.

C’est à l’occasion d’un tel déluge qu’un jeune étudiant camerounais avait constaté, en 2011, que son quartier pouvait être envahi en moins de 30 minutes, non seulement par des eaux plus ou moins chargées, mais surtout par une véritable marée de bouteilles en plastique ! Jetées partout dans les rues et sur les dépotoirs, les bouteilles en plastique sont en effet remobilisées dès que les flots se déversent dans la ville et viennent s’accumuler dans les points bas.

Face à une telle invasion, le jeune Ismaël Essome s’est lancé le défi de trouver des débouchés à toutes ces bouteilles en plastique indésirables. Une fois obtenu son diplôme d’ingénieur en gestion environnementale, et alors qu’il travaille pour une ONG internationale à la mise en valeur du littoral camerounais, il se met en tête d’essayer de construire des pirogues en assemblant des centaines de bouteilles en plastique.

En 2014, le gouvernement camerounais a pourtant pris la décision courageuse d’interdire les emballages non biodégradables sur l’ensemble du territoire : dorénavant, les producteurs et distributeurs de liquides vendus dans des bouteilles en plastique doivent assurer leur recyclage après usage. Pourtant, force est de constater que, trois ans plus tard, des millions de bouteilles encombrent toujours les villes du pays et s’amassent dans tous les cours d’eau et fossés de drainage.

Démonstration de navigation avec une pirogue (crédit photo © Madiba et Nature)

En août 2016, comme le raconte Le Monde Afrique, et après moult essais, Ismaël Essome réussit à construire une première pirogue constituée d’un millier de bouteilles en plastique de récupération, soigneusement rebouchées, et attachées entre elles par un lien en nylon. Deux planches forment l’ossature de la pirogue et vogue la galère…

Pour piloter ce projet un peu fou, Ismaël a fondé sa propre association, dénommée Madiba et Nature, destinée à promouvoir de manière très pragmatique la préservation de l’environnement et l’économie circulaire. Aidé de son neveu, il sillonne les rues pour collecter les bouteilles usagées et améliore sans cesse la structure de ses pirogues en plastique qu’il teste sur les plages pour démontrer aux pêcheurs professionnels leur efficacité.

Une pirogue ainsi assemblée peut transporter jusqu’à trois personnes et une charge de 90 kg. Elle est plus stable qu’une pirogue en bois traditionnelle, coûte deux à trois fois moins cher et s’avère plus durable car, contrairement au bois, le plastique met très longtemps à se dégrader. Sans compter que leur construction, non seulement ne contribue pas à la déforestation du pays mais participe au contraire à assainir l’environnement de ces déchets qui l’encombrent.

Une fois son prototype au point, le jeune Camerounais a formé une équipe de cinq personnes et fait appel à des volontaires, ce qui lui a permis de construire six pirogues en un an, qu’il utilise pour faire des démonstrations et convaincre les acheteurs potentiels. Il a déjà enregistré une cinquantaine de commandes destinées à la pêche artisanale et à l’écotourisme.

Les pirogues écologiques d’Ismaël Essome sur la plage de Londji, au Cameroun (crédit photo © Josiane Kouagheu)

Ainsi, à Londji, petit village de pêcheurs situé près de Kribi, dans une zone côtière touristique du Sud-Cameroun réputée pour ses plages de sable fin et ses mangroves, le président de la coopérative tente de monter, avec l’aide d’Ismaël Essome, un projet de centre d’accueil pour le moins original : les touristes y seront hébergés dans des cases construites à l’aide de bouteilles en plastique recyclées et ils pourront déguster du poisson pêché avec les pirogues conçues par Madiba et Nature : une vraie success story à la Camerounaise…

L.V. 

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.