Posts Tagged ‘Eau’

Sainte-Baume : le PNR nouveau est né !

17 février 2018

Rencontre le 21 décembre 2017 entre le premier ministre Edouard Philippe et le président du PNR Sainte-Baume en présence du président de la Région PACA, Renaud Muselier (source © PNR Sainte-Baume)

Ce n’est pas vraiment une surprise mais plutôt l’aboutissement d’un long et patient processus d’élaboration concertée qui a permis d’aboutir, le 20 décembre 2017 à la naissance officielle, via un décret signé par le premier ministre Edouard Philippe, du parc naturel régional (PNR) de la Sainte-Baume, le 52ème parc ainsi créé en France. Cinquante ans après la création du concept de « parc naturel régional » en 1967 par le Général de Gaulle, ces 52 PNR couvrent désormais 15 % du territoire national et 6 % de la population française y habite.

En effet, contrairement aux parc nationaux qui existent en France depuis 1963 mais qui ont plutôt vocation à protéger des espaces naturels peu habités, les PNR ont été créés sous l’impulsion de la DATAR dans une perspective d’aménagement d’espaces ruraux dans des secteurs qui présentent non seulement un patrimoine environnemental remarquable mais aussi un patrimoine culturel voire un cadre de vie et d’activités qu’il importe de préserver en vue de favoriser le développement économique et touristique local.

La région PACA possède désormais 8 parc naturels régionaux dont le plus emblématique est sans doute celui de Camargue, mais parmi lesquels on peut citer aussi ceux du Queyras, du Luberon, du Verdon ou encore des Alpilles. Autant de lieux d’une grande richesse écologique et qui présentent des paysages hors du commun, mais qui sont avant tout des espaces de vie structurés autour d’une charte qui traduit un véritable projet de développement territorial.

Pour ce qui concerne le PNR de la Sainte-Baume, le projet était en gestation depuis une dizaine d’années, même si certains pionniers en soutenaient l’idée depuis les années 1970, et a fait l’objet ces derniers temps d’une intense concertation entre les collectivités locales, les services de l’État, les partenaires associatifs et les acteurs économiques. Présidé par Michel Gros, par ailleurs maire de La Roquebrussane, le nouveau PNR couvre une superficie de 810 km² et s’étend sur le territoire de 26 communes du Var et des Bouches-du-Rhône. 80 % de ce territoire est constitué d’espaces naturels mais 58 500 habitants y vivent, avec des activités économiques variées.

Limites du périmètre du PNR Sainte-Baume

Le parc est situé aux portes de Carnoux puisque la commune tout proche de Cuges-les-Pins est entièrement située dans le périmètre du nouveau PNR qui s’étend au nord jusqu’à Saint-Maximin et à l’est jusqu’à Brignoles. L’inauguration du nouveau parc n’est pas encore fixée mais devrait avoir lieu au cours du premier trimestre 2018.

En attendant, le syndicat mixte du PNR anime déjà depuis un an les deux sites Natura 2000 partiellement juxtaposés au cœur du parc : Massif de la Sainte-Baume (zone spéciale de conservation, définie au titre de la directive européenne Habitats) et Sainte-Baume occidentale (zone de protection spéciale, définie au titre de la directive européenne Oiseaux). Des inventaires biologiques et une étude socio-économique ont déjà été conduits en 2017 dans ce cadre, en vue de définir les enjeux et les objectifs de conservation. Une fois ce diagnostic posé, un programme d’action sera élaboré d’ici 2019, afin de définir les axes d’intervention pour préserver ce patrimoine naturel remarquable qui contient notamment la fameuse hêtraie historique de la Sainte-Baume ainsi que des sources pétrifiantes spectaculaires dans des formations de travertins, et qui abrite de nombreuses espèces animales et végétales rares.

Entablements de travertins à la source de l’Huveaune (source © Les balades de Gecko)

Le processus de concertation engagé depuis des années avec de nombreux acteurs du territoire en vue de l’émergence de ce nouveau PNR est détaillé sur le site du nouveau syndicat mixte. On y retrouve, outre de nombreux éléments de présentation du projet, dont un film grand public qui met en avant les atouts et caractéristiques de ce territoire, un rappel de la genèse de cette aventure qui s’est concrétisée en 2012 par la création d’un syndicat de préfiguration du futur PNR. L’année suivante a été mis sur pied un Conseil de développement, rassemblant de nombreux acteurs locaux fédérés autour du projet, et a été lancée la concertation en vue d’élaborer un diagnostic partagé et de dessiner les grandes lignes de la future charte du parc.

Un document de synthèse qui présente les grandes lignes de la charte

Il a fallu ensuite attendre 2015 pour que soit finalisée cette charte destinée à fixer pour les 15 ans à venir les grandes orientation du nouveau PNR. L’année 2016 a été mise à profit pour lancer la consultation auprès du Conseil national de protection de la nature et auprès des habitants (enquête publique), ainsi que pour permettre aux collectivités concernées de délibérer pour exprimer leur volonté d’adhésion. Et c’est donc en 2017 seulement que le syndicat mixte de préfiguration s’est transformé en syndicat mixte du parc tandis que le décret ministériel de labellisation du nouveau PNR était signé officiellement le 20 décembre dernier.

C’est donc à l’issue d’un long processus de co-construction que voit le jour cette nouvelle structure qui est désormais destinée à protéger et valoriser le patrimoine naturel, culturel et humain de ce vaste espace remarquable, via la mise en œuvre d’une politique cohérente d’aménagement et de développement économique, social et culturel, respectueuse de l’environnement.

La grotte de Ste Marie Madeleine à Plans d’Aups, un des sites emblématique du nouveau PNR (source © Provence verte)

Tout un programme qui va demander beaucoup de diplomatie et de pédagogie pour arriver à concilier les impératifs de préservation d’un écosystème fragile avec les ambitions légitimes des acteurs locaux en matière de développement économique et touristique, où comment marier en bonne intelligence les exploitations de carrières avec la préservation durable des ressources en eau du massif, les nuisances sonores du circuit automobile du Castellet avec le maintien d’une faune d’aigles de Bonelli et de chauve-souris endémiques, l’afflux de touristes avec les nécessités de recueillement autour de la grotte de Sainte Marie-Madeleine, les soucis de préservation du paysage avec le souhait de développer des sites de production d’électricité par centrales photovoltaïques, ou encore l’extension de la viticulture avec le développement d’une agriculture biologique adepte des circuits courts ?

Autant de défis passionnants auxquels le nouveau PNR de la Sainte-Baume va se trouver confronté au jour le jour et qui donnent un aperçu des difficultés de la tâche qui l’attend !

L.V.  

Publicités

Des villes menacées par la pénurie d’eau ?

15 février 2018

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Dominique Tian pris la main dans le sac

27 janvier 2018

Dominique Tian (photo © Kenzo Tribouillard / AFP)

Le premier adjoint au maire de Marseille, Dominique Tian, risque fort de ne jamais succéder à Jean-Claude Gaudin comme premier magistrat de la ville. Député depuis 14 ans dans les beaux quartiers de Marseille, Dominique Tian, qui faisait partie de l’équipe de campagne de François Fillon après avoir soutenu Bruno Le Maire, avait déjà annoncé qu’il démissionnerait de son poste de premier adjoint une fois réélu député pour la quatrième fois, loi sur le non cumul des mandats oblige.

Mais pas de chance pour lui car il a été sèchement battu aux dernières élections législatives, par une parfaite inconnue de 37 ans, Claire Pitollat, ingénieur de son état. Et voilà que le pauvre Dominique Tian vient de se voir condamné en première instance à une lourde peine par le Tribunal correctionnel de Paris pour « blanchiement de fraude fiscale et déclaration mensongère de patrimoine ».

L’affaire, que nous avions déjà évoquée ici, remonte à 2012, alors que le député fraîchement réélu à l’Assemblée nationale remplit sa déclaration de patrimoine en se gardant bien de mentionner qu’il détient plus de 1,5 millions d’euros sur un compte en Suisse ainsi qu’un hôtel 3 étoiles à Bruxelles. De simples peccadilles aux yeux de celui qui se présente d’abord comme un « homme d’affaires », d’obédience ultra-libérale comme le relate Marsactu à l’issue d’une de ses visites chez ses amis de l’association libérale Contribuables associés, dénonçant à cors et à cris « l’oppression fiscale », désireux de faire disparaître le statut de la fonction publique territoriale et auteur en 2011 d’un rapport au vitriol dénonçant la fraude aux cotisations et prestations sociales.

Dessin de Soulcié, publié par Anti-K

Créée en 2013 suite à l’affaire Cahuzac qui avait menti pour dissimuler son compte en Suisse, la Haute Autorité pour la transparence de la vie publique (HATVP) est chargée de contrôler les déclarations de patrimoine et d’intérêts des responsables publics français. Dotée de pouvoirs élargis par rapport à la commission qu’elle remplace, ainsi que l’explique Le Monde, la HATVP peut croiser les déclarations de patrimoine avec les fichiers des services fiscaux, ce qui lui a permis de prendre la main dans le sac plusieurs parlementaires parmi lesquels le sénateur LR de la Haute-Marne Bruno Sido, condamné à six mois de prison avec sursis et 60 000 euros d’amende en avril 2016, pour avoir également omis de signaler l’existence de son compte bancaire en Suisse.

En avril 2015, la Haute autorité a ainsi déclenché une enquête administrative à l’encontre de Dominique Tian. Celui-ci indique pour sa défense que le compte en Suisse lui vient d’un héritage de son père, « un chef d’entreprise marseillais exerçant dans l’univers des soins et des retraites » selon les informations de La Provence et qu’il avait tenté de négocier une régularisation dans le cadre du dispositif de rapatriement des capitaux mis en place en 2013 par le ministre du budget d’alors, Bernard Cazeneuve. Quant à l’hôtel belge, l’élu prétend qu’il ne lui appartient pas en propre mais à une de ses sociétés : la nuance est subtile…

Toujours est-il que le premier adjoint de Marseille a dû comparaître devant la 11e chambre du Tribunal correctionnel de Paris le 1er décembre 2017. Après plus de cinq heures d’audience, le procureur de la République Pierre Jeanjean a alors requis une peine de prison de 12 mois avec sursis à l’encontre du 1er adjoint au maire de Marseille, ainsi qu’une amende de 300 000 euros et une peine d’inégibilité de cinq ans.

Le jugement avait été mis en délibéré et vient d’être rendu ce vendredi 26 janvier 2018, en des termes plutôt sévères pour le prévenu puisque la présidente, Bénédicte de Perthuis, tient à enfoncer le clou en précisant que « les faits commis sont d’une particulière gravité », traduisant « une violation de la loi et de l’égalité devant l’impôt » par « un élu de la République » dont le comportement aurait dû être « exemplaire ». Ces faits, a ajouté la présidente du tribunal, ne peuvent que « nourrir la méfiance des citoyens envers ceux qui les représentent ».

De fait, Dominique Tian a été condamné à douze mois de prison avec sursis, trois ans d’inéligibilité et une amende record de 1,45 million d’euros. Le jugement est sévère et bien entendu le premier adjoint au maire de Marseille a immédiatement hurlé au scandale et au lynchage politique, tout en annonçant qu’il faisait appel du jugement. Une stratégie qui lui permet de gagner du temps puisque l’appel est suspensif, ce qui lui permet de conserver son mandat électif pendant les 8 à 12 mois que vont durer les procédures, quitte à pousser ensuite le bouchon jusque devant la Cour de Cassation, de quoi tenir jusqu’aux prochaines élections municipales…

Pas sûr cependant que cela suffira pour lui permettre de rester dans la course de la succession à Jean-Claude Gaudin. Une course qui semble désormais bien lancée depuis les déclarations fracassantes du Président du Conseil régional, Renaud Muselier, qui tire désormais à l’arme lourde contre le bilan du « mauvais maire » qui a effectué « deux mandats de trop », l’accusant en vrac pour sa « politique de l’immobilisme » et sa « cohabitation politico-mafieuse » avec Jean-Noël Guérini…

Martine Vassal et Jean-Claude Gaudin, le 26 janvier 2018 (photo © Frédéric Speich pour La Provence)

« Je n’ai pas pour habitude de répondre aux insultes, aux injures et aux outrances », a aussitôt Jean-Claude Gaudin selon Le Monde. D’autres l’ont fait à sa place, parmi lesquels la Présidente du Conseil départemental, Martine Vassal, l’autre élue de droite qui brigue également le fauteuil du maire sans le dire et qui s’est donc ostensiblement affichée aux côté de Jean-Claude Gaudin vendredi dernier en lui rappelant mielleusement devant la presse, comme le rapporte La Provence : « Jean-Claude, tu as profondément transformé Marseille depuis vingt-cinq ans (…) Tu peux désormais compter sur ceux que tu as lancés dans le grand bain de la politique ».

Voilà qui a au moins le mérite de la clarté et laisse entrevoir pour les prochaines élections municipales à Marseille une bataille sanglante entre élus de la majorité républicaine… A condition du moins que Martine Vassal ait elle-même réglé ses propres ennuis judiciaires puisqu’elle est toujours en attente d’une décision dans le cadre de l’affaire sur les marchés publics de l’eau qui l’avait conduite en garde à vue en juin 2017.

L.V.  

Au Mexique aussi les explorations se poursuivent…

20 janvier 2018

Alors que les spéléologues de l’association Cassis, les rivières mystérieuses, poursuivent leurs explorations pour tenter de remonter les deux rivières souterraines du Bestouan et de Port-Miou, envisageant désormais la réalisation d’un forage pour explorer le puits terminal situé à 3 km de l’exutoire du Bestouan, voilà que leurs collègues mexicains viennent de faire un grand pas en avant dans la connaissance de réseaux souterrains ennoyés dans la région du Yucatan.

Gran Cenote près de Tulum, site touristique très prisé…

Comme en Provence calcaire, ce secteur du Yucatan est un massif karstique dans lequel les circulations d’eau souterraines ont créé des galeries souterraines par dissolution progressive du calcaire sous l’effet de l’acidité des eaux. Lorsque le toit de ces galeries s’effondre, on observe en surface la formation de vastes puits ou avens, connus localement sous le nom de cénotes. Certains de ces effondrements se forment sous la surface d’un plan d’eau (lac, lagune ou même dans la mer), et ne sont alors visibles sur sous la forme de tâches plus foncées, trous bleus ou trous noirs selon leur perception…

Les Mayas, qui occupaient la péninsule du Yucatan avant l’arrivée des Espagnols, connaissaient bien ces puits naturels donnant accès à de vastes réserves d’eau douce (et parfois salée lorsque les réseaux karstiques communiquement avec la mer, comme c’est le cas aussi à Port-Miou). Ils les utilisaient comme source d’approvisionnement en eau potable. Mais, ils les considéraient également comme des bouches d’accès permettant d’entrer en communication avec les dieux de l’infra-monde, d’où l’origine du mot cénote qui dérive d’un ancien vocable maya signifiant « puits sacré ». Ils s’en servaient donc aussi comme lieux de sacrifice et y jetaient des offrandes et autres victimes expiatoires, ce qui, dans notre conception hygiéniste moderne, paraît bien peu approprié…

Salle ornée de concrétions dans le réseau de Sac Actun (source : Feel the planet)

Toujours est-il que ces cénotes et les réseaux de galeries souterraines noyées qui les relient constituent un immense terrain de jeu pour les spéléologues et les archéologues qui les explorent depuis des années. L’un d’entre eux, le plongeur allemand Robert Schmittner, qui réside au Yucatan depuis maintenant 20 ans et dirige le projet intitulé Gran Acuifero Maya (GAM), explore ainsi depuis des années les réseaux sub-aquatiques autour de la cité balnéaire de Tulum. Il vient de faire la une de très nombreux médias en annonçant, le 15 janvier 2018, avoir réalisé la jonction entre deux réseaux désormais reliés entre eux, ce qui en fait la plus vaste grotte noyée du monde avec pas moins de 347 km de galeries connues !

Progression de plongeurs de l’équipe du GAM dans les galeries de Sac Actun (photo © Herbert Mayrl / GAM via Reuters)

Jusque-là, le réseau de Sac Actun, situé au nord de Tulum, était le deuxième plus vaste système subaquatique exploré au monde avec déjà 262 km de galeries, juste derrière un autre réseau de 269 km, situé dans la même région mais plus au sud et dénommé Ox Bel Ha. Quant au second réseau exploré par les équipes du GAM, connu sous le nom de Dos Ojos, il s’agissait d’un vaste labyrinthe de près de 84 km de longueur cumulée, qui se classait à la quatrième place mondiale. La jonction réalisée entre ce dernier système et celui de Sac Actun montre que les deux ne constituent qu’un seul et unique réseau qui prend désormais le nom du plus grand des deux.

Et le mouvement n’est sans doute pas fini car Robert Schmittner compte bien poursuivre ses explorations. Rien que dans le nord-est de l’État de Quintana Roo où se situe le réseau karstique ennoyé de Sac Actun, on a répertorié pas moins de 358 réseaux subquatiques accessibles, représentant à ce jour un linéaire total de 1 400 kilomètres !

Plongeur de l’équipe du GAM à Sac Actun (photo © Herbert Mayrl / GAM via Reuters)

Outre l’intérêt spéléologique et hydrologique d’une telle découverte de la plus grande grotte noyée du monde, cette meilleure connaissance des réseaux souterrains du Yucatan est une aubaine pour les paléontologues, archéologues et autres anthropologues. On retrouve en effet dans ces galeries noyées et au fond des puits qui en donnent accès, de très nombreux vestiges, ossements animaux et humains, mais aussi poteries et objets sacrificiels mayas qui permettent d’en savoir toujours davantage sur l’histoire de la région et les différentes civilisations qui s’y sont succédées.

Crâne de Naia découvert en 2007 (photo © Roberto Chavez ARCE / AFP )

C’est ainsi qu’a été retrouvé en 2007, dans les eaux du gouffre de Hoyo Negro (en français « trou noir »), un aven de 43 m de profondeur qui fait partie du réseau de Sac Actun, le squelette de Naia, une jeune fille de 15 à 16 ans qui vivait dans la région il y a environ 13 000 ans, en plein âge glaciaire, et qui était malencontreusement tombée au fond du gouffre où elle s’était noyée.

A l’époque, avant la fin de la dernière glaciation, le niveau de la mer était plus bas d’environ 120 m et du coup les grottes du Yucatan n’étaient pas ennoyées à leur niveau actuel si bien que l’accès au puits se faisait à pied sec. Outre ses restes, l’aven abritait également des ossements de 26 autres mammifères terrestres dont un tigre à dents de sabre et un gomphothère, sorte d’éléphant préhistorique.

Selon Le Monde, la découverte n’avait été annoncée qu’en mai 2014 par l’Institut mexicain d’anthropologie et d’histoire, à l’issue de nombreuses analyses. De fait, la découverte des restes particulièrement bien conservés de cette jeune fille de 13 000 ans s‘est révélée très enrichissante sur le plan scientifique car les populations amérindiennes indigènes de cette période étaient des groupes nomades peu nombreux et leurs vestiges ne sont donc pas si fréquents. L’analyse génétique de l’ADN mitochondrial de Naia a permis ainsi de confirmer d’une part son origine asiatique et d’autre part son apparentement aux actuels indiens d’Amérique malgré des différences morphologiques qui traduisent simplement les évolutions génétiques subies depuis que ces peuplades, venues de Sibérie par le détroit de Behring, se sont lentement répandues sur l’immense territoire américain. Des conclusions qui corroborent d’ailleurs celles issues de l’analyse d’un autre squelette découvert dans le Montana, plus ou moins contemporain de Naia et également issu d’une souche de population sibérienne.

Une chose est sûre, les grottes ennoyées du Yucatan, tout aussi mystérieuses que celle de Cassis, n’ont pas fini de livrer tous leurs secrets…

L.V.  

Paris : la bataille de l’eau s’engage !

20 décembre 2017

L’agglomération parisienne fait partie de ces grandes métropoles mondiales pour lesquelles la gestion de l’eau ne va pas de soi. Nos ancêtres les Gaulois de la tribu des Parisii, en installant leurs cabanes de torchis sur l’île de la Cité (à moins que ce ne soit à Nanterre comme le laissent à penser certaines fouilles récentes), en bordure de la Seine, croyaient pourtant s’être prémunis contre cette question de l’approvisionnement en eau potable.

Le lac du Der, en dérivation de la Marne, un des 4 lacs réservoirs en amont de Paris

Mais ils n’imaginaient pas que leur petite cité deviendrait un jour une métropole de 7 millions d’habitants. Or la Seine n’est somme toute qu’un petit fleuve dont le débit en plein été peut devenir ridiculement bas. C’est d’ailleurs pour cette raison qu’ont été construits, après la grande sécheresse de 1921, les quatre grands lacs-réservoirs qui stockent, très en amont du Bassin parisien, sur les cours de la Seine, de la Marne, de l’Aube et de l’Yonne, plus de 800 millions de m3 d’eau qui sont ensuite relâchés progressivement pendant tout l’été et l’automne afin de soutenir le débit d’étiage de la Seine à Paris, tout en contribuant également à la protection de l’agglomération contre les crues d’hiver.

Eugène Belgrand, concepteur du réseau d’eau et d’assainissement de Paris (source © Ecole Polytechnique)

C’est en 1776, sous le règne de Louis XVI, que les frères Perrier créent la première Compagnie des eaux et installent une pompe sur la Seine pour alimenter un réseau de fontaines. Et c’est Napoléon qui fait creuser le canal de l’Ourcq, imaginé jadis par Colbert, et qui alimente encore de nos jours le réseau d’eau non potable qui sert notamment à nettoyer à grandes eaux les rues de la capitale.

Mais c’est à partir de 1854 que, sous l’impulsion du baron Haussmann et de l’ingénieur Eugène Belgrand, se met en place l’essentiel du réseau actuel d’alimentation en eau potable (et du réseau d’assainissement) de la ville. En 1865, les eaux de la Dhuis permettent d’approvisionner les quartiers les plus hauts de Belleville et de Ménilmontant.

Un des ponts aqueducs acheminant les eaux de la Vanne à Paris

Dix ans plus tard, ce sont les eaux de la Vanne, captées à plus de 170 km au sud de Paris, qui sont dérivées vers la capitale, au prix d’aqueducs interminables. En 1893, ce sont les sources de l’Avre, de la Vigne et du Breuil, dans l’Eure à plus de 100 km de Paris, qui sont à leur tour acheminées vers Paris. A l’occasion de l’Exposition universelle de 1900, elles sont grossies par les eaux prélevées sur le Loing et le Lunain, et en 1925 par celles de la Voulzie. En parallèle sont construites deux usines de pompage des eaux de la Seine (à Ivry) et de la Marne (à Saint-Maur). Une troisième, implantée à Orly, les renforcera en 1969.

Célia Blauel, présidente d’Eau de Paris

Et c’est la Compagnie générale des eaux, créée en 1852 sous Napoléon III et rejointe en 1880 par son principal concurrent, la Lyonnaise des Eaux, qui se partagent rapidement la gestion du dispositif. Sur Paris, il a fallu une décision politique du maire Bertrand Delanoë en 2008 pour sortir de ce face-à-face et mettre en place une régie municipale, Eaux de Paris, actuellement présidée par Célia Blauel et qui assure depuis le 1er janvier 2010 l’approvisionnement et la distribution de l’eau potable pour trois millions de Parisiens.

Mais dans le reste de l’agglomération, c’est encore Véolia et Suez, les deux mastodontes héritiers de la Générale et de la Lyonnaise, qui se partagent le gâteau. Suez s’occupe comme délégataire du Syndicat des eaux de la presqu’île de Gennevilliers (SEPG) de la distribution d’eau auprès de 600 000 abonnés de l’ouest parisien, tandis que Véolia gère les 4,5 millions d’usagers du SEDIF, le Syndicat des eaux d’Ile de France, qui règne sur pas moins de 150 communes en Petite et Grande Couronne. Et dans les deux cas depuis 1923 : un record de longévité !

André Santini, président du SEDIF (photo © SIPA)

Certes, la loi Sapin a mis un terme à ces délégations de service public qui s’éternisent et dont la durée légale ne peut désormais excéder 12 années. En 2008, André Santini, maire inamovible d’Issy-les-Moulineaux et président du SEDIF sans discontinuer depuis 1983, a donc été contraint de remettre en jeu le contrat de Véolia. Un appel d’offre a été lancé qui a rapidement tourné à l’affrontement sans pitié entre les deux géants du secteur, jusqu’à ce que Suez se retire de la course, à l’issue d’un combat homérique que relate un savoureux article du Point. Dans l’affaire, Véolia a été contraint de réduire sa marge de 20 % mais le fromage reste alléchant puisque ce contrat représenterait 37 % des 600 millions d’euros de chiffre d’affaire de Véolia Eau.

La Chambre régionale des comptes, qui vient tout juste d’analyser la gestion de ces trois grands services d’eau franciliens sur la période 2010-2014, n’a pas manqué, une fois de plus, de tresser des lauriers à la Ville de Paris qui a parfaitement réussi son pari du retour à une régie municipale et qui offre à ses abonnés le prix de l’eau le moins cher tout en assurant une qualité du service et un niveau d’investissement irréprochables.

Usine de potabilisation de l’eau à Neuilly-sur-Marne (source © SEDIF)

Inversement, les critiques pleuvent sur les délégations de services publics du SEDIF et du SEPG pour lesquels la CRC passe en revue nombre d’irrégularités, de manquements, d’abus et de dérives de toutes sortes, conduisant à une déconnexion totale entre les montants facturés à l’usager et la réalité des dépenses effectives d’investissement, comme l’analyse notamment Marc Laimé sur son site très documenté Les eaux glacées du calcul égoïste.

Ce qui n’empêche pas le SEDIF de fanfaronner et de promouvoir partout son projet de « grand ring de l’eau ». Un concept qui vise à mailler encore davantage les différentes sources d’approvisionnement de l’agglomération parisienne et qui s’est traduit notamment par l’acquisition en février dernier de 6 km de conduites, en vue de relier deux des trois principales usines de pompage et de potabilisation du SEDIF, celle de Méry-sur-Oise et celle de Neuilly-sur-Marne (la troisième étant celle de Choisy-le-Roi, sur la Seine). En fait, une formidable offensive pour étouffer Eau de Paris et viser à terme le monopole de la distribution d’eau potable sur l’ensemble du territoire métropolitain dont les contours restent encore un peu flous.

Unité de nano-filtration dans l’usine du SEDIF à Méry-sur-Oise (source © Véolia)

Du coup, la bataille entre le SEDIF (dont le contrat actuel prend fin en 2022) et Eau de Paris a repris de plus belle, à la faveur des dernières évolutions institutionnelles et notamment de la loi NOTRe qui prévoit qu’à compter du 1er janvier 2020 ce sont désormais aux intercommunalités de prendre la compétence de la production et de la distribution de l’eau potable (comme d’ailleurs de l’assainissement). Sur le territoire de la Métropole du Grand Paris, ce sont désormais les EPT (établissements publics territoriaux) qui sont donc aux manettes, s’étant substitués automatiquement aux communes ou aux intercommunalités. A eux donc de décider s’ils souhaitent ou non adhérer au SEDIF pour lui déléguer cette compétence, et ceci avant le 31 décembre 2017.

Le collectif citoyen Coordination Eau Ile de France, milite donc auprès des élus de certains EPT de Seine-Saint-Denis et du Val-de-Marne en les incitant à profiter de cette fenêtre de tir inespérée pour tenter de sortir du SEDIF et reprendre la gestion de l’eau en régie, ce qui est totalement impossible en temps normal car les statuts du SEDIF empêchent tout départ unilatéral. Et c’est ainsi que 24 des 36 communes des trois EPT Plaine-Commune, Est-Ensemble et Grand Orly-Seine-Bièvre, ont délibéré pour décider de ne pas réadhérer au SEDIF pour les deux ans qui viennent, jusqu’à cette fameuse date butoir du 1er janvier 2020.

Le SEDIF avait bien tenté de bloquer toute initiative en ce sens en laissant entendre qu’en cas de décision de la sorte il se verrait contrait de fermer le robinet sans autre forme de procès le 31 décembre 2017 à minuit et que les élus récalcitrants devront alors se débrouiller pour expliquer leur décision politique malheureuse à leurs électeurs assoiffés. Mais André Santini a fini par reconnaître que cela ressemblait un peu trop à du chantage et avait accepté le 20 octobre dernier le principe de signer des conventions provisoires pour les deux ans à venir, le temps pour les EPT concernés de mener les études nécessaires en vue de déterminer leur position pour 2020. Est-ce un premier pas vers le retour à une extension des régies en Ile de France ? L’avenir le dira…

L.V.

Canal de Provence : des plans d’eau qui rayonnent…

14 novembre 2017

Le Canal de Provence à Saint Maximin, dans le Var (photo © Camille Moirenc / SCP)

Créée en 1957 sous la forme d’une société anonyme d’aménagement régional, la Société du Canal de Provence, qui vient de fêter ses 60 ans, résulte en réalité d’un pacte passé en 1955 entre la Ville de Marseille et les deux départements des Bouches-du-Rhône et du Var, dans l’objectif de mettre en commun leurs droits d’eau sur la rivière du Verdon. Dès 1963, la société s’est vue confier, par concession d’État, la mission de réaliser et gérer le canal de Provence destiné à acheminer, vers l’agglomération marseillaise et une partie du Var, l’eau du Verdon stockée grâce aux différents barrages de Sainte-Croix, Quinson, Gréoux, Castillon et Chaudanne.

La construction du canal s’est échelonnée entre 1964 et 1986, à partir de la prise de Boutre, à Vinon-sur-Verdon. A Rians, le canal se divise en deux branches, l’une desservant le pays d’Aix et le nord de Marseille, l’autre l’Est marseillais et le Var. Le réseau s’est progressivement étendu, y compris via la construction récente de la liaison Verdon – Saint-Cassien destinée à alimenter le littoral varois jusqu’au golfe de Saint-Tropez. Il comprend désormais près de 70 km de canaux à ciel ouvert, 140 km en galerie souterraine et pas moins de 4500 km de canalisations.

Le barrage de Bimont, près de la Sainte-Victoire, géré par la SCP

La gouvernance a évolué également avec l’arrivée de la Région PACA en 1983, puis celle du département de Vaucluse en 1988, pour le développement de l’irrigation dans la plaine du Sud-Luberon. En 2008, l’ensemble du patrimoine appartenant à l’Etat et concédé à la SCP a été transféré à la Région, renforçant ainsi l’appropriation par les collectivités territoriales de ce patrimoine hydraulique.

Branche nord du canal de Provence (photo © Camille Moirenc / SCP)

De l’ordre de 2 millions de personnes, soit 40 % de la population régionale est désormais alimenté en tout ou partie par de l’eau acheminée par le réseau de la SCP. Une des particularités de ce réseau réside dans son mode de régulation dynamique, géré de manière centralisée depuis le siège de la société basé au Tholonet, et qui permet d’ajuster à tout moment les débits délivrés en fonction de la demande effective des utilisateurs.

C’est ce souci constant de l’innovation technologique qui a poussé la SCP, depuis déjà quelques années et après avoir exploité toutes les potentialités de l’hydroélectricité, à s’intéresser à la production d’énergie solaire sur son propre réseau. Dans une région aussi ensoleillée, un des freins au développement de cette production réside en effet dans le coût du foncier qui réduit les possibilités d’implantation de centrales photovoltaïques. Or, les plans d’eau et les canaux gérés par la SCP constituent de vastes superficies qui peuvent facilement être recouvertes de panneaux solaires.

Panneaux solaires installés dans le cadre du projet Canasol à Rians (source : Actu Environnement)

Qui plus est, une telle couverture présente de multiples intérêts. Les panneaux photovoltaïques protègent les canaux contre les intrusions et les chutes ou les baignades intempestives, ce qui est un des risques récurrents auquel est confrontée la SCP, et en même temps ils protègent l’eau des rayonnements solaires directs, ce qui permet de limiter l’évaporation et de garder à l’eau une certaine fraîcheur tout en évitant la prolifération des végétaux aquatiques, une autre des plaies de l’exploitant.

Et ce n’est pas tout ! En plein été et sous le chaud soleil de Provence, la température grimpe rapidement à la surface des panneaux photovoltaïques. Or, au-delà d’une certaine température (de l’ordre de 70 °C), le rendement des panneaux baisse fortement, perdant jusqu’à 15 % de leur efficacité énergétique. Le fait de les installer juste au-dessus de la surface des canaux présente donc une réelle opportunité puisqu’on peut facilement les arroser pour éviter tout échauffement intempestif.

Site du démonstrateur Canalsol à Rians (photo © Camille Moirenc / SCP)

Pour tester le concept, la SCP s’est alliée avec le pôle de recherche technologique du CEA en 2013, dans le cadre du pôle de compétitivité Capénergie, afin de créer une plateforme expérimentale située à proximité de son centre d’exploitation à Rians. 132 panneaux solaires ont ainsi été déployés et testés pendant plus d’un an à partir de l’automne 2014, pour évaluer l’intérêt du dispositif et comparer différentes orientations et modalités de refroidissement (par aspersion, par circulation direct ou par le seul effet passif de l’eau circulant à 1,20 m sous les panneaux et dont la température moyenne varie entre 15 et 18 °C).

Dispositif d’aspersion des panneaux photovoltaïques du projet Canalsol

Les résultats de ce projet de recherche baptisé Canalsol semblent suffisamment probants pour que la SCP poursuive ses efforts de développement technologique et envisage de passer à une phase très opérationnelle qui consisterait à installer une centrale photovoltaïque flottante sur le vaste réservoir à ciel ouvert du Vallon Dol situé sur les hauteurs de Marseille, au pied du massif de l’Étoile.

La réserve de Vallon Dol, sur les hauteurs de Marseille (photo © Camille Moirenc / SCP)

Ce gigantesque bassin qui s’étend sur 17 hectares contient 3 millions de m3 d’eau acheminée depuis le Verdon (soit plus de deux fois la capacité du Vieux Port !), de quoi assurer pendant une semaine entière l’alimentation en eau de toute la ville de Marseille. Construit en 1973, ce bassin qui peut être alimenté via les deux branches principales du canal de Provence sert de réserve pour l’usine de potabilisation située à proximité et géré par la SEM.

Pour aménager sur ce vaste plan d’eau une centrale solaire dont la puissance visée serait de 10 MW, la SCP vient de lancer une consultation, afin de choisir un partenaire avec lequel la SCP créerait une société de projet en vue de concevoir, financer, réaliser, exploiter, maintenir et vendre la production d’électricité de cette future installation de panneaux photovoltaïques flottants. Un projet ambitieux et innovant dont s’est fait l’écho La Provence et qui pourrait peut-être demain donner des idées à d’autres exploitants : à quand des panneaux photovoltaïques sur le Grand Canal à Venise ?

L.V. 

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Les îles Poubelles, une nouvelle nation émergente ?

1 octobre 2017

Que retiendra t-on de la 72ème assemblée générale des Nations-Unies qui vient de se tenir à New-York, du 12 au 25 septembre 2017 ? Le discours belliciste de Donald Trump, menaçant de rayer de la carte la Corée du Nord et de déchirer l’accord obtenu sur le nucléaire iranien, après 12 ans d’âpres négociations ? Celui de son homologue Emmanuel Macron, chantre du multilatéralisme, héraut de la lutte contre le réchauffement climatique et porte-parole des sans-voix et des opprimés ?

Source Plastic Oceans Foundation

Ou peut-être la campagne médiatique qui a beaucoup fait jaser dans les couloirs et qui vise la reconnaissance officielle d’un 196e État baptisé Trash Isles, autrement dit, Les îles Poubelles ? Une pétition toujours en ligne et qui a déjà recueilli plus de 125 000 signatures a en effet été remise au nouveau secrétaire général des Nations-Unies, António Guterres. Elle cherche, de manière quelque peu symbolique, à faire reconnaître comme un nouvel État, le gigantesque amas de déchets flottants, grand comme la France, qui s’étend au centre du Pacifique Nord.

La campagne est pilotée par le site américain LADbible soutenu par l’ONG Plastic Oceans Foundation. L’idée qu’ils mettent en avant paraît saugrenue mais ne manque pas de panache. On connaît depuis 1997, et leur découverte fortuite par le navigateur Charles Moore, l’existence de ces vastes amas de déchets qui dérivent dans tous les océans de la planète mais dont les principaux se regroupent sous forme d’immenses vortex concentrés par les courants marins circulaires dans le Pacifique nord mais aussi dans le Pacifique sud, l’Atlantique nord et sud et bien sûr l’Océan indien. La Méditerranée elle-même n’est pas épargnée par le phénomène, comme toutes les étendues marines bordées de zone densément urbanisées.

Situation des principales plaques de déchets flottants (infographie © Le Monde)

Les expéditions scientifiques se sont multipliées ces 15 dernières années pour explorer ce que certains ont dénommé « Le septème continent ». En décembre 2014, une vaste étude internationale, parue dans la revue PLOS ONE, à l’issue de 24 campagnes effectuées entre 2007 et 2013, non seulement sur les cinq grands gyres océaniques, mais aussi près des côtes australiennes, dans le golfe du Bengale et en Méditerranée, avait ainsi estimé à 269 000 tonnes la quantité de détritus flottant sur les mers du globe. On a plus récemment évalué à environ 8 millions de tonnes la quantité de déchets plastiques qui auraient été rejetés directement en mer au cours de la seule année 2010.

Des miliiers de déchets plastiques flottant (photo © Christophe Launay / Race for Water)

Nous avons tous en tête ces images de milliers de déchets flottants de toutes sortes qui s’amassent sur les plages et près des côtes, que certains essaient tant bien que mal de récupérer et de valoriser. Mais les études montrent que les vortex de déchets qui dérivent au milieu des océans ressemblent en réalité plutôt à une soupe compacte constituée de milliards de microdéchets de polyéthylène, de polypropylène et de polyéthylène téréphtalate (PET) dont la taille ne dépasse guère quelques millimètres et qui ne sont pas détruits par les micro-organismes..

Les gros éléments en plastique ont tendance en effet à se fragmenter sous l’action des vagues et du rayonnement solaire, mais aussi parce qu’ils rencontrent de nombreux oiseaux et mammifères marins qui les croient comestibles et qui en meurent bien souvent comme en attestent leurs cadavres. En revanche, ces minuscules fragments de plastique eux ne disparaissent pas et continuent de flotter entre deux eaux pendant des siècles, constituant d’immenses radeaux de la taille d’un pays européen voire bien davantage, et dont on a encore du mal à évaluer l’ampleur du volume immergé. On commence en revanche à mieux identifier les nombreux effets néfastes de ces micro-résidus non seulement sur la faune marine mais aussi comme vecteurs de la prolifération de certaines espèces invasives.

C’est pour tenter d’attirer l’attention sur cette situation inacceptable que certains ont eu l’idée de faire reconnaître comme un nouveau pays le plus vaste de ces continents de déchets, celui que l’on surnomme le « Great Pacific Garbage Patch » (la grande poubelle du Pacifique). L’ancien candidat aux élections présidentielles américaines, Al Gore, fait ainsi partie des tous premiers signataires de cette pétition et aspire à devenir citoyen de ce nouvel État en voie d’émergence qui possède déjà son drapeau, son passeport et même sa monnaie, le « débris », bien entendu…

Un billet du futur Etat en gestation ? (photo © Mario Kerkstra)

Pour pouvoir être reconnu comme nation, il faut en effet disposer d’un territoire, former un gouvernement, avoir une population permanente et être capable d’interagir avec les autres nations. D’où l’idée de cette pétition qui vise à recenser tous les volontaires désireux de devenir citoyen de ce futur État. 

Le passeport du futur pays ? (photo © Mario Kerkstra)

Si d’aventure le processus arrivait à son terme, ce radeau flottant de déchets serait en mesure de solliciter l’application de la charte de l’environnement édictée par les Nations-Unies et qui postule : « tous les membres doivent coopérer dans un esprit de partenariat global pour conserver, protéger et restaurer la santé et l’intégrité de l’écosystème planétaire ». Autrement dit, cela obligerait les autres nations à s’engager à venir nettoyer ce continent de déchets.

Une démarche pour le moins originale donc, qui, bien évidemment, n’a aucune chance d’aboutir, mais qui ne manque pas d’interpeller. Voilà que des dizaines de milliers de citoyens du monde, Américains pour beaucoup, se revendiquent citoyens d’un nouvel État en voie d’émergence et s’échinent à le faire reconnaître par les autres nations non pas pour le coloniser mais tout simplement pour le faire disparaître. A côté d’un tel casse-tête juridique, la crise de la Corée du Nord ressemble à de la petite bière…

L.V.  

Au Texas, Houston sous les eaux

30 août 2017

Le sud du Texas est en train de connaître une des pires inondations de son histoire récente. En cause, l’ouragan Harvey, né à la mi-août d’une onde tropicale en Afrique de l’Ouest, et dont les météorologues ont suivi l’évolution à travers tout l’Océan atlantique jusqu’aux côtes vénézuéliennes.


L’ouragan Harvey a tout balayé sur son passage dans les zones côtières (photo © Gabe Hernandez / AP)

Arrivé sur le golfe du Mexique, l’ouragan s’est brusquement intensifié au-dessus des eaux chaudes et a abordé la côte texane vendredi 25 août, classé en catégorie 4 avant de se transformer en simple tempête tropicale à partir du samedi après-midi. Depuis, du fait de l’absence de vent en altitude, la tempête Harvey fait quasiment du sur-place et se déplace très lentement vers l’Est tout en se rechargeant en permanence avec les eaux chaudes du Golfe du Mexique tout proche.

Carte de situation publiée dans Le Monde (source NOAA, New York Times), montrant les cumuls de précipitation et la trajectoire de la tempête au 30 août 2017

Le résultat est assez effrayant puisque on comptabilise désormais en 5 jours un cumul de précipitations tout à fait inhabituel qui pourrait atteindre localement, d’ici jeudi, 1270 mm, bien davantage que ce qui peut tomber sur Marseille en une année entière ! La ville littorale de Corpus Christi, qui compte 300 000 habitants, a été une des premières dévastées par l’ouragan Harvey avec des vents soufflant en pointe à 215 km/h, et à partir du dimanche 27 août c’est la ville de Houston, quatrième plus grande ville des Etats-Unis avec 2,3 millions d’habitants, qui a été à son tour noyée sous des trombes d’eau continues.

Maisons d’habitation ravagées par l’ouragan Harvey à Rockport (photo © Mark Ralston / AFP)

De nombreux axes routiers ont été inondés parfois sous plusieurs mètres d’eau et on a vu des habitants attraper à main nue des poissons passant devant leur porte tandis que les épaves de voitures partent à la dérive dans une eau boueuse qui envahit peu à peu toute la ville.

Au moins 10 personnes ont déjà trouvé la mort depuis le déclenchement de ces inondations, dont une personne qui est décédée dans l’incendie de sa maison à Rockport tandis qu’une femme s’est noyée à Houston en sortant de sa voiture dans une zone où la vitesse d’écoulement était rapide. L’état de catastrophe naturelle a été déclaré dès vendredi et la population est invitée à rester confinée chez elle pour limiter les risques de noyades dans des rues totalement submergées par les eaux.

A Corpus Christi comme en plusieurs autres endroits, des consignes d’évacuation volontaires ont été données, tandis que 4500 prisonniers du centre de détention de la ville de Rosharon, au sud de Houston, ont dû être évacués en catastrophe. Au moins 230 000 foyers étaient privés d’électricité dès dimanche et la situation ne fait qu’empirer depuis. Quant aux deux aéroports de Houston dont les pistes étaient sous les eaux, ils ont dû fermer l’un après l’autre.

Autoroute submergée à Houston dimanche 27 août 2017 (photo © Richard Carson / Reuters)

Le niveau de la mer s’est élevé de près de 4 m au plus fort de la tempête, alors même que la côte texane accueille près d’un tiers des capacités de raffinerie de pétrole des Etats-Unis et le Golfe du Mexique 20 % de la production américaine. Au moins 112 plateformes ont été évacuées, représentant environ un quart de la production quotidienne de brut et de gaz, et de nombreuses installations à terre ont fermé. Il est encore trop tôt pour évaluer le coût de cette catastrophe d’autant que la tempête se déplace désormais vers la Louisiane voisine, encore sous le traumatisme du cyclone Katrina qui avait provoqué en 2005 la rupture de plusieurs digues, ravageant des quartiers entiers de La Nouvelle Orléans, provoquant plus de 1800 morts et laissant une ardoise estimée à 118 milliards de dollars. A ce jour, les estimations pour la tempête Harvey font état d’un bilan qui pourrait néanmoins s’élever autour de 42 milliards de dollars, ce qui est tout à fait considérable et s’explique largement par l’importance économique du Texas dont le PIB dépasse celui d’un pays comme le Canada.

Le Bayou Buffalo en crue dans la traversée de Houston (photo © Carole Enarn / Reuters)

Le président Donald Trump ne s’y est d’ailleurs pas trompé. Contrairement à son prédécesseur Georges W. Bush qui avait été accusé d’indifférence en ne se rendant que tardivement à la Nouvelle Orléans où il s’était contenté d’un rapide survol en hélicoptère, le Président s’est rendu dès mardi 29 août sur place, accompagné de son épouse dont les talons aiguilles n’étaient pas des plus adaptés pour une telle visite de terrain…

A Houston, le maire a décrété le couvre-feu dès mardi pour tenter de sauvegarder la ville des risques de pillage car beaucoup d’habitants ont fui pour se mettre à l’abri, et le gouverneur du Texas a fini par mobiliser l’ensemble des 12 000 soldats de la Garde nationale texane. Mardi, 10 000 habitants étaient déjà hébergés dans le Centre des conventions de Houston et le flux de réfugiés continuait à enfler. Les autorités les dirigeaient alors vers d’autres villes de l’intérieur, moins exposées, dont Dallas, située à 400 km de là et dont les 3 centres d’accueil ont été rapidement saturés.

Evacuation de sinistrés à Houston (photo © Texas Military Department)

A Houston, une des plus grosses inquiétudes a trait à l’état de deux vastes réservoirs endigués construits dans les années 1930 à l’ouest de la ville, précisément pour la protéger contre les inondations, et qui approchent depuis mardi de leur niveau de saturation. Dès la création de la ville en 1836, à la confluence entre deux rivières, le bayou Buffalo et le bayou du Chêne blanc, il est apparu en effet que le site était particulièrement vulnérable au risque d’inondation. En un siècle, la ville a connu 16 inondations majeures, avec parfois jusqu’à 12 m d’eau dans les points bas de la ville !

Après la crue de 1935, particulièrement dévastatrice et qui avait fait 7 morts, une structure spécifique a été mise en place pour développer la prévention du risque inondation, ce qui n’empêche pas qu’on dénombre 30 crues importantes depuis, dont celle liée au passage de la tempête tropicale Allison, le 5 juin 2001, qui a causé 22 victimes et endommagé 95 000 véhicules et 73 000 habitations dans cette région texane.

Les deux réservoirs Addicks et Barker, dont l’état inquiète au plus haut point les ingénieurs de l’US Army Corps of Engineers en charge de leur exploitation, ont été mis en service en 1938 et font l’objet d’un programme de confortement entamé en 2014 mais dont l’achèvement n’est prévu qu’en 2019. Ces vastes cuvettes, dont la capacité de stockage cumulée atteint 510 millions de m3, soit près de la moitié du barrage de Serre-Ponçon, sont fermées par des digues en terre dont la hauteur maximale atteint respectivement 34 et 37 m. Ils interceptent plusieurs affluents en amont du bassin versant du Bayou Buffalo qui ensuite traverse toute l’agglomération de Houston. Ces cuvettes, aménagées en parcs urbains et espaces verts récréatifs, ne servent à retenir l’eau qu’en cas de crue, afin de protéger les zones urbanisées en aval.

Zones résidentielles inondées par les lâchers d’eau du réservoir Addicks, mardi 29 août 2017 (photo © David J. Phillip)

Mais les deux vastes réservoirs ont atteint leur cote maximale autorisée de remplissage dès le lundi 28 août au matin. Il a donc fallu alors commencé à délester avant que le niveau de l’eau ne monte trop haut et ne menace la stabilité des digues elles-mêmes. C’est en effet le point faible de ce type d’ouvrage qui, en cas de submersion peut se rompre, provoquant alors une onde qui se propage très rapidement en aval, dévastant tout sur son passage. C’est donc pour éviter ce risque que les autorités ont préféré ouvrir les vannes, inondant de ce fait l’ensemble des quartiers situés en contrebas, et venant rappeler à tous qu’une protection contre les inondations est toujours dimensionnée pour un niveau de crue donné : au-delà, il faut bien que l’eau s’écoule et reprenne son chemin naturel, en l’occurrence la vaste plaine alluviale dans laquelle les hommes ont choisi, peut-être un peu imprudemment, de bâtir une ville de 2,3 millions d’habitants !

Vue aérienne du réservoir d’Addicts lors d’une inondation récente (photo © US Army Corps of Engineers)

L’histoire n’est certes pas terminée et l’heure des comptes n’est pas encore arrivée. Après le passage de Katrina à la Nouvelle-Orléans, ce sont environ 1 million d’habitants qui ont dû faire appel aux services sociaux de l’Agence fédérale de gestion des situations d’urgence et on estime déjà que ce nombre pourrait avoisiner les 450 000 après le passage de la tempête Harvey, de nombreux Américains n’étant pas assurés contre ce type de risque naturel. La seule bonne nouvelle, si l’on peut dire, c’est que les assureurs ne sont pas inquiets puisque leur secteur dégage un bénéfice confortable évalué actuellement à 700 milliards de dollars, de quoi largement voir venir…

L.V. 

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Marseille : les chercheurs à la plage…

18 juillet 2017

C’est l’été et tout le monde se retrouve à la plage. Même les chercheurs du CNRS qui, comme l’a révélé La Provence, profitent de la saison touristique pour venir enquêter au milieu des parasols et des serviettes de plage !

Plage de la Pointe-Rouge

Du 10 au 17 juillet, c’est une dizaine de scientifiques du CNRS, issus des laboratoires de recherche ESPACE (pour « Etude des structures, des processus d’adaptation et des changements de l’espace », ça ne s’invente pas !), Hydroscience Montpellier et le CEREGE basé à Aix-en-Provence qui ont ainsi passé leurs journées à sillonner les plages marseillaises de pointe-Rouge, du Prophète et de La Lave.

Cette opération se déroule dans le cadre des travaux de l’Observatoire Hommes-Milieux « littoral méditerranéen », un dispositif de recherche pluridisciplinaire qui vise à étudier l’effet de l’urbanisation et de l’anthropisation côtière en Méditerranée. Vaste programme qui exige donc de la part de ces scientifiques de sacrifier leurs plus belles journées de juillet pour aller se promener sur la plage, enduits de crème solaire, sur des terrains d’enquête particulièrement hostiles puisque l’étude concerne, outre le littoral marseillais, le Golfe d’Aigues-Morte et les rivages corses de Balagne et du Sud de Bastia.

L’objectif d’une telle plongée en immersion au milieu des baigneurs ? Mieux caractériser la fréquentation, les pratiques et les usages sur ces plages très fréquentées du littoral méditerranéen et en évaluer l’impact sur la qualité des eaux de baignade.

La plage du Prophète sous la Corniche

Pour cela, il s’agit d’abord de connaitre à tout moment de la journée le nombre de personnes présentes sur la plage, ce qui suppose de compter en permanence les arrivées et les départs : pas question donc de se laisser distraire par une petite sieste à l’ombre du parasol tout en lorgnant les jolies baigneuses. Pour être sûr de leurs chiffres, les chercheurs procèdent en parallèle et toutes les heures à des prises de vue de la plage depuis un point haut, de quoi occuper des armadas de stagiaires qui seront ensuite chargés de décompter les personnes présentes sur la plage et d’ajuster les observations de terrain.

En même temps, des prélèvements d’eau de mer sont effectués, toutes les heures également, pour être analysés afin de mesurer la densité de bactéries de type entérocoques, mais aussi d’évaluer la quantité de résidus de crème solaire qui agrémentent l’eau de baignade. Contre toute attente, les premiers résultats de ces analyses indiquent d’ailleurs que plus la fréquentation de la plage augmente, plus la qualité de l’eau de baignade se détériore ! Un résultat qui ne fait bien entendu que confirmer ce que chacun présentait, mais ce qui va sans dire va parfois mieux en le disant…

Et les chercheurs ne s’arrêtent pas là puisqu’ils prennent aussi le temps d’aller à l’encontre des vacanciers, questionnaires en main, pour mieux connaitre leurs us et coutumes. Une enquête sociologique très poussée qui a d’ores et déjà permis de mettre en évidence un fait troublant : à la plage, on se méfie des toilettes publiques pourtant présentes et plutôt bien entretenues de l’avis de nos anthropologues baroudeurs. Chacun préfère aller faire ses besoins dans la mer, ni vu ni connu. Un procédé qui n’est peut-être pas totalement étranger à la corrélation qui semble exister entre la densité de baigneurs et celle des bactéries dans l’eau de mer…

Qualité des eaux de baignade sur la plage du Prophète (source : site Eaux de baignade)

Mais bien entendu, comme dans tout protocole de recherche scientifique, il faut se méfier des conclusions hâtives et ne surtout pas se hasarder à vouloir anticiper sur les résultats de ce vaste programme d’études tant que toutes les analyses n’ont pas été recoupées avec toute la rigueur nécessaire. Il faudra sans doute patienter encore un peu pour que soient enfin disponibles les résultats de ces recherches passionnantes qui feront sans doute l’objet de publications scientifiques de premier plan, voire d’un colloque international, pourquoi pas sur une plage de Balagne ?

Ceci dit, et sans vouloir présager des conclusions de cette étude, il est à craindre qu’elle n’ait été entachée d’un petit biais expérimental. Le même journal de La Provence nous apprenait en effet que le jeudi 13 juillet, alors que la campagne d’observation scientifique battait son plein, trois plages marseillaises dont celle de Pointe-Rouge qui faisait l’objet de toutes les attentions des équipes de chercheurs, avaient dû être fermées au public toute la matinée du fait de la mauvaise qualité des eaux de baignade, tandis que les deux plages du Prado nord et sud étaient quant à elles toujours fermées en attendant les résultats de nouveaux test.

Plage de l’Huveaune à la fin des années 1960 (photo Jean Pagano / La Provence)

Ces mêmes plages du Prado dont on fête actuellement les 40 ans puisqu’elles ont été ouvertes au public le 18 juillet 1977, après qu’on eut déversé à l’embouchure de l’Huveaune des millions de m3 de déblais issus des travaux de creusement du métro, de quoi gagner 20 hectares supplémentaires sur la mer et permettre d’augmenter ainsi considérablement la quantité de baigneurs qui peuvent venir s’y prélasser : une fréquentation estimée à 3,5 millions de personnes chaque année. On comprend, sans forcément se livrer à des enquêtes sociologiques approfondies, qu’avec une telle pression humaine la qualité de l’eau du littoral puisse en être quelque peu altérée…

L.V. 

Marseille redécouvre le ruisseau des Aygalades

1 juin 2017

La cascade des Aygalades fait partie de ces petits paradis secrets que l’on découvre parfois au hasard de ses pérégrinations dans les quartiers de Marseille, la ville aux multiples facettes. Située dans le 15ème arrondissement, juste en contrebas de l’autoroute A7, à l’entrée nord de la ville, elle se déploie le long de la Cité des Arts de la Rue dont on repère de loin l’emplacement, avec son fameux bus de la RTM planté verticalement comme un totem décalé et bien visible depuis l’autoroute.

La cascade des Aygalades

Au XIXe siècle, cette superbe chute d’eau de 9 m de haut et sa vasque d’eau fraiche enserrée dans un écrin toujours verdoyant était un lieu très prisé de la bourgeoisie marseillaise qui venait s’y rafraîchir l’été. Elle était alors située sur la propriété du Château des Aygalades qui fut purement et simplement détruit pour laisser la place au chantier de l’autoroute A7, à une époque où l’on ne souciait guère de préserver le patrimoine naturel ni architectural et où l’on était prêt à tout sacrifier pour faciliter la circulation automobile.

Ancienne carte postale montrant la cascade en 1911 (source : made in marseille)

Le ruisseau des Aygalades qui, à cet endroit présente un lit naturel serpentant au milieu des rochers et à l’abri des figuiers, fait partie de ces quelques fleuves côtiers de l’aire métropolitaine marseillaise, au même titre que l’Huveaune ou que la Cadière. Prenant sa source sur le flanc nord-ouest du massif de l’Etoile, il s’étire sur un peu plus de 17 km, traversant sur toute sa longueur la ville de Septèmes-les-Vallons, puis le quartier de Saint-Antoine et celui des Aygalades. Plus en aval, il traverse des quartiers très industriels où il a été largement busé et transformé en réseau d’assainissement urbain.

Ce cours d’eau méditerranéen aux eaux abondantes comme l’indique l’étymologie de son nom (aqua lata en latin) a longtemps servi à alimenter les fontaines et les lavoirs du quartier puis à faire tourner les industries du secteur : sucreries, savonneries et fabrique d’alumine notamment.

L’usine de sucre Saint Louis dans les années 1950 le long du ruisseau des Aygalades (en bleu) – source Julien Rodrigez

L’usine d’alumine de Saint-Louis des Aygalades y a ainsi été implantée directement sur les berges du ruisseau en 1906, un peu en aval de la cascade. Alimentée en énergie grâce au charbon de Gardanne qui était acheminé jusque là via la Galerie à la mer, cette usine employait près de 800 personnes en 1913 et s’est reconvertie dans les années 1960 dans la fabrication du gallium avant de fermer définitivement en 1977, laissant pour la postérité un énorme terril de boues rouges…

Cette exploitation industrielle à outrance a progressivement transformé le ruisseau des Aygalades en simple égout nauséabond, dont le tracé a même fini par être plus ou moins oublié des riverains. Et pourtant, les initiatives pour redonner à ce cours d’eau en site urbain plus de visibilité commencent à se multiplier. Le GR 2030 permet désormais de découvrir ce site et plusieurs associations locales œuvrent de manière remarquable pour faire redécouvrir les lieux aux Marseillais. C’est le cas notamment de l’APCAR (association pour la Cité des arts de la rue) avec ses fameux ateliers de révélation urbaine, mais aussi d’Arnavant, animée par les entrepreneurs locaux.

C’est dans ce contexte qu’a émergée l’idée de profiter du projet d’aménagement urbain Euroméditerranée pour rouvrir la partie aval du ruisseau entre le parc François Billoux et  son embouchure située à Arenc. Ce projet de nouveau parc paysager des Aygalades devrait s’étendre sur 14 ha dans le prolongement du parc Billoux situé au niveau de la nouvelle station de métro boulevard du Capitaine Gèze. Traversée par le ruisseau remis à l’air libre et arboré, ce sera un vaste espace naturel permettant de se promener au bord de l’eau tout en jouant le rôle de bassin naturel de réception des ruissellements urbains lors des épisodes pluvieux.

Le futur parc des Aygalades (© François Leclercq architecte)

Début 2017, l’établissement public d’aménagement Euroméditerranée a ainsi confié à un groupement d’architectes et de bureaux d’études le soin de dessiner le parc Bougainville prévu sur 4 ha, premier maillon de cette future coulée verte, à l’interface entre plusieurs grands programmes de renouvellement urbain dont le Parc habité d’Arenc où sont prévus 1200 logements et les Docks libres (800 logements).

Le coût total d’aménagement de cette première partie sud du futur grand parc est estimée à 38 millions d’euros en intégrant le coût des acquisitions foncières, celui des études mais aussi celui de la dépollution des sols et celui des travaux d’aménagements qui s’étaleront au moins jusqu’en 2020. L’agence d’urbanisme nantaise D’ici là, qui est mandataire du groupement lauréat du concours entend ainsi renaturer le ruisseau des Aygalades sur les 250 m de la traversée du futur parc avec l’aide du bureau d’études Biotec.

Esquisse du futur parc Bougainville (© D’ici là)

Le projet imagine de concilier différents usages sur ce vaste espace naturel à aménager, avec, près de la station de métro Bougainville, une aire destinée aux loisirs sportif et à l’accueil d’événements festifs, tandis que les zones périphériques seront consacrés à des usages plus ciblés dont un potager associatif, un parcours botanique et une aire de jeu. Mais le projet lui-même fera l’objet d’une très large concertation avec les habitants du quartier afin de définir des aménagements qui répondent au mieux aux attentes des riverains : une démarche participative qui mérite d’être saluée !

Et en attendant que ce futur parc paysager voie le jour, freiné pour l’instant par la question toujours en suspens de la libération par la SNCF de la gare de fret du Canet, sachez que, comme chaque année à l’occasion des Journées européennes du patrimoine, la Cité des arts de la rue ouvrira ce week-end, les 2 et 3 juin 2017, le site de la cascade des Aygalades : une bonne occasion de venir découvrir ce site exceptionnel et le riche patrimoine naturel et historique qui l’entoure…

L.V. 

La douche écolo qui vous en fait voir de toutes les couleurs

17 mai 2017

Ségolène Royal et Gabriel Della-Monica, le fondateur de Smart & Blue

« L’écologie ne doit pas être punitive » disait Ségolène Royale pour justifier l’abandon totalement injustifiable de l’écotaxe poids lourds. Encore ministre de l’écologie la semaine dernière, comme elle l’était déjà en 1992, l’auteur de cette sentence mémorable serait, aux dernières nouvelles, toujours à la recherche d’un point de chute pour se recaser après que sa candidature à la tête du Programme des Nations Unies pour l’Environnement a été écartée… Pour autant, affirmer que les changements de comportements individuels en faveur d’une meilleure prise en compte des enjeux environnementaux ne passent pas par la contrainte mais par l’adhésion et la conviction, voila assurément une idée qui ne manque pas de bon sens…

Pommeau de douche connecté Hydrao First (photo © Erwan Lecomte / Sciences et Avenir)

C’est ce côté ludique qu’a voulu explorer la jeune entreprise grenobloise Smart & Blue, un nom qui fleure bon le terroir alpin, en développant son dernier produit, elle qui se présente comme le « leader des technologies innovantes et connectées pour une gestion intelligente de l’eau potable », rien que ça ! L’idée, il est vrai ne manque pas d’originalité puisqu’elle consiste ni plus ni moins qu’à prendre sa douche en couleur, grâce à un pommeau intelligent dont les buses sont équipées de LED polychromes qui éclairent l’eau du bain de toutes les couleurs.

L’objectif n’est bien évidemment pas de transformer sa salle de bain en boîte de nuit, mais tout simplement d’inciter à économiser l’eau de la douche. Quand on ouvre le robinet, les LED éclairent l’eau du jet en vert. Jusque là, tout va bien, à condition de ne pas faire couler plus de 10 litres d’eau, un volume normalement largement suffisant pour se laver correctement, comme le savent tout ceux qui ont un jour testé les douches à l’ancienne, constituées d’un simple seau d’eau et d’un récipient adapté, bol en plastique ou calebasse selon les usages locaux.

A partir de ce volume fatidique de 10 l, le jet d’eau passe au bleu. Rien de bien inquiétant encore, mais à partir de 20 l, l’eau de la douche passe au rose, puis au rouge et au-delà de 40 l, le rouge se met à clignoter. Rassurez-vous, il n’arrivera rien de plus grave au-delà, mais après un tel festival de couleur, même le consommateur le plus endurci et le plus rétif aux économies d’eau sera incité à tourner le robinet et à attraper sa serviette pour se sécher. Selon le concepteur du système, le Français moyen n’utilise pas moins de 80 l pour sa douche quotidienne, au point que pour une famille de 4 personnes l’eau de la douche représente près de 40 % de la consommation quotidienne d’eau : l’enjeu n’est donc pas mince !

Répartition de la consommation de l’eau domestique par type d’usage en France (source © Centre d’information sur l’eau)

Bien évidemment, un concept aussi novateur, commercialisé sous le nom d’Hydrao First et déjà récompensé par plusieurs prix  n’a pas besoin d’électricité pour fonctionner car cela rendrait l’empreinte environnementale du dispositif nettement moins séduisante, sans compter le risque d’hydrocution : le système utilise simplement une turbine intégrée qui tourne sous l’effet du jet d’eau et qui fournit l’énergie nécessaire à l’éclairage des lampes. Un dispositif astucieux et par ailleurs totalement branché.

L’appli smart shower

Car bien entendu, un tel bijou de technologie est forcément connecté. Une appli adaptée permet de paramétrer sur son smartphone ses propres seuils de réglage des changements de couleurs mais aussi de suivre l’historique de consommation de ses 200 dernières douches et de comparer sa consommation par rapport à sa douche de référence. De quoi occuper les amateurs de statistiques, et de quoi attiser les conversations familiales car bien entendu l’appli n’est pas en mesure de faire la distinction en fonction de l’utilisateur. Impossible désormais, avec un tel mouchard à la maison, de se prélasser tranquillement sous la ouche sans se faire ensuite vertement remarquer qu’on a sérieusement fait baisser la moyenne familiale et fortement augmenter la facture d’eau et d’électricité.

Suivi de consommation (photo Sciences & Avenir)

Tout se paye en effet et on sait illico en sortant de la salle de bain combien nous ont coûté ces quelques minutes passées sous la douche. Pas autant certes que le pommeau lui-même car ce gadget futuriste est quand même vendu pour près de 90 € et on a intérêt à se doucher souvent pour espérer amortir un jour un tel investissement…

C’est en tout cas une excellente affaire pour son concepteur dont la société vient de recevoir une nouvelle récompense lors d’un salon professionnel qui s’est tenu à Las Vegas en janvier dernier pour ses deux dernières nouveautés Hydrao Drop et Hydrao Loop. Toujours connectée à la même application Smart Shower, cette dernière est un pommeau de douche dont le design très élaboré rappelle vaguement le signe mathématique de l’infini, mais dont les fonctionnalités sont tout à fait comparables à celle du pommeau d’entrée de gamme Hydrao First, avec néanmoins une efficacité accrue en matière d’économie d’eau, pour la modique somme de 169 €.

Hydrao Loop, dernier né de la gamme au look futuriste

On peut bien sûr ironiser sur l’aspect gadget de ces innovations mais on est bien obligé de reconnaitre que son inventeur, l’ingénieur en télécom Gabriel Della-Monica, a su faire d’une idée originale un beau succès commercial. Installée au sein du pôle de haute technologie nano et microélectronique de Grenoble, la société Smart & Blue a mis 2 ans pour développer le produit, disponible à la vente depuis 2015. Deux ans plus tard, la société a déjà embauché plus de 10 salariés et est en plein développement. Quant à la fabrication, elle est sous-traitée à une entreprise industrielle qui favorise l’intégration des travailleurs handicapés : un bel exemple de la French Tech qui réussit en mettant en avant ses valeurs de responsabilité sociale et environnementale. Le cas n’est pas si fréquent et mérite d’être salué !

L.V.

Après les eaux usées, Marseille s’attaque au pluvial !

3 mai 2017

Baignade interdite au Prado après un orage (photo © P. Laurenson / AFP)

A Marseille, comme chacun sait, mieux vaut ne pas se baigner sur la plage du Prado après un orage. Rappelons que ce parc balnéaire qui s’étend sur 3,5 km de littoral et couvre près de 26 ha, a été aménagé de manière complètement artificielle à la fin des années 1970, sous la mandature du Gaston Deferre, pour permettre avant tout de se débarrasser à moindre frais des millions de m³ de déblais issus des chantiers de construction des lignes de métro. A l’époque, on ne prenait guère de gants avec l’environnement y compris dans une zone littorale située comme celle-ci à l’embouchure de l’Huveaune, dans un milieu naturel qui a dû jadis être un haut-lieu de la biodiversité…

Plages du Prado avec au centre l’embouchure de l’Huveaune

Il faut dire aussi que, dans les années 1970, l’Huveaune, à son arrivée en mer, n’était qu’un vaste égout malodorant charriant les effluves des nombreuses industries qui bordaient ses berges, et servant d’exutoire en mer aux eaux usées d’une partie de Marseille et des communes de l’amont, dont Carnoux.

Le réseau souterrain servant à canaliser les eaux usées s’était construit progressivement au cours du XIXe siècle, sous forme unitaire au centre ville, sous forme séparative (les eaux pluviales de ruissellement étant collectées à part) dans les quartiers plus récents et les communes voisines.

Vue du Grand émissaire de Marseille (photo © SERAMM)

Mais jusqu’en 1987, tout était rejeté directement en mer, sans le moindre traitement, via un grand émissaire construit en 1896 et aboutissant dans l’anse isolée et peu accessible de Cortiou, en plein coeur du massif des calanques, où un vaste fleuve de déchets boueux se jette dans la mer, en attendant qu’un jour peut-être, la collectivité finisse par le prolonger plus au large pour diminuer l’incidence de ces rejets sur les fonds côtiers les plus fragiles.

Rejet en mer dans la calanque de Cortiou (source)

En 1979, alors que la plage du Prado est aménagée, il n’est plus question d’y déverser les eaux fortement pollués et toxiques de l’Huveaune. Une dérivation est donc créée, qui renvoie ces eaux directement dans l’émissaire de Cortiou où elles sont ensuite rejetées en mer, ni vu ni connu. En période de fortes pluies cependant, lorsque l’émissaire est saturé, un déversoir d’orage permet aux eaux de l’Huveaune en crue de rejoindre leur lit naturel et de se rejeter en mer le long de la plage du Prado, qu’elles polluent alors allègrement en jonchant la plage des multiples déchets qu’elles charrient.

Vue en surface de la station de traitement des eaux usées Géolide

Dans les années 1970, sous la pression de certains naturalistes et des plongeurs qui s’alarment de la disparition des herbiers de posidonies et de l’appauvrissement de la faune marine au large des côtes marseillaises totalement ravagées jusqu’à plus de 40 km du rivage par ce flux incessant d’eaux polluées, la ville se décide enfin à mettre en oeuvre une station d’épuration physico-chimique, destinée au traitement des eaux usées de Marseille et de 15 communes environnantes, dont Carnoux. Le chantier commence en 1984, en bordure de l’Huveaune. La station, enterrée sous le stade Vélodrome, est mise en service en 1987.

Mais le renforcement de la réglementation en matière de traitement des eaux usées, avec notamment l’adoption en 1991 de la directive européenne sur les eaux résiduaires urbaines, rend très vite cette station insuffisante. En 2008, elle est donc complétée par l’adjonction d’un dispositif de traitement biologique, dit Biostyr, installé sous l’esplanade Ganay. La nouvelle station, dénommée Géolide, constitue la plus grande usine enterrée de traitement des eaux usées du monde et traite 70 millions de m³ d’eau usée par an.

Schéma de la station Géolide (source)

L’eau y est injectée dans 34 bassins de 1500 m³ chacun, remplis de billes de polystyrène sur 3,50 m d’épaisseur. Les bactéries fixées à la surface de ces billes fixent une partie de la pollution au passage. Pour éviter le colmatage des billes, celles-ci sont lavées chaque jour et l’eau de lavage subit un traitement physico-chimique par coagulation et floculation, suivi d’une décantation lamellaire afin d’agglomérer, concentrer et piéger les bactéries sous forme de boues. Ces boues sont alors acheminées vers une usine de traitement, située à 6 km de là, dans l’ancienne carrière de la Cayolle qui surplombe la calanque de Sormiou. Les boues y sont épaissies et séchées avant d’être valorisées sous forme de compost qui sert actuellement à réhabiliter l’ancienne décharge d’ordures ménagères d’Entressen.

Vue de la station de traitement de la Cayolle (photo © Lakko Marseille)

Cependant, en cas de forte pluie, le système d’assainissement n’est pas en mesure de traiter l’ensemble des effluents collectés car les eaux de ruissellement viennent alors grossir les flux habituels d’eaux usées, provoquant rapidement la saturation des capacités de traitement. Pour éviter que la ville ne soit noyée sous un flot d’eaux polluées et nauséabondes, tout l’excédent est alors rejeté directement en mer, principalement par l’émissaire de Cortiou mais aussi en partie via l’ancien exutoire de l’Huveaune, donc directement sur la plage du Prado !

Ce problème récurrent commençant à déprécier sérieusement l’attrait touristique de la ville, l’ancienne Communauté urbaine Marseille Provence Métropole s’est engagée en 2010 dans un projet de contrat de baie, désormais opérationnel depuis juin 2015 pour une durée de 6 ans avec, à la clé, un budget de 265 millions d’euros, dont 185 millions engagés via le Contrat d’agglomération de traitement des eaux usées signé l’année d’avant avec l’Agence de l’Eau Rhône-Méditerranée, et 25 millions mobilisés dans le cadre du contrat de rivière de l’Huveaune, signé en octobre 2015 à Aubagne.

Inondations rue de Rome à Marseille en septembre 2000 (photo © Bataillon des marins-pompiers de Marseille)

Une des actions phares de ce contrat de baie consiste précisément à s’attaquer enfin au problème des eaux pluviales qui rendent inopérant le traitement des eaux usées de l’agglomération marseillaise en période de fortes pluies. L’objectif affiché, qui peut paraître modeste, est de réduire de 50 % les rejets d’eaux usées non traitées vers la calanque de Cortiou au cœur du Parc National des Calanques, et ceci en réponse à un arrêté préfectoral de janvier 2004 qui impose à la collectivité de réaliser d’ici fin 2018 une capacité de rétention des eaux usées de 90 000 m³.

Un premier ouvrage a ainsi été réalisé dès 2007 à l’occasion des travaux de requalification de la rue de la République dans le cadre de la prolongation du tramway. Gigantesque cylindre de 49 m de long situé à 15 m sous terre, ce bassin permet de stocker 14 500 m³ collecté en centre ville. Les gros déchets y sont récupérés et la partie claire de l’eau décantée est rejetée en mer une fois l’orage passé, tandis que les eaux polluées sont envoyées à la station de traitement dès que celle-ci est de nouveau en capacité de les traiter. Quatre autres basins sont prévus sur le périmètre de l’agglomération marseillaise : un de 12 000 m³ achevé en septembre 2015 place Jules Guesde à la Porte d’Aix, un de 15 000 m³ dans l’emprise du tunnel ferroviaire désaffecté Lajout près de la nouvelle station de métro boulevard Capitaine Gèze, un autre de même capacité cours Pierre Pujet, et enfin un plus vaste de 33 000 m³ à Saint-Mauront, près des Docks.

Vue intérieure du bassin Ganay lors de son inauguration (photo publiée par GoMet)

Un sixième ouvrage profond de 30 m pour un diamètre de 56 m et une capacité de 50 000 m³, a été construit à partir de 2014 sous le stade Ganay. Désormais achevé et inauguré en avril 2017, ce gigantesque bassin enterré, pour lequel il a fallu mobiliser pas moins de 80 000 tonnes de béton, doit être relié d’une part à la station de traitement Géolide et d’autre part au réseau unitaire. Pour cela, il a notamment fallu creuser une galerie de 3 m de diamètre et 300 m de longueur, à 10 m de profondeur. Un tunnelier a été mobilisé dans ce but, pendant près de 6 mois, jusqu’à ressortir près du boulevard Michelet en décembre 2016, une fois sa tâche accomplie.

Sortie du tunnelier (photo © N. Vallauri pour La Provence)

Vue en coupe du bassin Ganay (source)

En surface, on ne verra du bassin Ganay qu’un modeste bâtiment de service au forme de simple pavillon et il reste encore à reconstruire le nouveau stade Ganay au dessus du réservoir enterré dont les Marseillais seront bien en peine d’imaginer l’existence une fois le chantier achevé. C’est d’ailleurs le risque de ce type de démarche qui consiste à masquer de la vue du citoyen les aménagements pourtant indispensables au fonctionnement de la ville : à force d’oublier que la gestion des eaux fait partie intégrante de la vie urbaine, comment peut-on s’en approprier les enjeux pourtant essentiels ?

L.V.  

Rivières mystérieuses de Cassis : les explorations se poursuivent…

22 avril 2017

En octobre 2015, une conférence organisée par le Cercle progressiste de Carnoux et animée par l’association Cassis, la rivière mystérieuse, avait attiré plus de 120 personnes pour visionner deux films spectaculaires présentés par Gérard Acquaviva et Louis Potié. Un succès qui s’explique largement par la fascination qu’exerce l’exploration en cours de ces deux résurgences en mer d’eaux douces, connues vraisemblablement depuis l’Antiquité mais dont on commence seulement à mieux appréhender les cheminements souterrains.

Emplacement des sources de Port-Miou et du Bestouan (source KarstEAU)

Au cours de l’année 2016, les explorations de ces conduits karstiques noyés, parcourus et cartographiés désormais sur plusieurs kilomètres et qui débouchent en mer, se sont poursuivies avec notamment plusieurs campagnes de plongée en avril et mai 2016 organisées en présence du plongeur professionnel Xavier Méniscus, qui avait battu en juillet 2015 un record européen de plongée spéléologique en descendant à -262 m dans un gouffre des Corbières.

Matériel utilisé pour la plongée de Xavier Méniscus à Port-Miou le 28 mai 2016

A Port-Miou, le 28 mai 2016, il est descendu à -145 m dans le grand puits terminal (qu’il avait exploré en 2012 jusqu’à -223 m), un puits qui se situe en amont de la galerie d’entrée, à un peu plus de 2 km du débouché en mer, dans la calanque de Port-Miou. Plusieurs vidéos ont été tournées à cette occasion, par Michael Walz et Fred Swierczynski. Le montage de ces images sous-marine donne une bonne idée de la nature de telles expéditions et de la sophistication du matériel nécessaire pour s’engager dans une telle entreprise.

Plongée dans la galerie naturelle de Port-Miou (extrait d’une vidéo réalisée par Fred Swierczynski en avril 2016)

On y voit les plongeurs se faufiler à travers les buses du barrage anti-sel qui avait été construit dans les années 1970 à une période où l’on espérait pouvoir exploiter un jour cette résurgence d’eau douce en la protégeant des remontées d’eau saline. Depuis, les investigations effectuées par les universitaires du programme KarstEAU, sous la conduite de Bruno Arfib, ont permis de comprendre que d’autres intrusions salines plus profondes permettaient à l’eau de mer de contourner ce barrage.

Coupe schématique de la résurgence de Port-Miou (document extrait de la plaquette Les rivières de Cassis)

Les images tournées à l’occasion de ces plongées récentes donnent une bonne idée de la taille de la galerie principale dans laquelle évoluent les plongeurs, et surtout de l’ampleur du puits qui se développe à l’extrémité de cette galerie.

Plongée dans le puits de Port-Miou (extrait d’une vidéo réalisée par Fred Swierczynski en avril 2016)

On y voit aussi un plongeur déverser de la fluorescéine dans la galerie fin de réaliser une mesure de débit (par suivi de la dilution).

Essai de coloration à la fluorescéine à Port-Miou (extrait d’une vidéo réalisée par Fred Swierczynski en avril 2016)

En avril 2017, de nouvelles plongées viennent d’avoir lieu, toujours dans la galerie de Port-Miou, qui ont notamment permis d’installer deux fluocapteurs à charbon actif qui devraient permettre de détecter finement toute trace de fluorescéine en vue de nouvelles tentatives de coloration.

Car dans le même temps, les explorations spéléologiques continuent depuis la surface du plateau calcaire, afin de tenter de repérer des voies d’accès terrestres vers l’amont de ces galeries souterraines noyées. En 2015, les spéléologues concentraient beaucoup d’espoir sur le gouffre de la Gorguette qui se situe juste en contrebas de la route départementale, dans la descente entre Carnoux et Cassis. Un essai de coloration y a donc été tenté en octobre 2015, avec l’aide des pompiers pour apporter la charge de dilution nécessaire. Mais grande fut la déception de tous les acteurs de cette expérience car aucune trace de colorant n’a pu être détectée ni dans la résurgence du Bestouan ni dans celle de Port-Miou.

Extrait d’un article de La Provence du 31 octobre 2015 relatant la tentative de coloration depuis le gouffre de la Gorguette

Depuis, les efforts se concentrent donc sur deux autres avens situés à proximité l’un de l’autre, au dessus du Mussuguet, en bordure du camp militaire de Carpiagne, de part et d’autre de la limite administrative du parc National des Calanques (ce qui ne facilite pas les autorisations pour y intervenir !).

Tête de l’aven Mussuguet 3

Le premier, dit Mussuguet 3 de son petit nom, est un puits vertical de 32 m de profondeur dont le fond est obstrué d’éboulis argileux et où la présence de caz carbonique oblige à prendre de nombreuses précautions. Persuadés que cet aven se prolonge en profondeur, les spéléologes s’acharnent depuis 2013 à déblayer le fond du gouffre de ces blocs éboulés. En février 2015, alors qu’ils avaient réussi à approfondir de quelques mètres le fond du trou, une première coloration a montré que ce point d’infiltration naturel était bien en lien direct avec la galerie de Port-Miou située juste en dessous puisque la fluorescéine a été détectée au barrage de Port-Miou 43 heures plus tard, après avoir parcouru environ 3,5 km en souterrain.

Equipement du Mussuguet 3 pour sa désobstruction (photo MV, 18 octobre 2015)

Cette bonne nouvelle a dopé les espoirs des spéléologues qui ont donc redoublé d’efforts, équipant à demeure le puits d’un portique métallique pour y suspendre le treuil destiné à remonter les déblais. Fin 2016, après de nombreux week-end passés à se relayer au fond du puits pour remplir des seaux d’argile, la profondeur de l’aven atteignait 44,15 m. Un travail de fourmi donc qui devra encore se poursuivre sachant que chaque seau remonté à la surface au prix d’efforts qui forcent l’admiration ne permet de faire baisser le fond du puits que de 1,3 cm en moyenne…

Quant à l’aven du Sumac, découvert en 2014 et situé à une centaine de mètres du précédent, il fait lui aussi l’objet d’un travail de forçat pour le désobstruer car il était totalement rempli de pierres lors de sa découverte. Le travail de déblaiement est d’ailleurs plutôt plus rapide dans ce dernier car les éboulis ne sont pas aussi argileux.

L’entrée du Sumac soigneusement protégée

En mai 2015, après avoir remonté plus de 2600 seaux de pierres, les spéléologues avaient ainsi atteint la profondeur de 12 m. Un an plus tard, alors que le fond du puits principal s’établissait à 19 m de profondeur, une diaclase secondaire a été repérée, laissant espérer un prolongement au moins jusqu’à la profondeur de 41 m. Le suspens se poursuit donc et tout laisse espérer que de nouvelles découvertes devraient permettre d’en savoir bientôt davantage sur ces fameuses rivières mystérieuses de Cassis et sur le réseau de conduits karstiques qui les alimentent depuis un vaste espace calcaire qui englobe probablement tout le massif du Beausset et peut-être même au-delà.

Rendons hommage en tout cas à ces passionnés qui se retrouvent tous les week-end pour progresser, centimètre par centimètre, pierre à pierre, seau après seau, dans la connaissance de ces réseaux souterrains qui se déployent sous nos pieds, aux portes de Carnoux.

L.V.  

Inondation : une nouvelle stratégie pour la métropole marseillaise

14 avril 2017

A Marseille comme dans le reste de la Provence, on craint traditionnellement surtout la sécheresse et les feux de forêt mais le risque d’inondation est loin d’être négligeable et souvent bien plus meurtrier. Les inondations de juin 2010 dans le Var, avec ses 26 morts et des dommages matériels évalués à un milliard d’euros, l’ont rappelé une fois de plus, de même que celles d’octobre 2015 dans les Alpes-Maritimes. Certains se souviennent peut-être de ce jeune homme mort noyé en août 1986 sur la route départementale entre Carnoux et La Bédoule, mais plus près de nous un orage survenu le 19 septembre 2000 avait encore fait 3 morts à Marseille et rebelote, 3 ans plus tard, avec encore 3 morts et 2 disparus à l’occasion de nouvelles pluies diluviennes en décembre 2003.

Un extrait de La Provence après l’inondation du 19 septembre 2000

Quand on fouille un peu dans les archives, on se rend rapidement compte que ces événements n’ont rien d’exceptionnel et se reproduisent de manière récurrente. De violentes crues de l’Huveaune ont laissé des traces dans les chroniques historiques en 1518, 1610 ou encore 1716. Le 22 octobre 1810, le centre-ville de Marseille était inondé suite à un violent orage, entraînant la mort d’une jeune fille. On pourrait citer de même d’autres épisodes catastrophiques du même type en date du 1er octobre 1892 ou encore le 8 novembre 1907 où l’on déplore 4 victimes et de gros dégâts. Début octobre 1973, ce sont 7 personnes en tout qui se noient à l’occasion d’une nouvelle vague d’inondations sur Marseille, tandis qu’en 1976 on dénombre plus de 1000 sinistrés suite à une nouvelle crue de l’Huveaune.

Bref, le territoire de la métropole Aix-Marseille est fortement exposé au risque inondation, même si chacun n’en a pas forcément conscience. C’est donc tout l’intérêt de la stratégie locale de gestion du risque inondation qui vient d’être adoptée le 14 mars 2017 par arrêté préfectoral, que de rappeler l’étendue de ce risque et de proposer une démarche cohérente pour le prévenir.

Cette stratégie locale, est la dernière étape d’un processus initié en 2010 suite à la transposition en droit français d’une directive européenne de 2007 sur les inondations. Cette démarche a consisté d’abord à mieux délimiter, sur l’ensemble du territoire national, les zones potentiellement inondables, puis à identifier les territoires les plus exposés. Ces territoires à risque important sont au nombre de 122 en France dont deux sur le périmètre de la métropole marseillaise : l’un qui va de Gemenos à Marseille et l’autre qui couvre la zone d’Aix-en-Provence depuis Gardanne jusqu’à Salon-de-Provence.

Cinq fleuves côtiers principaux baignent l’agglomération d’Aix-Marseille : la Touloubre qui prend naissance au pied de la Sainte-Victoire et se jette dans l’étang de Berre, l’Arc qui passe près d’Aix-en-Provence et se jette également dans l’étang de Berre, la Cadière qui traverse Vitrolles et Marignane, le ruisseau des Aygalades, issu du massif de l’Etoile et qui se jette dans la mer à Marseille, tout comme le dernier, l’Huveaune qui traverse Aubagne et dont le bassin versant englobe l’essentiel de la commune de Carnoux.

Par souci de cohérence et même si des structures administratives différentes interviennent sur ces différents bassins hydrographiques, la stratégie locale qui vient d’être adoptée couvre ces 5 bassins versants et intéresse du coup les deux territoires à risque importants, dont l’ensemble du périmètre de la métropole Aix-Marseille-Provence qui a d’ailleurs vocation, de par la loi, à prendre en charge la compétence liée à la gestion de l’eau et des milieux aquatiques et à la prévention des inondations.

L’avenir dire si cette stratégie sera efficace, qui vise à améliorer les différents volets de la prévention du risque inondation sur ce territoire, depuis l’alerte et la gestion de crise jusqu’à la réduction de la vulnérabilité des enjeux exposés, en passant par une gestion plus adaptée des flux en cas de crue. Une chose est sûre : les services de l’État qui ont organisé l’élaboration de cette stratégie locale ont fait un gros effort de communication pour faire connaître la démarche et en diffuser largement les grandes lignes. Le contenu de la stratégie est librement accessible en ligne ainsi qu’une plaquette d’information et deux vidéo, l’une qui explique en quoi consiste la démarche et l’autre qui se veut un document de sensibilisation de la population vis-à-vis du risque inondation sur le territoire de la métropole marseillaise.

Extrait de la vidéo réalisée par la DDTM 13 sur la stratégie locale

Ce dernier document destiné au grand public mérite d’être largement diffusé. Il rappelle à tous la présence de ces cours d’eau qui traversent notre agglomération, souvent endigués voire busés comme l’Huveaune dans la traversée du centre-ville d’Aubagne, disparaissant de notre vue et se rappelant brusquement à notre souvenir lorsqu’ils cherchent à se frayer un lit au milieu des zones urbanisées à l’occasion d’un événement pluvieux plus intense que d’habitude. Leurs eaux, grossies par les flux qui ruissellement rapidement sur les terrains imperméabilisés des parkings de centres commerciaux et des zones industrielles ou pavillonnaires, débordent alors et empruntent les axes routiers où elles déferlent en emportant tout sur leur passage.

Extrait de la vidéo

La vidéo imagine un journal télévisé relatant le déroulement de la prochaine inondation qui ne devrait pas manquer de se produire sur le territoire de la métropole Aix-Marseille-Provence, en s’appuyant sur des images d’archives d’inondations récentes. Le résultat est assez saisissant et mérite d’être regardé, l’objectif étant bien évidemment de rappeler à chacun la réalité du risque et les bons comportements à adopter lors d’un tel événement.

Photo d’archive (copyrigth France 3)

Les inondations de ces dernières années, en zone méditerranéenne, ont en effet montré à quel point nombre de victimes dans ce type de catastrophe meurent parce qu’elles ont eu des comportements inadaptés et imprudents : vouloir à tout prix aller rechercher sa voiture dans un parking souterrain en cours d’inondation, s’engager dans une route partiellement inondée ou faire le forcing pour aller chercher ses enfants à l’école alors qu’ils y sont en sécurité, autant de gestes anodins mais qui sont trop souvent à l’origine de tragiques noyades.

Photo d’archive de l’inondation du 19 septembre 2000 à Marseille

Les automobilistes en particulier payent un lourd tribut à chaque inondation car ils se croient en sécurité dans leur voiture sans avoir conscience que celle-ci devient rapidement incontrôlable avec seulement 30 cm d’eau, pour un peu que celle-ci soit boueuse et qu’elle s’écoule rapidement, sans compter qu’il devient rapidement très difficile d’ouvrir les portières pour sortir d’un véhicule du fait de la poussée de l’eau.

Mieux vaut donc avoir conscience de ces éléments plutôt que de les découvrir par soi-même dans la panique d’une inondation ! C’est pourquoi on ne peut qu’inciter chacun à visionner cette courte vidéo qui rappelle ces quelques notions de base et invite à une vigilance active.

L.V.  

A Carnoux, les poissons sentent l’huile de friture…

25 février 2017

Tout le monde a tendance à l’oublier, mais le vallon dans lequel s’est établie la ville de Carnoux-en-Provence est le siège d’un oued, un vallat sec qui rejoint, en contrebas de l’autoroute, le Merlançon (issu de La Bédoule), lequel va ensuite se jeter dans l’Huveaune à Aubagne. Comme tout oued, il lui arrive de subir des crues, parfois meurtrières comme cela avait été le cas pour le Merlançon le 26 août 1986. La ville de Carnoux est d’ailleurs sujette au risque inondation, principalement du fait des nombreux dysfonctionnements de son système de gestion des eaux pluviales globalement sous-dimensionné par suite du développement anarchique de la ville depuis les années 1960.

Le ruisseau de Carnoux en contrebas de la RD 41E (photo prise le 10 novembre 2012)

Le ruisseau de Carnoux en contrebas de la RD 41E (photo prise le 10 novembre 2012)

Tout laisse penser néanmoins qu’avant l’urbanisation de ce vallon, l’oued ne devait être en eau que pour de courtes périodes consécutives aux épisodes pluvieux. Ce n’est plus le cas aujourd’hui, et la partie visible du cours d’eau, qui sert de fossé pluvial bétonné en contrebas de la route départementale RD 41E, entre le rond-point des Barles et la limite Est de la commune, coule désormais quasiment toute l’année, en dehors de quelques rares périodes sèches. Car le ruisseau a été transformé en exutoire pluvial de la ville de Carnoux : toutes les eaux plus ou moins souillées qui s’épandent sur la chaussée, y compris au niveau de la zone industrielle, mais aussi les vidanges de piscines et les pompages permanents d’exhaure finissent tous dans le ruisseau, sans le moindre traitement !

Sortie à l'air libre du ruisseau de Carnoux en aval du rond-point des Barles

Sortie à l’air libre du ruisseau de Carnoux en aval du rond-point des Barles

Le ruisseau de Carnoux bizarrement orangé le 6 octobre 2014

Le ruisseau de Carnoux bizarrement orangé le 6 octobre 2014

C’est d’ailleurs la raison pour laquelle le cours d’eau, dans la partie où il s’écoule à l’air libre, à partir du rond-point des Barles, ressemble plus à un égout à ciel ouvert qu’à un ruisseau, avec des eaux qui passent par toutes les couleurs de l’arc-en-ciel au gré des produits qui y ont été déversés par les habitants et les entreprises de Carnoux…

Durant toute la traversée de la ville le ruisseau est en effet purement et simplement busé, ce qui est bien commode pour éviter d’avoir à se poser trop de questions existentielles quant à ce qu’on y rejette. On voit ainsi, au gré du parcours du ruisseau, des huiles de vidange et des solvants qui sont versés directement par les « bouches d’égout » installées le long des bordures de trottoirs, mais qui en réalité communiquent directement dans le ruisseau.

Regard sur le réseau d'eaux pluviales le long de la place du marché

Regard sur le réseau d’eaux pluviales le long de la place du marché

Des travaux ont pourtant été fait tout récemment en vue du réaménagement du centre-ville et on pourrait penser que l’esplanade où se tient le marché de Carnoux deux fois par semaine est au minimum muni d’une bouche d’évacuation reliées au réseau qui permet d’évacuer les eaux usées vers la station de traitement (située à Marseille près du stade Vélodrome). Mais il semble bien que rien de tel n’ait été prévu et on peut voir les commerçants déverser leurs huiles de friture usagées directement dans le réseau d’eau pluvial via les regards protégés par les grilles en fonte le long de la rue, autrement dit directement dans le ruisseau qui coule en dessous !

blog400_phruisseauC’est bien dommage pour la qualité de l’eau du Merlançon et de l’Huveaune en aval, pour lequel sept communes se sont pourtant regroupées au sein du Syndicat intercommunal du bassin versant de l’Huveaune qui pilote depuis 2015 un contrat de rivière doté d’un budget global de 18 millions d’euros en vue d’améliorer la qualité de ce milieu aquatique remarquable et d’en protéger les abords contre le risque d’inondation. La cohérence aurait voulu que la commune de Carnoux adhère au syndicat et participe à ce contrat de rivière dans une logique bien comprise de solidarité amont-aval.

Mais, comme à l’acoutumée, la municipalité a préféré joué les égoïstes et se soucie comme d’une guigne de ce qui se passe en aval de son territoire. Plutôt que de chercher à retenir autant que possible les eaux de ruissellement en amont et favoriser leur infiltration, elle bétonne à outrance, imperméabilise le moindre espace et élargit les tuyaux d’évacuation afin d’accélérer encore les flux qui iront inonder nos voisins en aval. Quant à la qualité des eaux qui alimentent l’Huveaune via le ruisseau de Carnoux, mieux vaut ne pas regarder de trop près ce qu’elles contiennent : assurément, les huiles de fritures que le vendeur de paëlla et ses collègues forains y déversent deux fois par semaine ne sont certainement pas les produits les plus nocifs qui s’y retrouvent ! Avis aux pêcheurs qui taquinent le goujon sur les berges de l’Huveaune : si le poisson sent un peu l’huile de friture, c’est qu’il baigne dans des eaux qui ont transité par le très buccolique vallon de Carnoux…

L.V.  lutinvert1small

A Flint, mieux vaut ne pas boire pas l’eau du robinet…

4 janvier 2017

La ville de Flint, située au nord des États-Unis, dans l’État du Michigan, fait partie, comme sa voisine Detroit, située à quelques 120 km de là, de ces cités américaines qui ont fondé leur prospérité sur l’essor de l’industrie automobile et qui ont subi de plein fouet le déclin de cette dernière. La société Buick y a été fondée en 1908 et General Motors en 1911, fournissant de l’emploi à foison pour toute la région.

Chaîne de montage de l’usine Buick à Flint

Chaîne de montage de l’usine Buick à Flint

Durant près d’un siècle, toute la ville ou presque a vécu de l’industrie automobile, jusque dans les années 1990, lorsque les usines General Motors ont fermé et ont même été entièrement rasées, laissant place à de vastes friches industrielles entourées de clôtures grillagées en plein centre ville. En 25 ans, la ville a perdu un tiers de sa population qui dépasse désormais péniblement les 100 000 habitants. Plus de la moitié de la population y est noire et 42 % vit en dessous du seuil de pauvreté, tandis que le taux de criminalité y atteint des records. Maisons, écoles, supermarchés et casernes de pompiers, devenus inutiles, y sont détruits les uns après les autres tandis que la ville se meurt à petit feu.

En 2011, la ville, surendettée, est au bord de la faillite, au point que la municipalité est placée sous tutelle d’un administrateur d’urgence, nommé par le gouverneur républicain du Michigan, Rick Snyder. Les élus démocrates, qui sont à la tête de la ville depuis des décennies, sont accusés de clientélisme et de gabegie. Une cure d’austérité s’impose donc et les nouveaux responsables se lancent dans une chasse effrénée aux économies.

La rivière de Flint, nouvelle ressource en eau supposée potable (photo B. Pugliano / Getty)

La rivière de Flint, nouvelle ressource en eau supposée potable (photo B. Pugliano / Getty)

En avril 2014, c’est l’alimentation en eau potable qui est passée au crible de l’audit financier. Traditionnellement, la ville de Flint achète son eau à Detroit mais le coût de cet approvisionnement est jugé excessif par les ardents défenseurs de la rigueur budgétaire. Qu’à cela ne tienne, on décide du coup de pomper directement l’eau dans la Flint River qui traverse la ville, au moins pour quelques années, en attendant un hypothétique projet privé d’approvisionnement depuis le lac Huron, à la frontière canadienne.

Usine de traitement de l’eau à Flint (photo B. Carlsen / AFP)

Usine de traitement de l’eau à Flint (photo B. Carlsen / AFP)

La petite station de potabilisation vétuste est sommairement réhabilitée et pendant un an et demi, la ville va ainsi être alimentée par une eau fortement polluée, riche en métaux lourds et en germes pathogènes, et surtout fortement corrosive, au point d’attaquer sérieusement les conduites en plomb constituant l’essentiel du réseau de distribution d’eau supposée potable.

Très rapidement, la population se met à souffrir de vomissements et les pathologies s’accumulent. Depuis juin 2014, 87 cas de légionellose sont recensés, dont 10 s’avèrent mortels. Les autorités recommandent de faire bouillir l’eau et font appel à l’expertise de certaines sociétés dont Véolia qui préconisent des traitements chimiques mais ces derniers ne font qu’aggraver la corrosion des canalisations. Les cas de saturnisme se multiplient et General Motors, qui avait conservé sur place une usine de poids-lourds, finit par rétablir à ses frais, dès octobre 2014, une canalisation d’adduction d’eau depuis Detroit pour mettre fin aux graves problèmes de corrosion qui menacent ses propres installations industrielles !

Manifestation à Flint le 25 avril 2015 (photo J. May /Flint Journal)

Manifestation à Flint le 25 avril 2015 (photo J. May /Flint Journal)

Face à l’inertie des autorités, la population s’organise et plusieurs associations se créent, dont Flint Rising, pour dénoncer ce scandale et réclamer des solutions à la hauteur du problème. En octobre 2015, sous la menace de plusieurs recours en justice, les autorités finissent par rétablir l’alimentation par le réseau de Detroit. Mais il faut encore attendre le 8 janvier 2016 pour que le gouverneur décide enfin de déclarer l’état d’urgence sanitaire. Le 16, Barack Obama a même placé Flint en état d’urgence fédérale, afin d’accélérer la distribution d’eau en bouteille et de filtres, avec ces mots : « si j’étais en charge d’une famille là-bas, je serai hors de moi à l’idée que la santé de mes enfants puisse être en danger ».

Depuis, la situation s’améliore lentement mais les distributions d’eau potable se poursuivent en attendant que les canalisations de plomb, désormais gravement corrodées, puissent être progressivement changées afin qu’elles ne continuent plus à empoisonner la population, lentement mais sûrement. Plus de 27 000 enfants seraient ainsi menacés par une intoxication irréversible au plomb…

Distribution d’eau en bouteille à Flint en mai 2016 (photo AFP)

Distribution d’eau en bouteille à Flint en mai 2016 (photo AFP)

Dans un tel contexte, chacun règle ses comptes et les attaques en justice se multiplient. Même Véolia, qui n’est pourtant intervenu dans cette affaire que pour une expertise ponctuelle courant 2015, est attaqué par le procureur général depuis juin 2016 et va devoir s’expliquer devant la justice américaine, au même titre qu’un de ses concurrents, la société Lockwood, Andrews & Newnam.blog376_pheaupolluee

Beaucoup accusent les autorités d’avoir fait preuve d’un laxisme coupable dans une ville dont la population, majoritairement noire et pauvre, était considérée comme suffisamment passive pour supporter une telle situation et ne méritant pas d’investir plus que le strict minimum pour renouveler les infrastructures publiques. De ce point de vue, les reportages de Frédéric Autran, pour Libération, ou de Yves Eudes, paru dans le Monde, sont tout à fait instructifs…

On sait désormais, depuis le procès de Christine Lagarde, que pour les responsables politiques d’un certain niveau, la négligence en matière de gestion des affaires publiques, n’est qu’une faute vénielle qui ne mérite même pas d’être condamnée. Puisse néanmoins cet exemple amener nos élus à réfléchir aux conséquences des décisions qui sont prises sous le seul angle des économies à court terme, même si, à de multiples égards, la gestion de l’alimentation de l’eau en France n’est pas soumise à autant de risques de dérives qu’aux États-Unis, jusqu’à présent du moins…

L.V.  lutinvert1small

Encore un traitement de faveur pour Alteo !

1 décembre 2016

Décidément, l’usine d’alumine Alteo de Gardanne qui continue depuis plus de 50 ans de rejeter en mer ses effluents toxiques au large de Cassis, n’a pas fini de faire parler d’elle : le sujet a même fait l’objet d’une discussion spécifique à l’occasion de l’examen en première lecture à l’Assemblée Nationale du projet de loi de finance pour 2017 !

Vue de l'usine d'alumine Alteo à Gardanne

Vue de l’usine d’alumine Alteo à Gardanne

Dans la discussion d’un projet de loi de finances, il y a toujours un moment de défoulement, celui des articles non rattachés qui permet aux parlementaires de déposer leurs amendements les plus hétéroclites et parfois de les faire adopter, à la faveur d’un malentendu ou d’un relâchement de l’attention générale.

Le député Olivier Faure

Le député Olivier Faure

Le crû 2017 n’a pas failli à la tradition et on y a donc débattu (longuement) de deux amendements quasi identiques portés par un député socialiste de Seine-et-Marne, un certain Olivier Faure, visant à aligner le paiement de la redevance de l’usine Alteo sur la règle commune.

L’histoire ne dit pas pourquoi un obscur élu de Combs-la Ville s’intéresse à un tel sujet, mais un petit retour en arrière s’impose pour comprendre le but de la manœuvre.

Comme toute entreprise polluante qui rejette dans le milieu naturel des substances toxiques, Alteo est soumise à une redevance perçue par l’Agence de l’Eau Rhône-Méditerranée-Corse (RMC) selon le principe pollueur-payeur. Le montant annuel de cette redevance est basé sur le volume rejeté de polluants organiques traditionnels mais aussi de matières en suspension. Sont également pris en compte dans le calcul la toxicité aiguë et 8 métaux et métalloïdes (arsenic, cadmium, chrome, nickel, cuivre, mercure, etc.) ainsi que d’autres paramètres tels que les nitrites, les nitrates, ou encore la température des rejets et, depuis 2016, 16 substances dangereuses pour l’environnement.

La formule de calcul est identique pour toutes les entreprises, sauf pour l’usine d’alumine de Gardanne qui a bénéficié en 2006, lors du vote de la loi sur l’eau et les milieux aquatiques d’un traitement de faveur taillé sur mesure. Certains parlementaires bienveillants ont alors convaincu leurs collègues d’appliquer un taux plafond plus faible pour les matières en suspension lorsque le rejet se fait au large des côtes, configuration qui concerne exclusivement la seule usine de Gardanne, alors aux mains de Péchiney. La canalisation issue de l’usine de Gardanne rejetait à cette date de l’ordre de 250 000 tonnes de boues rouges chaque année dans la Méditerranée, à quelques km de la côte et a donc bénéficié de cette mesure inédite, très avantageuse.

Emplacement de la conduite de rejet des affluents industriels d’Alteo

Emplacement de la conduite de rejet des affluents industriels d’Alteo

Malgré ce traitement de faveur, le site a vu sa redevance augmenter progressivement du fait de l’augmentation des taux sur les autres polluants, jusqu’à atteindre en 2012 le montant annuel de 2,6 millions d’euros. Rapportée au chiffre d’affaire de l’entreprise, la somme n’était pas énorme, mais elle a néanmoins été jugée excessive par l’industriel qui, plutôt que de tenter de diminuer la charge polluante de ses rejets, a préféré actionner ses relais politiques.

Avec d’ailleurs un succès incontestable, puisque un amendement parlementaire déposé en 2012 à l’occasion de la loi de finance rectificative a créé un taux plafond moins important pour les rejets au large des côtes concernant le paramètre de toxicité aiguë (matières inhibitrices), ce qui a permis une nouvelle fois de dégonfler la facture pour le site industriel provençal passé entre temps dans les mains du propriétaire actuel, le fonds d’investissement HIG European Capital Partners.

Et voila qu’en 2015, les procédures nationales pour évaluer la toxicité des rejets évoluent. Basées jusque là sur une évaluation de la sensibilité d’organismes caractéristiques des eaux douces, la méthode s’appuie désormais sur l’examen de l’impact sur d’autres organismes plus adaptées au milieu marin, des bactéries luminescentes. Une aubaine pour Alteo qui, du fait de ce changement de méthodologie et grâce à l’application du plafonnement spécifique dont elle bénéficie, verrait ainsi le montant annuel de sa redevance passer de 1,8 millions d’euros à 300 000 €.

blog363_dessin

Une misère qui rendrait d’un coup totalement inutiles les efforts que l’industriel est sensé développer pour réduire à terme la toxicité de ces rejets : à quoi bon investir de l’argent dans de la recherche pour polluer moins quand on peut polluer autant qu’on veut pour un montant dérisoire ? L’amendement du député de Seine-et-Marne avait donc pour but de maintenir un minimum de décence en faisant en sorte que la redevance de l’industriel soit divisée par 3 et non par 6, ce qui restait plutôt bienveillant.

Mais c’était encore trop pour les amis d’Alteo dont le secrétaire d’État Christian Eckert, qui est aussitôt monté au créneau pour défendre les intérêts du fonds d’investissement anglo-saxon, estimant bien naturellement qu’ « une telle disposition ferait peser un risque significatif sur l’avenir de cette entreprise qui serait très largement compromis ». L’ange gardien d’Alteo, le député François-Michel Lambert, qui s’est targué jadis d’une certaine fibre écologiste, a bien évidemment fait sonner la charge. Absent de l’hémicycle, il a aussitôt dépêché un député ami (élu dans le Val d’Oise) pour plaider la cause de l’industriel et sauver les 400 emplois évidemment menacés, son porte-parole estimant sans rire : « je pense qu’il vaut mieux négocier avec l’entreprise les moyens et les investissements nécessaires pour traiter ces rejets ». Entre amis, on s’arrange…

Le député Olivier Faure ne s’est pas laisser démonter par les arguments fallacieux et les chiffres totalement fantaisistes avancés par son collègue. Il a courageusement tenté d’argumenter en expliquant : « Il ne s’agit pas de pénaliser outre mesure cette entreprise, d’autant que ce sont les agences de l’eau qui fixent le taux et qu’elles ont le souci de maintenir l’emploi. Même si était voté le taux le plus élevé, la taxe ne pourrait être supérieure  à 500 000 € (…) les calanques n’ont pas besoin de continuer à être polluées. Oui à une baisse de la redevance, mais pas à n’importe quelles conditions. Continuer à stimuler les efforts me paraît la bonne mesure ».

Canalisation de rejet des effluents (photo MaxPPP)

Canalisation de rejet des effluents (photo MaxPPP)

Car en réalité, l’Agence de l’Eau n’applique pas les plafonds qui sont fixés par la loi mais reste très en deçà pour calculer le montant des redevances. Comme l’explique Laurent Roy, directeur de l’Agence RMC pour Actu-Environnement, le taux appliqué à Alteo était 30 fois inférieur au plafond réglementaire pour les matières en suspension et à 25 % du plafond fixé pour la toxicité aiguë. Certes, le conseil d’administration a souhaité que l’Agence se rapproche progressivement de ces plafonds mais on voit qu’il n’y avait pas péril en la demeure pour Alteo…

Et pourtant, contre toute attente, c’est encore le lobby pro-industriel qui a gagné cette bataille : l’amendement introduit par Olivier Faure, malgré toute sa mesure, a été rejeté. On imagine la joie au siège d’Alteo qui vient de recevoir, au gré de cet échange parlementaire, un signal très positif pour continuer à polluer allégrement les fonds marins en toute impunité et à moindre frais : champagne !

L.V.  lutinvert1small