Posts Tagged ‘Eau’

Le mirage de la mer à boire…

14 mai 2018

Dessaler l’eau de mer pour satisfaire nos besoins en eau douce : la solution technique paraît séduisante pour faire face à la raréfaction des ressources en eau douce, menacées par les épisodes de sécheresse et contaminées par les pollutions. Sachant que les océans recouvrent 70 % de la surface du globe terrestre, l’eau de mer apparaît pour beaucoup comme une ressource inépuisable. La transformer en eau potable après élimination de ses sels minéraux pourrait donc constituer, aux yeux de nombreux responsables politiques, une solution d’avenir à généraliser.

Usine de dessalement de l’eau de mer de Fujairah aux Émirats arabes unis (source © Suez)

En apparence, la solution technique n’est pas compliquée et les marins grecs la mettaient déjà en œuvre dans l’Antiquité en appliquant une recette concoctée par Aristote et qui consiste simplement à chauffer l’eau et à récupérer par condensation la vapeur ainsi émise. C’est le principe de la distillation, utilisé dans la marine de manière industrielle dès le XIXème siècle.

Depuis, il a fait naturellement l’objet de multiples améliorations techniques, avec notamment le développement de la vaporisation multi-flash qui consiste à faire passer l’eau, initialement chauffée sous pression, dans des enceintes à pression de plus en plus réduite qui entraînent sa vaporisation quasi instantanée. C’est ce type de procédé qui est notamment employé à grande échelle dans les pays du Golfe où l’énergie à base d’hydrocarbures ne coûte pas très cher.

Vue de la plus grande usine de dessalement de l’eau de mer fonctionnant en Europe, près de Barcelone

Car – est-il besoin de le préciser ? – l’opération est particulièrement gourmande en énergie. Certes, dans nombre de pays, comme le Qatar, qui recourt massivement au dessalement de l’eau de mer pour son approvisionnement en eau potable, l’eau est distribuée gratuitement et son prix de revient n’est donc pas considéré comme un problème. Ce qui explique d’ailleurs qu’un Qatari consomme en moyenne 1200 litres d’eau par jour, là où un Allemand n’en utilise que 95 litres !

L’usine de dessalement de l’eau de mer construite en 2010 à Hadera, au nord de Tel-Aviv en Israël

Heureusement, la technique a fait de nombreux progrès en la matière et on a de plus en plus recours à d’autres procédés nettement moins énergivores comme celui de l’osmose inverse. Là encore, le principe est simple puisqu’il consiste en une ultrafiltration sous pression à travers une membrane poreuse semi-perméable qui retient les sels. C’est cette technique qui est notamment utilisée couramment en Israël où près de 70 % de l’eau consommée par les particuliers provient du dessalement de l’eau de mer.

Pour autant, même avec ce type de procédé, dessaler l’eau de mer consomme encore cinq fois plus d’énergie que les usines de traitement d’eau douce classiques. Certes, on développe désormais de plus en plus d’installations de dessalement alimentées par des énergies renouvelables, comme c’est le cas par exemple sur l’île d’El Hierro aux Canaries, où trois usines fonctionnent grâce à l’énergie éolienne ou hydraulique et on commence à exploiter, pour l’instant à titre expérimental, des systèmes de distillation à four solaire.

Principe de fonctionnement de l’alimentation électrique d’une station de dessalement d’eau de mer sur l’île El Hierro, aux Canaries (source © Futura Sciences)

Mais tout cela ne résout pas le problème majeur qui est celui des rejets : la saumure concentrée et les produits destinés à limiter l’entartrage des installations, sont purement et simplement rejetés en mer où ils s’avèrent particulièrement néfastes pour le milieu naturel, surtout dans une mer fermée comme l’est la Méditerranée. Poussé à l’extrême, le principe consiste à augmenter sans cesse la salinité de l’eau laissée en mer, alors que cette salinité, qui est en moyenne de 35 g/l dans les océans atteint déjà 39 à 40 g/l en Méditerranée, 42 g/l dans le Golfe Persique et dépasse 50 g/l dans la Mer Rouge.

Sans aller jusqu’à prétendre, bien évidemment, que c’est à cause des usines de dessalement que l’eau de mer est salée, il n’en reste pas moins que les impacts environnementaux des rejets de ces installations apparaissent comme des plus préoccupants, en particulier sur les fonds marins où la saumure se dépose et perturbe non seulement la vie benthique mais aussi les courants marins.

Là aussi, les ingénieurs ne manquent pas d’imagination pour rechercher des solutions techniques. C’est ainsi qu’un cabinet canadien a imaginé, dans le cadre d’un appel à projet pour la production d’eau potable à Santa Monica, en Californie, une construction en forme de gros cigare posé à quelques encablures de la côte et qui devrait permettre de produire, grâce à l’énergie solaire, 4,5 millions de m3 d’eau potable par an tout en rejetant les saumures dans un bassin central à usage thermal : de quoi faire d’une pierre deux coups…

Maquette du projet The Pipe destiné à dessaler l’eau de mer près de Santa Monica en Californie (source © Khalili Engineers – Land Art Generator Initiative Design)

Mais l’on se rend compte aussi que l’alimentation en eau potable à partir d’eau de mer dessalée peut être à l’origine de carences graves en magnésium et en iode, comme c’est déjà le cas en Israël. Il faut donc rajouter ces éléments dans l’eau douce après s’être évertué à les enlever de l’eau de mer, ce qui du coup rend le procédé encore moins économique.

Globalement, le dessalement de l’eau de mer reste en tout cas un procédé coûteux qui n’est envisagé que faute d’alternative plus simple permettant d’exploiter les eaux de surface ou les nappes souterraines. Pourtant, on constate que certains pays n’hésitent pas à utiliser de l’eau dessalée y compris pour l’irrigation agricole. C’est le cas désormais en Espagne où, dès 2006, 40 % de l’eau produite par dessalement était en fait destinée à la production de tomates sous serres, en particulier dans la région d’Alméria.

Serres de cultures intensives près d’Alméria, alimentée à l’eau de mer dessalée (source © Ecotoxicologie)

Une telle situation paraît aberrante mais répond à une logique purement économique : cette production d’eau douce est indispensable pour répondre à l’afflux saisonnier de touristes dans une région où l’aridité du climat rend les ressources en eau douce trop rares, et le meilleur moyen de rentabiliser de tels investissements est de les faire fonctionner toute l’année en approvisionnant les agriculteurs pour la production maraîchère de contre-saison qui permet d’inonder tout le marché européen à bas coût.

Pas sûr que cette démarche soit la plus rationnelle en termes d’exploitation raisonnée et durable des ressources naturelles, mais dans le domaine de l’alimentation en eau, comme dans beaucoup d’autres, ce sont bien souvent d’autres critères qui dictent les investisseurs économiques…

L.V. 

Publicités

Vers une privatisation des barrages hydroélectriques ?

21 avril 2018

Voilà une information qui a fait le buzz dans tous les médias, de Libération à La Dépêche du midi, en passant par le blogger Ludo Torbey dont la vidéo d’Osons causer sur le sujet fait un tabac : Macron ose s’attaquer à notre patrimoine hydroélectrique et veut privatiser les barrages d’EDF, pour le plus grand bénéfice des multinationales, Total en tête, mais aussi les Allemands EON et Vattenfall, l’Italien Enel, le Canadien Hydro-Québec, voire des entreprises chinoises qui vont donc s’emparer de nos grands barrages, fleurons du génie industriel français.

Un véritable cauchemar pour les 160 000 salariés d’EDF dont 21 000 dans le secteur de l’hydroélectricité, et principalement les syndicalistes de la CGT qui ont été les premiers à monter au créneau après avoir appris, à l’occasion d’une réunion intersyndicale à Matignon le 7 février dernier, de la bouche de Thibaud Normand et Antoine Peillon, conseillers énergie du Premier ministre, que la France avait fini par céder aux exigences de la Commission européenne et acceptait d’ouvrir à la concurrence certaines des 433 concessions hydroélectriques françaises, et ceci dès 2018.

Barrage EDF de Sainte-Croix sur le Verdon, mis en service en 1974 (source © photothèque EDF)

On dénombre en France de l’ordre de 2300 installations hydroélectriques dont 433 donc qui relèvent du régime de la concession car d’une puissance supérieure à 4,5 MW. Elles totalisent à elles-seules 95 % de la puissance installée, soit de l’ordre de 24 GW. La part de l’hydroélectricité dans le mix énergétique français est relativement modeste, autour de 12 % (deux fois moins qu’au Portugal par exemple), même si l’hydroélectricité représente plus des deux tiers de l’énergie renouvelable produite en France.

Quoi qu’on en dise, la France reste totalement dépendante de la filière nucléaire pour son alimentation électrique et EDF fait tout pour que cette situation perdure, s’opposant de toutes ses forces à la volonté politique de réduire la part du nucléaire, refusant obstinément de fermer ces centrales même en fin de vie.

Or sur ces 433 concessions hydroélectriques, l’entreprise EDF en gère près de 85 %, le reste se partageant entre la CNR (Compagnie nationale du Rhône) et la SHEM (Société hydro-électrique du Midi). La CNR, créée en 1933, privatisée en 2001 et premier producteur français d’énergie exclusivement renouvelable est détenue principalement par le groupe public Caisse des Dépôts et des collectivités territoriales, avec comme actionnaire de référence minoritaire ENGIE (ex GDF-Suez). La SHEM, également producteur d’énergie 100 % renouvelable et lointaine héritière de la Compagnie des chemins de fer du Midi est aussi une filiale d’ENGIE.

C’est cette position dominante, quasi exclusive, d’EDF sur le parc hydroélectrique français, que l’Union européenne conteste depuis des années, prônant pour une ouverture à la concurrence. Car, contrairement à ce qu’on pourrait imaginer, les barrages en question n’appartiennent pas à EDF mais à l’État qui en a financé la construction (un gros investissement puisque l’on considère qu’il faut de l’ordre de 1 milliard d’euros pour aménager de quoi produire 1 GW).

Marcel Paul, syndicaliste et résistant, ministre de la production industrielle dans le gouvernement de Charles de Gaulle et instigateur de la création d’EDF-GDF en 1946

A l’époque où la plupart de ces barrages ont été construits, juste après la guerre, EDF était un service public, créé en 1946 sous l’impulsion du ministre et ancien résistant Marcel Paul avec un statut d’établissement public à caractère industriel et commercial. Bénéficiant alors d’un régime de monopole, EDF a pu s’arroger la quasi-totalité des concessions hydroélectriques, pour des durées de 75 ans.

Depuis, on s’est rendu compte que les situations de monopole jouaient rarement en faveur de l’usager ou du consommateur. La loi Sapin, adoptée en 2013 pour tenter de lutter contre les pratiques de corruption, a réduit la durée des délégations de services publics précisément pour éviter les dérives liées aux rentes de situation. En parallèle, l’ouverture progressive du marché de l’électricité à la concurrence sous l’impulsion politique de l’Union européenne et la transformation du statut d’EDF, devenue en 2004 une société anonyme cotée en bourse, ont radicalement changé la donne.

Certes, EDF reste détenue à près de 85 % par l’État français, ses autres actionnaires étant pour l’essentiel des investisseurs institutionnels (majoritairement étrangers). Mais l’entreprise se comporte désormais comme un champion de l’ultralibéralisme qui semble avoir totalement tourné le dos à ses valeurs initiales, ouvrant des filiales dans des paradis fiscaux, refusant de développer les énergies renouvelables, confiant la maintenance de ses centrales nucléaires à près de 20 000 sous-traitants en situation de grande précarité, exigeant sans cesse de nouvelles hausses des tarifs de l’électricité tout en amassant de juteux bénéfices.

EDF, fortement critiquée pour la gestion peu durable de son parc électronucléaire

Et l’hydroélectricité participe pour beaucoup à la constitution de ces bénéfices puisqu’on estime qu’ils s’élèvent à 1,25 milliards par an du seul fait de l’exploitation des concessions hydroélectriques depuis longtemps amorties, au point que l’électricité produite ainsi ne coûte de 20 à 30 € le MWh, contre 50 € le MWh d’origine nucléaire. Ces bénéfices sont principalement réinvestis à l’étranger et notamment au Royaume Uni où EDF a racheté British Energy en 2008 et lancé fin 2016 la construction des deux réacteurs nucléaires très controversés d’Hinkley Point, pour la modique somme d’au moins 21 milliards d’euros.

En 2010, l’État français avait annoncé une première vague d’appels d’offres pour la reprise de certaines concessions hydroélectriques mais sans jamais y donner suite. Au contraire, les concessions d’EDF déjà arrivées à échéance avaient été subrepticement rallongées moyennant quelques menus travaux supplémentaires de maintenance des ouvrages, au point qu’en octobre 2015, la commissaire européenne chargée de la concurrence, Margrethe Vestager, a adressé à Laurent Fabius, alors ministre des affaires étrangères et responsable à ce titre des questions européennes, un courrier pour l’informer de l’ouverture d’une enquête sur les concessions hydrauliques accordées en France à EDF.

Travaux de rénovation sur le barrage de Sarrans sur la Truyère en 2014 après vidange complète de la cuvette (source © L’Usine nouvelle)

Depuis, les acteurs français jouaient la montre alors que d’autres pays européens dont l’Allemagne avaient dès 2011 obtenu de sortir leurs barrages hydroélectriques du champ de la directive européenne sur les concessions, au même titre que les centrales nucléaires sont exclues du domaine concurrentiel car relevant d’activités « d’importante vitale ».

A l’époque, la France était déjà en position de faiblesse à cause de son taux d’endettement colossal totalement dérogatoire aux critères de Maastricht. Et désormais il se murmure que si le gouvernement a été contraint de céder aux injonctions de Bruxelles c’est pour faire baisser la pression contre le maintien des aides publiques françaises à l’agriculture…

Barrage de Bort-les-Orgues, sur la haute vallée de la Dordogne, mis en service en 1952 (source © Corrèze tourisme)

Toujours est-il que l’on annonce dès 2018 la remise en concurrence de certaines concessions hydroélectriques dont les barrages de Haute-Dordogne, celui de Beaufortain en Savoie et celui du Lac Mort en Isère. Les autres concessions suivront progressivement jusqu’en 2050, au fur et à mesure que les concessions initiales arriveront à échéance, conformément aux conventions signées initialement mais qu’EDF espérait bien ne jamais voir appliquer : dura lex, sed lex…

L.V. 

Les rivières mystérieuses de Cassis s’invitent au JT de TF1 !

16 avril 2018

C’est une belle consécration pour l’association de spéléologues qui travaille depuis des années à améliorer la connaissance des rivières souterraines du Bestouan et de Port-Miou qui débouchent en mer dans la baie de Cassis : le 12 avril 2018, un reportage tourné le 31 mars par une équipe de reporters de TF1 était diffusé au journal télévisé de 20h dans la rubrique Découverte.

Le reportage dure moins de 5 mn mais, diffusé à une heure de grande écoute, c’est un bel hommage pour cette équipe de passionnés qui passe tous ses week-end à poursuivre pas à pas ses explorations, en particulier dans la galerie noyée de Port-Miou qui fait l’objet de ce reportage.

Comme le président de l’association, Gérard Acquaviva, l’avait lui-même expliqué devant une assemblée très nourrie de Carnussiens à l’occasion d’une conférence organisée par le CPC en octobre 2015, cette source d’eau douce qui débouche en mer à l’entrée de la calanque de Port-Miou est en réalité l’exutoire d’une galerie souterraine karstique désormais noyée que les plongeurs ont pu remonter à contre-courant sur une distance supérieure à 2 km.

Dans les années 1960, la SEM s’était intéressée de très près à cette source sous-marine comme ressource potentielle d’eau douce pour l’approvisionnement de Cassis et avait été jusqu’à investir dans la construction d’un barrage souterrain situé dans une cloche d’air à 500 m en amont de l’exutoire en mer. L’objectif de ce barrage était d’empêcher les remontées d’eaux salines dans la galerie. Mais depuis, on a compris que les communications avec l’eau de mer se faisaient surtout par d’autres conduits naturels plus profonds, vestiges d’un ancien réseau karstique développé lorsque le niveau marin se situait nettement plus bas.

Infographie TF1

Le puits creusé à l’époque pour le chantier du barrage facilite néanmoins les explorations sous-marines qui se font à l’aide d’un matériel aussi encombrant et lourd que sophistiqué. Le lendemain du passage des reporters de TF1, l’équipe de plongeurs conduite par Xavier Meniscus s’est ainsi offert le luxe de progresser d’une vingtaine de mètres en terrain jamais exploré jusque-là.

Plongeur à Port-Miou (extrait du reportage de TF1 – source Xavier Meniscus)

A l’extrémité amont de la galerie s’ouvre en effet un immense puits qui descend jusqu’à 232 m sous le niveau de la mer, en limite des capacités actuelles de la plongée souterraine. Le 1er avril dernier, l’équipe de plongeurs est descendue jusque-là et s’est avancé jusqu’à un nouveau carrefour ouvrant sur deux galeries, l’une se dirigeant vers la mer et l’autre sous forme d’une diaclase par où proviennent vraisemblablement les eaux du bassin versant amont. La zone de contact entre l’eau douce, issue des écoulements souterrains amont et une eau très salée, proche de la concentration de l’eau de mer, a d’ailleurs été bien repérée, ce qui confirme que l’eau salée remonte depuis la mer par des conduits plus profonds.

A de telles profondeurs et dans des conditions d’accès aussi périlleuses, la progression des explorations sous-marines devient délicate. C’est pourquoi les spéléologues travaillent en parallèle à rechercher des accès depuis la surface du plateau calcaire, comme cela a déjà été exposé ici et comme l’indique le reportage. Les essais de colorations effectués en 2015 sur deux gouffres situés tout près de Carnoux avaient connu des fortunes diverses. Celui des Gorguettes, situé en contrebas de la descente de Cassis, n’avait pas mis en évidence de jonction avec la galerie de Port-Miou alors que la coloration effectuée sur le gouffre du Mussuguet 3 s’était révélée nettement plus prometteuse.

Entrée du puits Mussuguet 3

Depuis, les membres de l’association s’acharnent donc à tenter de désobstruer le fond de ce puits naturel, initialement comblé d’éboulis. Le travail, bien que fastidieux et harassant, est payant puisque le fond du puits approche désormais de la profondeur de 50 m ! On est encore très au-dessus du niveau de la galerie de Port-Miou qui court plus bas, mais les spéléologues gardent bon espoir…

D’autant qu’un autre trou est identifié à quelques centaines de mètres de là, présentant en outre l’avantage de se situer de l’autre côté de la limite du périmètre du Parc national des Calanques, ce qui en facilite l’exploration. Dans les deux cas, la présence en profondeur d’une forte concentration de gaz carbonique toxique complique la tâche des spéléologues et exige de prendre des précautions spécifiques pour extraire le gaz avant toute pénétration.

Ce second puits, baptisé Sumac, fait également l’objet d’un gros travail de désobstruction depuis plusieurs années et atteint désormais une profondeur comparable. Une nouvelle coloration est d’ailleurs prévue la semaine prochaine dans ce dernier gouffre, avec le secret espoir que la fluorescéine débouche bien dans la galerie de Port-Miou, où des capteurs très précis permettent de la repérer même à de faibles concentrations. Si tel est le cas, nul doute que cela regonflera le moral des spéléologues de Cassis, les rivières mystérieuses, qui redoubleront d’efforts pour parvenir un jour, qui sait ?, à la jonction entre ces conduits karstiques qui drainent le plateau calcaire, et cette galerie noyée qui débouche en mer. De quoi entretenir la fièvre de ceux qui explorent l’inconnu, à deux pas de chez nous !

L.V.  

Plonger au fond du gouffre, Enfer ou Ciel, qu’importe ?

Au fond de l’inconnu, pour trouver du nouveau.

Baudelaire, in Les Fleurs du mal

Coca-Cola se jette à l’eau…

14 avril 2018

Un dessin signé Nagy

Décidément, ces commerciaux sont vraiment trop forts, ou les consommateurs trop crédules ! Voilà que le géant de l’agro-alimentaire, la firme créée à Atlanta en 1885, The Coca-Cola Company, à l’origine de moult scandales de corruption, d’actions musclées de lobbying et d’études pseudo-scientifiques mensongères, voilà que cette société multinationale s’apprête à vouloir vendre aux Français de l’eau en bouteille au prix astronomique de 2,80 € le litre !

Voyant en effet les ventes de ses sodas stagner dans les pays européens où le marché est depuis longtemps saturé, la société cherche à se diversifier. Elle a déjà investi dans le domaine du bio avec les thés et infusions Honest et Fuze Tea. Mais son calcul vise surtout le marché de l’eau en bouteille, particulièrement florissant notamment en France où la consommation par habitant d’eau en bouteille est la deuxième du monde ! En 2015, la vente d’eau embouteillée en France représentait un chiffre d’affaire colossal de 2 milliards d’euros, avec une croissance estimée à 4,9 % pour l’année 2017, tant en volume qu’en valeur.

Un dessin d’Olivero

C’est incontestablement une victoire impressionnante des rois du marketing que d’avoir ainsi réussi à instiller aux Français l’idée que les eaux vendues dans des bouteilles en plastiques sont meilleures que celle qui sort du robinet alors que cette dernière est nettement plus contrôlée et infiniment moins chère.

En tout cas, Coca-Cola a bien repéré qu’il y avait là des bénéfices à engranger et s’apprête donc à venir tailler des croupières aux trois grands groupes qui se partagent actuellement 80 % de ce marché juteux. Nestlé Waters caracole en tête des ventes avec notamment ses marques d’eaux minérales Perrier, Vittel, Hépar ou encore Contrex, suivi de près par Danone, propriétaire entre autres des marques Evian, Badoit ou Volvic. Le troisième larron est le groupe Neptune qui commercialise par exemple Vichy Célestins, Saint-Yorre ou Pierval.

Mais Coca-Cola, troisième producteur mondial d’eau en bouteille, est prêt à en découdre et il met donc un pied sur le marché hexagonal en lançant la commercialisation de son eau en bouteille Smartwater après trois ans d’étude de marché. Lancée en 1996 aux États-Unis, puis en 2014 au Royaume Uni, cette marque, bien que vendue 5 fois plus cher que ses concurrents, s’est rapidement imposée sur le marché américain où elle truste 63 % des ventes, tandis que chez nos voisins anglais elle a déjà conquis 11 % de parts du marché en moins de 4 ans.

Un succès commercial d’autant plus étonnant qu’il s’agit d’une eau captée à la source de Morpeth, une ville du Northumberland, dans le nord de l’Angleterre, mais cette eau naturelle est ensuite distillée par évaporation puis reconstituée en y introduisant des sels minéraux, ceux-là même que le processus de distillation a éliminés. Une véritable aberration en matière de traitement d’eau, qui explique d’ailleurs le coût particulièrement élevé de cette eau totalement artificielle. Mais cela ne semble guère gêner les consommateurs qui retiennent seulement l’argument commercial de la purification à outrance…

Dès le mois d’avril, les consommateurs français qui ne regardent pas à la dépense trouveront donc, pour l’instant uniquement dans les magasins de la chaîne Monoprix, les bouteilles étiquetées Smartwater. De contenance 600 ml, ces bouteilles seront vendues au prix exorbitant de 1,40 € le flacon pour l’eau plate, et jusqu’à 1,75 € pour l’eau gazeuse. Un vrai luxe quand on compare avec l’eau du robinet qui revient en moyenne à moins de 4 € le mètre cube, soit 0,4 centimes le litre…

Dasani, l’eau en bouteille de Coca-Cola qui a fait un flop en Europe

Rien ne dit que le succès commercial sera au rendez-vous, d’autant que Coca-Cola a déjà subi un échec cuisant sur le marché européen. C’était en mars 2004. La firme d’Atlanta venait de dépenser 20 millions d’euros en budget publicitaire pour préparer l’ouverture du marché français à accueillir son eau en bouteille vendue sous la marque Dasani.

Un beau succès commercial aux USA où cette marque introduite en 1999 avait réussi à se placer parmi les eaux les plus vendues, mais un véritable accident industriel au Royaume Uni où la compagnie américaine se trouvait alors confrontée à une levée de bouclier totalement inattendue malgré le matraquage publicitaire qui avait accompagné l’arrivée de Dasani Outre-Manche. Il faut dire que les commerciaux américains ne faisaient pas dans la dentelle, présentant leur « pure eau plate » vendue en petite bouteille bleu clair comme un véritable concentré de pureté, contrairement aux eaux douteuses distribuées au robinet.

Le hic, c’est que l’eau en question, vendue 1,40 € la bouteille de 500 ml, n’était ni plus ni moins que de l’eau du robinet acheminée directement à l’usine Coca-Cola de Sidcup, située dans la banlieue londonienne, par le réseau public géré par Thames Water, une compagnie britannique de distribution d’eau, laquelle facture cette même eau à 0,4 centimes le demi-litre. La compagnie de service public en question ne s’est bien entendu pas privée de faire remarquer que le procédé frisait l’escroquerie…

Coca-Cola a certes fait valoir que l’eau en question subissait une purification supplémentaire par osmose inverse avant ajout de sels minéraux. Mais quand, de surcroît, la firme a été contraint de retirer de la vente 500 000 bouteilles en raison d’un taux de bromates supérieur aux normes britanniques autorisées, elle a alors préféré jeter l’éponge et renoncer à introduire son eau en bouteille Dasani tant en France qu’en Allemagne, se limitant à y commercialiser l’eau minérale issue de la source belge de Chaudfontaine acquise par les Américains en 2003.

A l’époque, la firme Coca-Cola s’était même vu décerner le prix Ig Nobel (prononcez « ignoble » en anglais, un prix satirique attribué chaque année par le magazine scientifique Annals of Improbable Research) de chimie 2004 « pour son usage de la technologie avancée pour convertir l’eau contaminée de la Tamise en Dasani, une eau minérale embouteillée… qu’il a fallu finalement retirer des étalages, pour présence d’un produit cancérigène ». Une distinction dont la firme d’Atlanta se serait sans doute bien passée mais que chacun a déjà oubliée… Vive le marketing !

L.V. 

Sous les ponts d’Ispahan coule…plus rien !

11 avril 2018

Vue de la ville d’Ispahan et de la rivière Zayandeh

La ville d’Ispahan, troisième d’Iran par sa population, avec plus de 2 millions d’habitants, fait partie de ces grandes métropoles urbaines qui se sont développées autour d’un cours d’eau, en l’occurrence le Zayandeh Rud, « le fleuve qui donne la vie » en persan. Prenant sa source dans les Monts Zagros, ce cours d’eau, l’un des rares permanents du pays, parcourt plus de 400 km avant de se jeter dans le lac Gavkhuni, un grand lac salé saisonnier perdu dans le désert.

Le madi Farshadi, canal d’irrigation destiné à répartir l’eau du Zayandeh

Située à plus de 1500 m d’altitude sur le plateau iranien aride, la ville est une oasis où la vie n’est possible que grâce au fleuve et aux multiples canaux d’irrigation, les madis, aménagés dès le 17e siècle qui distribuent l’eau à travers toute la ville et ses environs, y compris dans chaque maison organisée traditionnellement autour d’un patio intérieur cultivé et arboré. Avec une pluviométrie moyenne de 130 mm par an alors que l’évapotranspiration potentielle y atteint 1500 mm, aucune culture n’est en effet possible dans un tel contexte climatique sans irrigation.

C’est donc la rivière Zayandeh qui a permis à cette ville de se développer, au moins depuis le 4e siècle de notre ère puisque elle était un des centres urbains de l’empire sassanide avant la conquête musulmane, et de prospérer. C’est Malik Chah, un sultan seldjoukide qui en fait sa capitale après son accession au pouvoir en 1072.

La place meydān-e Naghsh-e Jahān au coeur de la ville d’Ispahan

Mise à sac par les troupes de Tamerlan en 1387, la ville redevient capitale à partir de 1597, à l’instigation de Chah Abbas, fondateur de la dynastie des Safavides, lequel transforme en profondeur la cité, aménageant notamment une grande place de 510 m de longueur, meydān-e Naghsh-e Jahān, une des plus grandes du monde, d’ailleurs classée au patrimoine mondial de l’humanité par l’UNESCO depuis 1979.

C’est de cette époque que date également la construction des grands ponts d’Ispahan, qui sont aujourd’hui au nombre de 11, permettant de franchir la rivière Zayandeh. Le plus ancien d’entre eux est probablement le pont Sharestan, dont les piles datent précisément de cette période sassanide entre le 3e et le 7e siècle après J.-C., mais dont les arches actuelles ont été reconstruites sous la dynastie des Seldjoukides aux alentours du 11e siècle.

Au pied du Si-o-Se Pol, l’un des plus célèbres ponts d’Ispahan, en 2002 (photo © Behrouz Mehri / AFP)

Le Si-o-Seh Pol, ou pont aux trente-trois arches, porte aussi le nom de son commanditaire Allahverdi Khan, un ministre de Chah Abbas, d’origine géorgienne, qui le fit construire vers 1608. Cet ouvrage sert non seulement pour le franchissement du cours d’eau mais a aussi une fonction de seuil, permettant de rehausser le niveau de l’eau à l’amont, pour permettre d’alimenter des prises d’eau qui irriguent les jardins de part et d’autre.

Le pont Khadju à Ispahan (photo © Kelly Cheng Travel Photography /Getty Images)

Comme le précédent, le pont Khadju, édifié cinquante ans plus tard sur les fondations d’un ouvrage préexistant, remplit également ce double office de pont et de barrage et sa structure est comparable, avec deux niveaux superposés, le second étant destiné à la promenade avec une allée centrale pour le passage des chevaux et des charrettes, et des allées latérales voûtées pour les piétons, mais aussi des cafés et des loggias permettant d’admirer le paysage. Pourvu de 23 arches, il présente une longueur totale de 133 m, pour une largeur de 12 m, ce qui en fait un ouvrage d’art remarquable pour cette période.

Ces ponts d’Ispahan, très prisés comme lieux de promenade, constituent un attrait touristique majeur. Sauf que la belle carte postale de l’eau coulant majestueusement entre les arches, formant au passage de joyeuses cascades, relève désormais du passé. Périodiquement asséchée au plus fort de l’été, la rivière Zayandeh a en effet purement et simplement disparu du paysage, ne laissant aux yeux du visiteur ébahi qu’un paysage aride de sable et de gravier ! A se demander même pourquoi l’empire perse a dépensé une telle énergie pour édifier de pareils ouvrages d’art alors que le lit de la rivière se traverse désormais à pied sec quasiment toute l’année…

Le pont Khadju dans son état actuel (source © Le site de Madeleine et Pascal)

La disparition du cours d’eau qui alimente depuis toujours la ville d’Ispahan date du début des années 2000. A l’époque, chacun accusait la sécheresse qui bien sûr n’est pas totalement étrangère au phénomène. Mais la vérité est que l’essentiel de l’eau du Zayandeh Rud est, depuis cette date, détournée en amont vers la région de Yadz qui se trouve être la ville natale de l’ancien président Mohammad Khatami.

Musée antique de l’eau à Yadz

Une ville oasis également, sans doute une des plus anciennes cités du monde puisque fondée aux alentours du troisième millénaire avant J.-C., située dans l’ancien empire des Mèdes, un des foyers de la religion zoroastrienne, puis une étape caravanière sur la Route de la Soie. Le canal qui détourne l’eau du Zarendeh vers cette zone désertique alimente d’ailleurs aussi la ville de Kerman, région natale d’un autre président, Hachemi Rafsandjani, lequel possède des champs de pistache qui en font un des premiers exportateurs du pays et pour lesquels les besoins d’irrigation sont prioritaires.

Cette disparition du fleuve détourné au profit d’autres régions alimente la colère des habitants d’Ispahan et surtout des agriculteurs de la région qui se désespèrent de voir leurs récoltes se dessécher sur pied. Plusieurs émeutes ont ainsi éclaté, les dernières datant de février 2013 selon Le Monde : les habitants du village de Varzaneh ont alors détruit les installations d’eau dans leur village, amenant les prêcheurs publics de la ville à les traiter d’« opportunistes égarés » et à les accuser de « collaboration avec l’ennemi ». La police n’a pas hésité à tirer, blessant trois manifestants avec des balles en caoutchouc, mais les habitants ont du moins obtenu, suite à ces incidents, la reconnaissance, par le procureur du tribunal révolutionnaire d’Ispahan, de la mauvaise gestion de certains anciens responsables du ministère de l’énergie dans la répartition de l’eau.

Manifestation d’agriculteurs devant le pont Khadju au centre d’Ispahan, le 7 avril 2018 (source : France Mojahedin)

De nouvelles émeutes se sont encore produites tout récemment, depuis le 16 février 2018, selon un communiqué du Conseil national de la résistance iranienne, les habitants de plusieurs quartiers périphériques d’Ispahan défilant en scandant « Rohani le menteur, où est notre rivière ? ». Le 18 mars dernier, un camion transportant des munitions a d’ailleurs pris feu alors qu’il venait ravitailler les forces spéciales anti-émeutes de la police à Varzaneh, de nouveau engagées contre les manifestations d’agriculteurs en colère.

Encore un exemple qui prouve à quel point les batailles de l’eau deviennent un enjeu majeur, surtout dans des régions en forte croissance démographique et confrontées à un climat aride pour lequel les effets du réchauffement climatique global ne vont certainement pas arranger les choses…

L.V.  

A Bangalore, il y a le feu au lac !

6 avril 2018

La ville de Bangalore, créée au 16ème siècle sur les plateaux du Dekkan, au sud de l’Inde, a longtemps gardé sa réputation de cité-jardin, plutôt verdoyante, baignée par pas moins de 285 lacs qui lui ont toujours fourni de l’eau en abondance. Devenue en 1956 capitale du nouvel État de Karnataka, la ville ne comptait alors que 800 000 habitants. Mais à partir des années 1990, Bangalore est devenu le pôle indien des nouvelles technologies, la Silicon Valley locale, et sa population a littéralement explosé sous l’effet d’un boom démographique peu courant puisqu’elle est passée de 3 millions d’habitants en 1991 à 10 millions actuellement.

Centre d’affaire UB City à Bangalore, mégapole de 10 millions d’habitants

Bien évidemment, cet afflux de population s’est traduit par une urbanisation foudroyante. De nombreux lacs ont été comblés et les espaces naturels bétonnés pour laisser place aux immeubles de bureaux et d’habitation, si bien qu’on ne compte plus que 192 plans d’eau désormais, mais qui sont devenus de véritables cloaques, réceptacles des eaux usées insuffisamment traitées et des déchets de toutes sortes.

A la surface du lac Bellandur, le plus grand de la ville, dont la surface est partiellement masquée par les plantes invasives qui s’y développent, et sur les canaux qui l’alimente, flotte régulièrement une espèce de mousse blanchâtre, issue d’un mélange entre les eaux usées qui se déversent directement dans le milieu naturel, et des produits toxiques provenant des usines chimiques proches de la ville. Lorsque le vent se lève, cette mousse se désagrège et vient retomber sur les habitants de Bangalore, comme une neige toxique qui irrite la peau et les bronches des plus fragiles.

Piétons sur un pont traversant le chenal d’entrée du Lac Bellandur recouvert de mousse en 2015 (photo © Manjunath Kiran/AFP/Getty Images)

Les autorités ont bien essayé de se prémunir de ce phénomène en posant des filets destinés à empêcher les envols de mousse, et en arrosant périodiquement la surface des eaux polluées pour disperser la mousse toxique, mais l’effet de ces mesures reste limité.

Le 19 janvier dernier, alors que la température ambiante dépassait allègrement les 30 °C, cette mousse a purement et simplement pris feu, dégageant une épaisse fumée blanche peu rassurante qui se répand au milieu des immeubles d’habitation tout proches. Les pompiers ont mis plusieurs heures pour éteindre cet incendie inhabituel se propageant à la surface du lac.

Incendie à la surface du lac Bellandur près de Bangalore, le 16 février 2017 (photo © Aaditya Sood / The Gardian)

Et cet incendie n’est que le quatrième en trois ans ! Un article très documenté publié dans The Guardian en mars 2017 rapporte en effet qu’un phénomène similaire s’était déjà produit le 16 février 2017, toujours sur le même lac Bellandur, les pompiers ayant alors mis plus de 12 heures pour en venir à bout. Ce même article rapporte qu’un autre incendie du même type avait aussi été observé en mai 2015.

D’après certains chercheurs qui observent depuis plus de 20 ans l’évolution des lacs Bellandur et Varthur, ce sont de l’ordre de 400 à 600 millions de litres d’eaux usées non traitées qui se déversent chaque jour dans ces lacs, entretenant un milieu particulièrement enrichi en matière organique. La surface des lacs étant recouverte par une épaisse couche de jacinthes d’eau qui empêche l’oxygénation des eaux, du méthane se développe dans les couches superficielles du lac, ce qui explique l’inflammabilité de ce dernier, le feu étant ensuite alimenté par la présence de pétrole et de phosphore flottant sur l’eau au milieu des nombreux déchets.

Poissons morts à la surface d’un lac de Bangalore en mars 2016 (source © L’Express)

De tels incendies à la surface de lacs lourdement pollués étaient d’ailleurs monnaie courante dans les années 1960 aux États-Unis, comme le rappelle Yann Quero sur son blog. Ce phénomène avait notamment été observé à plusieurs reprises à Cleveland (Ohio) dans la rivière Cuyahoga qui traverse la ville avant de se jeter dans le lac Érié. Dans ce cours d’eau, la concentration en produits chimiques a provoqué au moins une douzaine d’incendies et d’explosions, les plus graves ayant eu lieu en 1952 et en 1969.

A l’époque, cela avait amené les Américains à mettre en place, dans les années 1970, des normes plus sévères destinées à limiter la pollution des milieux aquatiques. Mais c’est aussi un des facteurs qui a poussé les Américains comme d’ailleurs les Européens à délocaliser leurs industries polluantes et dangereuses vers les pays du Sud, notamment en Inde et en Chine, qui ont connu à leur tour le spectacle pittoresque de la neige en été et des lacs qui prennent feu spontanément…

A Bangalore, cette pollution des eaux est d’autant plus inquiétante qu’elle concerne désormais non seulement les eaux superficielles où l’on ne compte plus les mortalités piscicoles, mais aussi les nappes souterraines dans lesquelles la ville s’approvisionne en eau potable. Science et Avenir relevait ainsi en mars dernier que près de la moitié de l’agglomération doit désormais être approvisionnée par des milliers de camions citernes qui transportent de l’eau pour les besoins quotidiens de la ville.

Camions citernes fournissant de l’eau à des logements de Bangalore, le 27 février 2018 (photo © Manjunath Kiran / AFP)

Il y a un mois, la Cour suprême a même dû intervenir pour arbitrer un accord de partage des eaux de la rivière Cauvery entre le Karnataka, région de Bangalore, et l’État voisin du Tamil Nadu. Ce cours d’eau qui traverse le Karnataka puis le Tamil Nadu avant de s’écouler dans le golfe du Bengale est en effet un enjeu majeur, âprement disputé entre les besoins de la ville de Bangalore et ceux des agriculteurs voisins. Il y a deux ans, une décision judiciaire ordonnant au Karnataka de lâcher de l’eau pour pallier une sécheresse qui menaçait les cultures du TamilNadu avait déclenché des émeutes mortelles à Bangalore et provoqué une situation de troubles quasi insurrectionnels.

C’est dire à quel point la bataille de l’eau a déjà commencé à cet endroit comme en de nombreux autres points du globe… La ville de Bangalore, dont la survie à moyen terme est désormais menacée du fait de ces difficultés d’approvisionnement en eau, n’est assurément pas la seule agglomération menacée ainsi de pénurie. Reste à savoir si ses habitants arriveront à réagir et à reconstituer des milieux aquatiques plus sains avant qu’il ne soit trop tard…

L.V. 

Galerie des Janots : une découverte insolite…

25 mars 2018

Pour qui se rend à La Ciotat en venant de Cassis ou de La Bédoule, il est difficile de ne pas repérer le chantier qui se prolonge depuis des mois le long de la RD 559 qui est surmontée à cet endroit d’une passerelle provisoire. Ce chantier inhabituel est celui du siphon des Janots et est un des signes bien visibles d’une opération lancée depuis bientôt 10 ans par la Communauté urbaine de Marseille, intégrée depuis à la Métropole Aix-Marseille-Provence qui en a donc repris la maîtrise d’ouvrage.

Le Canal de Marseille au niveau de l’aqueduc de Roquefavour, achevé en 1847 (source © Marseille en live)

L’ouvrage concerné par ces travaux titanesques est une des branches du Canal de Marseille qui court sur près de 200 km depuis La Roque d’Anthéron, en l’occurrence la dérivation de La Ciotat qui approvisionne en eau potable les communes de Cassis, de Roquefort-La Bédoule, de La Ciotat et de Ceyreste. Cette canalisation majeure franchit le massif de Carpiagne par le souterrain du Mussuguet qui débouche tout près de la gare de Cassis. Après Cassis, elle doit ensuite traverser un second massif sous la Couronne de Charlemagne. Pour cela, elle emprunte tout simplement le tunnel SNCF des Janots.

Mais le passage de la canalisation dans le tunnel, aménagé entre 1956 et 1964 se fait par des ouvrages vétustes et fuyards qui posent de grosses difficultés d’exploitation et de maintenance. Cette canalisation qui ne permet de faire transiter que 330 l/s est de toute façon très insuffisante, surtout en période estivale, pour répondre aux besoins sans cesse croissants de l’usine de potabilisation de La Ciotat, laquelle alimente aussi Ceyreste et Saint-Cyr-sur-mer. Il a donc été décidé de déplacer cette canalisation en dehors du tunnel SNCF et de creuser une nouvelle galerie spécifique parallèle, avec pour objectif de faire passer par la future canalisation un débit de 440 l/s, qui pourrait même être porté ultérieurement à 1 m3/s.

Creusement de l’amorce de galerie sur La Ciotat en prévision de la mise en place du tunnelier à l’entrée de la galerie des Janots (source © Bronzo)

L’opération n’est pas anodine puisque son coût est évalué à 55 millions d’euros, financé en partie (pour 11 millions) par l’Agence de l’Eau Rhône-Méditerranée. Le creusement de la galerie proprement dit, estimé à près de 27 millions par les services de la Métropole, doit se faire sur une longueur de 2 750 m et selon un diamètre de 3,5 m. Elle passe sous le Parc national des Calanques, avec une épaisseur de recouvrement qui varie le long du tracé entre 15 et 180 m, mais elle serpente également très près de la voie ferrée et à proximité de nombreuses habitations, ce qui rend l’opération délicate.

Le tunnelier Augustine lors de son baptême le 3 février 2017 (photo © Christiane Wanaverbecq – Le Moniteur)

Il a donc fallu un tunnelier, construit tout spécialement par la société Robbins et installé à pied d’oeuvre depuis janvier 2017, un engin de 135 m de longueur et pesant 250 t, destiné à creuser la roche pendant une durée prévisionnelle de 10 mois en travaillant 24 heures sur 24. Inaugurée le 3 février 2017 en présence de nombreuses personnalités dont la maire de Cassis, Danièle Milon, et celui de Gemenos, Roland Giberti, par ailleurs délégué à l’eau et à l’assainissement à la Métropole, la machine imposante a été baptisée du petit nom d’Augustine. Une référence bien sûr au prénom de la mère de Marcel Pagnol, lui qui arpentait dans son enfance avec émerveillement les rives du Canal de Marseille.

Amorce de galerie pour la mise en place du tunnelier (source © Made in Marseille)

Depuis, le tunnelier poursuit son travail de grignotage. Prévu pour s’achever fin 2017, le percement de la galerie s’est prolongé au-delà des prévisions, ce qui n’a rien d’inhabituel dans ce type de chantier hors normes soumis à d’inévitables aléas géologiques, surtout dans un massif calcaire sujet aux phénomènes de karstification liés à la dissolution du carbonate de calcium sous l’effet de la circulation des eaux souterraines plus ou moins acides qui s’infiltrent via les fissures de la roche, élargissant ces dernières jusqu’à former de véritables cavités.

Et ça n’a pas loupé comme l’a annoncé Eiffage, l’entreprise générale mandataire du marché de travaux : le 13 mars 2018, Augustine est justement passée juste à côté d’une vaste cavité karstique remplie de magnifique concrétions. La géologue de service, une certaine Marie Lesimple, a donc eu le privilège de pénétrer la première, accompagnée d’un jeune ingénieur dénommé Salah-Edinne Chatouani, dans cette grotte en forme de cloche qui ne présente pas d’autres accès apparents praticables.

Cette découverte grandiose a mis en émoi les responsables du chantier et le directeur des travaux souterrains d’Eiffage Génie Civil, Loïc Thevenot, s’est déplacé en personne pour admirer le spectable inattendu et prononcer une sentence historique, comme il se doit en pareille occasion, déclarant : « On se sent tout petit quand on contemple ces merveilles que la nature nous offre ».

Vue de la cavité karstique découverte à l’occasion des travaux de creusement de la galerie des Janots (source © Eiffage)

L’accès à la grotte, ouvert grâce au passage du tunnelier, a été immédiatement sécurisé par un ouvrage en béton muni d’une trappe afin de permettre des investigations ultérieures et surtout pour que le chantier puisse suivre son cours sans tarder davantage. Il reviendra ensuite au maître d’ouvrage, à savoir la Métropole, de décider du sort de cette caverne joliment concrêtionnée, découverte par le plus grand des hasards grâce au percement de cette galerie technique destinée à apporter aux Ciotadens l’eau issue de la Durance, alors même que de l’eau circule en abondance à travers les interstices de ce massif, comme en témoigne l’importance du volume de vide créé au fil des millénaires du fait de ces infiltrations naturelles…

L.V.  

Pesticides dans les cours d’eau : France Nature Environnement s’alarme !

23 mars 2018

Epandage de pesticides en bord de cours d’eau (photo © Maxppp / France Bleu)

Le sujet n’est pas récent puisqu’un rapport officiel publié en novembre 2015 par le Commissariat général au développement durable, une instance du Ministère de l’écologie, l’analysait dans les détails, affirmant qu’au vu des suivis de qualité de l’eau effectués en 2013 dans nos rivières et nos plans d’eau (du moins là où il y a des points de mesure…), la quasi totalité des milieux aquatiques français est polluée par la présence de pesticides que l’on retrouve dans 92 % des points de mesure. Seuls les zones montagneuses et quelques rares secteurs encore épargnés par l’agriculture intensive en sont exempts.

Il faut bien reconnaître que la France fait toujours partie du peloton de tête des plus gros consommateurs de pesticides, ces substances chimiques destinées à lutter contre les organismes jugés nuisibles, qu’il s’agisse de plantes adventices (herbicides), d’insectes (insecticides), de champignons (fongicides), de vers (nématicides), de rongeurs (rodenticides) et on en oublie, utilisés à 90 % (voire davantage) par l’agriculture, surtout depuis que l’usage de ces produits est en voie de prohibition tant pour les particuliers que pour les collectivités.

Concentrations moyennes en pesticides dans les cours d’eau par bassin versant en 2014 (source : Observatoire national de la biodiversité)

Depuis 1999, la surveillance de la qualité de l’eau dans la nature n’a cessé de se développer et on disposait ainsi en 2014, selon le Ministère de l’écologie, de 3052 points de mesures de la qualité dans les eaux de surface (rivières, fleuves et lacs) et de 2121 points de suivi dans les eaux souterraines (nappes). Vu leur coût très élevé pour la collectivité, le nombre de ces analyses (qui portent aussi sur de très nombreux autres paramètres dégradant, dont les nitrates) est malheureusement assez limité, généralement 8 par an dans les cours d’eau et 4 par an seulement dans les nappes.

La tâche est en effet considérable car il s’agit de rechercher les traces de près de 700 principes actifs de pesticides (ainsi que les produits issus de leur dégradation dans le milieu naturel, qui donne parfois naissance à des substances encore plus redoutables pour le milieu naturel et souvent stables à long terme, des décennies après que le produit commercialisé ait été interdit à la vente). Cette variété de principes actifs à identifier et analyser ne cesse d’ailleurs d’augmenter, fruit d’une stratégie délibérée de l’industrie agro-chimique de mettre sans cesse sur le marché de nouveaux produits pour avoir toujours un coup d’avance sur la réglementation et le contrôle.

Ainsi en 2014 ce sont pas moins de 389 substances différentes provenant de pesticides qui ont été retrouvées sur l’ensemble des points de mesure en eaux de surface, et 265 dans les eaux souterraines, avec en moyenne pas moins de 17 substances différentes identifiées dans chaque station (mais jusqu’à 89 molécules différentes pour certains prélèvements !). Cette année-là, des pesticides ont ainsi été retrouvés, en quantité et en nombre variable selon les endroits, dans 87 % des points de mesure en eau superficielle et dans 73 % des points de suivi en nappe, ce qui en dit long sur la généralisation du phénomène.

Nombre de produits pesticides observés par point de mesure en 2014 (source : Ministère de l’écologie)

Certes, si l’on analyse l’évolution de ces observations depuis 2008, date à laquelle le réseau de suivi a commencé à être suffisamment dense pour se faire une idée globale du sujet, on observe une légère diminution de la proportion de points de mesures contaminés, malgré un nouveau pic très sensible en 2012. Cette évolution résulte sans doute des mesures d’interdiction portant sur certains produits et de l’évolution des pratiques agricoles, mais reste peu significative, d’autant que la consommation de pesticides en France ne cesse d’augmenter malgré toutes les mesures gouvernementales mises en place pour tenter de limiter leur usage.

Dans les eaux de surface, le produit phare, présent dans plus de 38 % des points de suivi est le glyphosate tandis que son produits de décomposition, l’AMPA, est retrouvé dans plus d’un point de suivi sur deux : merci Monsanto ! L’atrazine, interdite depuis 2003 est encore bien présente 11 ans plus tard, avec tout son cortège de produits de décomposition, tant dans les cours d’eau que dans les nappes. Dans ces dernières, on retrouve également de manière significative certains herbicides largement utilisés dans la culture du maïs, et l’on voit même apparaître depuis quelques années, dans nos milieux aquatiques, des résidus des fameux insecticides néonicotinoïdes de plus en plus utilisés.

Et voilà que France Nature Environnement s’empare de nouveau du dossier en lançant une pétition qui exige du gouvernement de revoir sa copie en matière de définition des zones de non traitement, tout en attaquant en parallèle plus de 40 arrêtés départementaux issus de cette évolution de la réglementation. L’affaire n’est pas des plus simples et mérite quelques éclaircissements. Cette notion de zones non traitées (ZNT) a été définie par un arrêté ministériel de septembre 2006 et vise à interdire l’usage de pesticides dans une bande de 20 à 50 m (mais pouvant aller jusqu’à 100 m) en bordure des cours d’eau, afin justement de limiter les risques de contamination par lessivage. La largeur de cette bande peut être réduite à 5 m sous réserve de respecter certaines conditions dont la présence d’une haie ou au moins d’une bande enherbée entre le champ et le milieu aquatique, ainsi que des pratiques d’application adaptées.

Bande enherbée le long d’un cours d’eau (source : Agence française pour la biodiversité)

Initialement, la liste des milieux aquatiques pour lesquels cette distance minimale de sécurité s’applique correspond à tous les cours d’eau, plans d’eau, fossés et points d’eau permanents ou intermittents figurant sur les cartes IGN au 1/25 000, mais elle peut aussi faire l’objet d’un arrêté préfectoral qui permet de prendre en compte les spécificités locales.

Car à l’usage, il n’est pas si évident qu’il n’y paraît de définir ce qu’est un cours d’eau et ce point fait l’objet depuis des années de multiples controverses avec la profession agricole. Le ruisseau qui draine le vallon de Carnoux en est un exemple parmi d’autres. Ce ru peut être considéré comme un oued qui draine toute la vallée, susceptible de faire transiter des débits conséquents en cas de forte pluie, débits qui se déversent directement dans le Merlançon (au rond point du pont des Barles) avant de rejoindre l’Huveaune plus en aval. Le reste du temps, ce cours d’eau est alimenté latéralement par les écoulements d’eaux souterraines qui s’infiltrent dans les coteaux de chaque côté du vallon. Avant l’urbanisation, cet oued était sec une partie de l’année. Depuis, il est alimenté de manière quasi permanente car il reçoit aussi tout ce que les Carnussiens déversent sans réfléchir dans le réseau pluvial : vidange de piscines, pompes d’exhaure, lavage de la voirie et déversements illicites dans les regards en bordure de chaussée, de colorants ou d’huiles usagées

Le ruisseau de Carnoux, un milieu aquatique de piètre qualité… (photo © CPC)

Ce ruisseau intermittent devenu quasiment pérenne est-il un cours d’eau pour autant ? Au vu de sa configuration et de son déversement direct dans le réseau hydrographique naturel en aval, oui. Pour autant, il n’est pas figuré comme tel sur les cartes IGN et le gestionnaire de la voirie départementale a manifestement tendance à le considérer plutôt comme un simple fossé routier largement bétonné, sans que personne ne se préoccupe de la qualité des eaux qui y transitent.

Du coup, les services de l’État se sont lancés depuis juin 2015 dans un vaste travail de cartographie afin de tenter de délimiter quels sont les cours d’eau, démarche qui a fait l’objet de discussions serrées avec nombre de gestionnaires et d’usagers dont la profession agricole. L’enjeu consistait, pour les agriculteurs notamment, à refuser le statut de cours d’eau au maximum possible d’axes d’écoulements, afin de ne pas être soumis à la loi sur l’eau qui réglemente les interventions dans les cours d’eau (enlèvement de sédiments, coupe de la végétation, remodelage de berge, etc.).

Ce travail n’était pas supposé avoir d’impact sur les zones de traitement phytosanitaire. Mais les services préfectoraux se sont engagés, suite à la parution d’un arrêté ministériel de mai 2017 qui modifie légèrement celui de 2006, dans l’élaboration de cartes permettant de définir les points d’eau à proximité desquels doivent être mises en œuvre les ZNT.

Carte des cours d’eau identifiés comme tels par la Police de l’Eau dans le département du Gard (en bleu). Les tronçons en rouge ne sont plus considérés comme des cours d’eau et les zones en violet ont un statut encore indéterminé, sujet à discussion (source : Ministère de l’écologie)

Et, surprise, ces cartes élaborées en lien étroit avec la profession agricole en parallèle de la cartographie des cours d’eau, aboutissent à réduire de manière très significative les tronçons du réseau hydrographique soumis à réglementation pour l’épandage de pesticides. Dans le Tarn-et-Garonne par exemple, c’est 30 % du réseau qui n’est ainsi plus soumis au principe des zones non traitées et même 43 % en Indre-et-Loire. Cette situation est d’autant plus ubuesque que les cartes ne sont pas cohérentes d’un département à l’autre, certains tronçons de cours d’eau étant protégés uniquement jusqu’à la frontière du département limitrophe, sans réelle cohérence puisque les écoulements se poursuivent bien sans se préocuper des limites administratives… La protection de l’eau, pourtant considéré en France comme faisant partie du « patrimoine commun de la Nation » est décidément un combat de tous les instants !

L.V. 

A Paris comme à Marseille, le Préfet qui s’attaque aux cas d’eau

25 février 2018

En France, selon une tradition républicaine solidement établie, les Préfets restent rarement très longtemps au même poste, histoire d’éviter qu’ils s’engluent dans le réseau de notabilité locale au risque de perdre le recul nécessaire à ceux qui sont d’abord chargés de faire appliquer localement les règles de la Nation et les orientations du Gouvernement. Rares sont donc sans doute ceux qui se souviennent encore du nom de celui qui fut Préfet des Bouches-du-Rhône et Préfet de Région à Marseille entre juin 2013 et juillet 2015.

Martine Vassal à La Ciotat le 17 juin 2015 en présence de Patrick Boré (au centre) et de Michel Cadot (à droite), encore préfet des Bouches-du-Rhône (source © TPBM)

Gageons néanmoins que la Présidente du Conseil Départemental des Bouches-du-Rhône, Martine Vassal, élue à ce poste prestigieux en remplacement de l’inénarrable Jean-Noël Guérini, s’en souvient parfaitement. Car c’est bel et bien le Préfet Michel Cadot, haut fonctionnaire austère, issu de la promotion Voltaire de l’ENA, tout comme François Hollande, et qui fut un temps directeur de cabinet de Michèle Alliot-Marie au Ministère de l’Intérieur, qui est à l’origine des ennuis judiciaires dans lesquels elle est désormais empêtrée.

Petit retour en arrière, pour ceux qui l’auraient oublié : en 2013, après avoir confié pendant 53 ans sans discontinuer (un record !) la distribution de l’eau potable à la SEM (Société des Eaux de Marseille, désormais entièrement entre les mains de Véolia), la Communauté urbaine Marseille Provence Métropole avait remis en jeu cette délégation de service publique, pour se mettre enfin en conformité avec la loi. Et surprise, le 31 octobre 2013, trois des 4 lots (un pour l’eau potable et deux concernant l’assainissement, représentant quand même la bagatelle de 3,2 milliards d’euros) ont été attribués de nouveau à la SEM pour 15 ans supplémentaires, au terme d’une procédure manifestement entachée de très nombreuses irrégularités, ainsi que nous l’avions déjà évoqué ici.

Outré par de telles pratiques, le Préfet Cadot a donc saisi immédiatement la Cour Régionale des Comptes qui avait rendu très rapidement ses conclusions, totalement accablantes. Rendu public après les élections municipales de mars 2014, le rapport met tout particulièrement en cause le rôle de Martine Vassal, alors simple conseillère départementale mais déjà adjointe au maire de Marseille et surtout présidente de la commission Agglomération éco-responsable de MPM. A ce titre, c’est elle qui a présenté devant les élus de la commission d’examen des offres les conclusions de l’analyse des offres après avoir participé en direct aux négociations avec les entreprises, orientant sans difficulté la décision en faveur de la SEM.

Or la Cour Régionale des Comptes pointe un conflit d’intérêt manifeste puisque Martine Vassal était à l’époque trésorière du Forum mondial de l’eau, une association destinée à défendre les intérêts des multinationales françaises de l’eau au premier rang desquelles Véolia, et dont le président, un certain Loïc Fauchon, lui-même ancien secrétaire général de la Ville de Marseille, est par ailleurs PDG de la SEM. Pendant la précédente réunion du Forum mondial de l’eau qui s’était comme par hasard tenue à Marseille en mars 2012, en pleine phase de renégociation du contrat de la SEM, Martine Vassal s’était montrée particulièrement proche de Loïc Fauchon…

Eugène Caselli, Jean-Claude Gaudin, Loïc Fauchon (de gauche à droite) et Martine Vassal lors de la clôture du Forum mondial de l’eau en 2012 (crédit photo © Christophe Taamourte / 6th Water World Forum)

L’affaire avait été jugée alors si grave et susceptible d’être constitutive d’infractions pénales, que le Procureur de la République avait été saisi. On avait finalement appris, en 2015, que ce dernier avait transféré le dossier au Parquet national financier, créé suite à l’affaire Cahuzac pour juger les faits d’évasion fiscale et de corruption. Ceci n’avait pas empêché Martine Vassal de devenir entre temps 2ème adjointe au maire de Marseille, puis Présidente du Conseil Départemental des Bouches-du-Rhône, et finalement première Vice-Présidente de la Métropole Aix-Marseille-Provence : des postes clés dans le cadre de la réorganisation territoriale de l’agglomération marseillaise et qui la placent en position idéale pour succéder, peut-être même avant la fin de son mandat, à un Jean-Claude Gaudin vieillissant.

Le nouveau siège social de Véolia à Aubervilliers (crédit photo © C. Majani / Véolia)

Sauf que depuis, l’affaire a prospéré… Le 12 janvier 2015, le Parquet national financier ouvre donc une enquête préliminaire pour favoritisme et prise illégale d’intérêt, complicité et recel de ces délits. Le siège parisien de Véolia est perquisitionné en avril et le 10 novembre de la même année, un procureur accompagné d’enquêteurs de la Division économique et financière de la Police Judiciaire de Marseille, frappent à la porte du bureau de Martine Vassal pour une perquisition en bonne et due forme, avant d’aller visiter son domicile dans l’après-midi, puis de s’intéresser au bureau du Directeur général des services de MPM et au siège de la Société des Eaux de Marseille.

Et les choses ne s’en arrêtent pas là puisque le 22 juin 2017, la présidente du Conseil Départementale est placée en garde à vue pendant 15 heures dans les locaux de la Brigade financière, ainsi d’ailleurs que son grand ami Loïc Fauchon. Le maire de Marseille, Jean-Claude Gaudin en personne, est lui-même longuement entendu par les enquêteurs ce même jour, comme simple témoin car une mise en garde à vue aurait nécessité la levée préalable de son immunité parlementaire alors qu’il détenait encore à cette date un mandat de sénateur.

Depuis, rien n’a filtré quant aux suites judiciaires de cette affaire qui risque de déboucher sur un renvoi devant le tribunnal correctionnel, à moins que le dossier ne soit finalement classé sans suite… Quoi qu’il arrive, l’image de vertu que voulait donner Martine Vassal en arrivant à la tête du Département risque d’en être quelque peu écornée, elle qui disait vouloir en finir avec « le clientélisme » de son prédécesseur et déclarait vouloir placer son mandat « sous le signe de la transparence et de l’équité »…

Le Préfet Michel Cadot (crédit photo © P. Magnien / 20 minutes)

Et pendant ce temps là, le Préfet Cadot, à l’origine de ce coup de pied rageur dans la fourmilière, poursuivait sa carrière comme Préfet de Police de Paris. Le 17 avril 2017, il chute malencontreusement de son Vélib et se déboîte la hanche, au point de demander à être remplacé à son poste par son collègue Michel Delpuech qui venait pourtant tout juste d’être nommé Préfet de Région Ile de France en remplacement de Jean-François Carenco. Et c’est donc finalement Michel Cadot lui-même qui est nommé le 14 juin 2017 à ce poste de Préfet de Paris, Préfet de Région, et qui se retrouve illico confronté aux nouvelles frasques de Véolia, cette fois dans le cadre d’un contrat lié à l’exploitation de la station d’épuration de Valenton pour le compte du SIAAP, le Syndicat interdépartemental pour l’assainissement de l’agglomération parisienne, qui gère les eaux usées de près de 9 millions de Franciliens.

En l’occurrence, le contrat d’exploitation de cette immense station d’épuration représente 397 millions d’euros sur 12 ans et, curieusement, le marché a été remporté par Véolia face à son éternel concurrent Suez, alors que son offre était pourtant plus chère (de 37 millions quand même !).

Vue de l’usine du SIAAP à Valenton (crédit photo © Emmanuel Riche / ODYSEE pour le SIAAP)

Cette fois, c’est le Tribunal administratif qui a été saisi de l’affaire, avec du coup une réaction beaucoup plus rapide que dans l’affaire marseillaise. Une première ordonnance a été rendue le 15 novembre 2017 par le Tribunal administratif qui met bien en évidence des éléments constitutifs d’un délit de favoritisme dans l’attribution de ce marché dont l’application a donc été suspendue par les juges à compter du 28 novembre, le temps pour le SIAAP de remédier aux irrégularités constatées.

Mais le Préfet Cadot n’a pas accepté d’en rester là et a fait appel, afin d’obtenir l’annulation du contrat et permettre de relancer l’appel d’offre sur des bases plus saines. En l’occurrence, la stratégie du Préfet est plus globale et vise la reconfiguration complète de la gouvernance territoriale du Grand Paris, encore en plein chantier. Il n’en demeure pas moins que ses attaques insistantes contre les bonnes vieilles habitudes de Véolia et sa proximité avec certains élus locaux ne doivent pas manquer d’en agacer certains…

L.V.  

Sainte-Baume : le PNR nouveau est né !

17 février 2018

Rencontre le 21 décembre 2017 entre le premier ministre Edouard Philippe et le président du PNR Sainte-Baume en présence du président de la Région PACA, Renaud Muselier (source © PNR Sainte-Baume)

Ce n’est pas vraiment une surprise mais plutôt l’aboutissement d’un long et patient processus d’élaboration concertée qui a permis d’aboutir, le 20 décembre 2017 à la naissance officielle, via un décret signé par le premier ministre Edouard Philippe, du parc naturel régional (PNR) de la Sainte-Baume, le 52ème parc ainsi créé en France. Cinquante ans après la création du concept de « parc naturel régional » en 1967 par le Général de Gaulle, ces 52 PNR couvrent désormais 15 % du territoire national et 6 % de la population française y habite.

En effet, contrairement aux parc nationaux qui existent en France depuis 1963 mais qui ont plutôt vocation à protéger des espaces naturels peu habités, les PNR ont été créés sous l’impulsion de la DATAR dans une perspective d’aménagement d’espaces ruraux dans des secteurs qui présentent non seulement un patrimoine environnemental remarquable mais aussi un patrimoine culturel voire un cadre de vie et d’activités qu’il importe de préserver en vue de favoriser le développement économique et touristique local.

La région PACA possède désormais 8 parc naturels régionaux dont le plus emblématique est sans doute celui de Camargue, mais parmi lesquels on peut citer aussi ceux du Queyras, du Luberon, du Verdon ou encore des Alpilles. Autant de lieux d’une grande richesse écologique et qui présentent des paysages hors du commun, mais qui sont avant tout des espaces de vie structurés autour d’une charte qui traduit un véritable projet de développement territorial.

Pour ce qui concerne le PNR de la Sainte-Baume, le projet était en gestation depuis une dizaine d’années, même si certains pionniers en soutenaient l’idée depuis les années 1970, et a fait l’objet ces derniers temps d’une intense concertation entre les collectivités locales, les services de l’État, les partenaires associatifs et les acteurs économiques. Présidé par Michel Gros, par ailleurs maire de La Roquebrussane, le nouveau PNR couvre une superficie de 810 km² et s’étend sur le territoire de 26 communes du Var et des Bouches-du-Rhône. 80 % de ce territoire est constitué d’espaces naturels mais 58 500 habitants y vivent, avec des activités économiques variées.

Limites du périmètre du PNR Sainte-Baume

Le parc est situé aux portes de Carnoux puisque la commune tout proche de Cuges-les-Pins est entièrement située dans le périmètre du nouveau PNR qui s’étend au nord jusqu’à Saint-Maximin et à l’est jusqu’à Brignoles. L’inauguration du nouveau parc n’est pas encore fixée mais devrait avoir lieu au cours du premier trimestre 2018.

En attendant, le syndicat mixte du PNR anime déjà depuis un an les deux sites Natura 2000 partiellement juxtaposés au cœur du parc : Massif de la Sainte-Baume (zone spéciale de conservation, définie au titre de la directive européenne Habitats) et Sainte-Baume occidentale (zone de protection spéciale, définie au titre de la directive européenne Oiseaux). Des inventaires biologiques et une étude socio-économique ont déjà été conduits en 2017 dans ce cadre, en vue de définir les enjeux et les objectifs de conservation. Une fois ce diagnostic posé, un programme d’action sera élaboré d’ici 2019, afin de définir les axes d’intervention pour préserver ce patrimoine naturel remarquable qui contient notamment la fameuse hêtraie historique de la Sainte-Baume ainsi que des sources pétrifiantes spectaculaires dans des formations de travertins, et qui abrite de nombreuses espèces animales et végétales rares.

Entablements de travertins à la source de l’Huveaune (source © Les balades de Gecko)

Le processus de concertation engagé depuis des années avec de nombreux acteurs du territoire en vue de l’émergence de ce nouveau PNR est détaillé sur le site du nouveau syndicat mixte. On y retrouve, outre de nombreux éléments de présentation du projet, dont un film grand public qui met en avant les atouts et caractéristiques de ce territoire, un rappel de la genèse de cette aventure qui s’est concrétisée en 2012 par la création d’un syndicat de préfiguration du futur PNR. L’année suivante a été mis sur pied un Conseil de développement, rassemblant de nombreux acteurs locaux fédérés autour du projet, et a été lancée la concertation en vue d’élaborer un diagnostic partagé et de dessiner les grandes lignes de la future charte du parc.

Un document de synthèse qui présente les grandes lignes de la charte

Il a fallu ensuite attendre 2015 pour que soit finalisée cette charte destinée à fixer pour les 15 ans à venir les grandes orientation du nouveau PNR. L’année 2016 a été mise à profit pour lancer la consultation auprès du Conseil national de protection de la nature et auprès des habitants (enquête publique), ainsi que pour permettre aux collectivités concernées de délibérer pour exprimer leur volonté d’adhésion. Et c’est donc en 2017 seulement que le syndicat mixte de préfiguration s’est transformé en syndicat mixte du parc tandis que le décret ministériel de labellisation du nouveau PNR était signé officiellement le 20 décembre dernier.

C’est donc à l’issue d’un long processus de co-construction que voit le jour cette nouvelle structure qui est désormais destinée à protéger et valoriser le patrimoine naturel, culturel et humain de ce vaste espace remarquable, via la mise en œuvre d’une politique cohérente d’aménagement et de développement économique, social et culturel, respectueuse de l’environnement.

La grotte de Ste Marie Madeleine à Plans d’Aups, un des sites emblématique du nouveau PNR (source © Provence verte)

Tout un programme qui va demander beaucoup de diplomatie et de pédagogie pour arriver à concilier les impératifs de préservation d’un écosystème fragile avec les ambitions légitimes des acteurs locaux en matière de développement économique et touristique, où comment marier en bonne intelligence les exploitations de carrières avec la préservation durable des ressources en eau du massif, les nuisances sonores du circuit automobile du Castellet avec le maintien d’une faune d’aigles de Bonelli et de chauve-souris endémiques, l’afflux de touristes avec les nécessités de recueillement autour de la grotte de Sainte Marie-Madeleine, les soucis de préservation du paysage avec le souhait de développer des sites de production d’électricité par centrales photovoltaïques, ou encore l’extension de la viticulture avec le développement d’une agriculture biologique adepte des circuits courts ?

Autant de défis passionnants auxquels le nouveau PNR de la Sainte-Baume va se trouver confronté au jour le jour et qui donnent un aperçu des difficultés de la tâche qui l’attend !

L.V.  

Des villes menacées par la pénurie d’eau ?

15 février 2018

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Dominique Tian pris la main dans le sac

27 janvier 2018

Dominique Tian (photo © Kenzo Tribouillard / AFP)

Le premier adjoint au maire de Marseille, Dominique Tian, risque fort de ne jamais succéder à Jean-Claude Gaudin comme premier magistrat de la ville. Député depuis 14 ans dans les beaux quartiers de Marseille, Dominique Tian, qui faisait partie de l’équipe de campagne de François Fillon après avoir soutenu Bruno Le Maire, avait déjà annoncé qu’il démissionnerait de son poste de premier adjoint une fois réélu député pour la quatrième fois, loi sur le non cumul des mandats oblige.

Mais pas de chance pour lui car il a été sèchement battu aux dernières élections législatives, par une parfaite inconnue de 37 ans, Claire Pitollat, ingénieur de son état. Et voilà que le pauvre Dominique Tian vient de se voir condamné en première instance à une lourde peine par le Tribunal correctionnel de Paris pour « blanchiement de fraude fiscale et déclaration mensongère de patrimoine ».

L’affaire, que nous avions déjà évoquée ici, remonte à 2012, alors que le député fraîchement réélu à l’Assemblée nationale remplit sa déclaration de patrimoine en se gardant bien de mentionner qu’il détient plus de 1,5 millions d’euros sur un compte en Suisse ainsi qu’un hôtel 3 étoiles à Bruxelles. De simples peccadilles aux yeux de celui qui se présente d’abord comme un « homme d’affaires », d’obédience ultra-libérale comme le relate Marsactu à l’issue d’une de ses visites chez ses amis de l’association libérale Contribuables associés, dénonçant à cors et à cris « l’oppression fiscale », désireux de faire disparaître le statut de la fonction publique territoriale et auteur en 2011 d’un rapport au vitriol dénonçant la fraude aux cotisations et prestations sociales.

Dessin de Soulcié, publié par Anti-K

Créée en 2013 suite à l’affaire Cahuzac qui avait menti pour dissimuler son compte en Suisse, la Haute Autorité pour la transparence de la vie publique (HATVP) est chargée de contrôler les déclarations de patrimoine et d’intérêts des responsables publics français. Dotée de pouvoirs élargis par rapport à la commission qu’elle remplace, ainsi que l’explique Le Monde, la HATVP peut croiser les déclarations de patrimoine avec les fichiers des services fiscaux, ce qui lui a permis de prendre la main dans le sac plusieurs parlementaires parmi lesquels le sénateur LR de la Haute-Marne Bruno Sido, condamné à six mois de prison avec sursis et 60 000 euros d’amende en avril 2016, pour avoir également omis de signaler l’existence de son compte bancaire en Suisse.

En avril 2015, la Haute autorité a ainsi déclenché une enquête administrative à l’encontre de Dominique Tian. Celui-ci indique pour sa défense que le compte en Suisse lui vient d’un héritage de son père, « un chef d’entreprise marseillais exerçant dans l’univers des soins et des retraites » selon les informations de La Provence et qu’il avait tenté de négocier une régularisation dans le cadre du dispositif de rapatriement des capitaux mis en place en 2013 par le ministre du budget d’alors, Bernard Cazeneuve. Quant à l’hôtel belge, l’élu prétend qu’il ne lui appartient pas en propre mais à une de ses sociétés : la nuance est subtile…

Toujours est-il que le premier adjoint de Marseille a dû comparaître devant la 11e chambre du Tribunal correctionnel de Paris le 1er décembre 2017. Après plus de cinq heures d’audience, le procureur de la République Pierre Jeanjean a alors requis une peine de prison de 12 mois avec sursis à l’encontre du 1er adjoint au maire de Marseille, ainsi qu’une amende de 300 000 euros et une peine d’inégibilité de cinq ans.

Le jugement avait été mis en délibéré et vient d’être rendu ce vendredi 26 janvier 2018, en des termes plutôt sévères pour le prévenu puisque la présidente, Bénédicte de Perthuis, tient à enfoncer le clou en précisant que « les faits commis sont d’une particulière gravité », traduisant « une violation de la loi et de l’égalité devant l’impôt » par « un élu de la République » dont le comportement aurait dû être « exemplaire ». Ces faits, a ajouté la présidente du tribunal, ne peuvent que « nourrir la méfiance des citoyens envers ceux qui les représentent ».

De fait, Dominique Tian a été condamné à douze mois de prison avec sursis, trois ans d’inéligibilité et une amende record de 1,45 million d’euros. Le jugement est sévère et bien entendu le premier adjoint au maire de Marseille a immédiatement hurlé au scandale et au lynchage politique, tout en annonçant qu’il faisait appel du jugement. Une stratégie qui lui permet de gagner du temps puisque l’appel est suspensif, ce qui lui permet de conserver son mandat électif pendant les 8 à 12 mois que vont durer les procédures, quitte à pousser ensuite le bouchon jusque devant la Cour de Cassation, de quoi tenir jusqu’aux prochaines élections municipales…

Pas sûr cependant que cela suffira pour lui permettre de rester dans la course de la succession à Jean-Claude Gaudin. Une course qui semble désormais bien lancée depuis les déclarations fracassantes du Président du Conseil régional, Renaud Muselier, qui tire désormais à l’arme lourde contre le bilan du « mauvais maire » qui a effectué « deux mandats de trop », l’accusant en vrac pour sa « politique de l’immobilisme » et sa « cohabitation politico-mafieuse » avec Jean-Noël Guérini…

Martine Vassal et Jean-Claude Gaudin, le 26 janvier 2018 (photo © Frédéric Speich pour La Provence)

« Je n’ai pas pour habitude de répondre aux insultes, aux injures et aux outrances », a aussitôt Jean-Claude Gaudin selon Le Monde. D’autres l’ont fait à sa place, parmi lesquels la Présidente du Conseil départemental, Martine Vassal, l’autre élue de droite qui brigue également le fauteuil du maire sans le dire et qui s’est donc ostensiblement affichée aux côté de Jean-Claude Gaudin vendredi dernier en lui rappelant mielleusement devant la presse, comme le rapporte La Provence : « Jean-Claude, tu as profondément transformé Marseille depuis vingt-cinq ans (…) Tu peux désormais compter sur ceux que tu as lancés dans le grand bain de la politique ».

Voilà qui a au moins le mérite de la clarté et laisse entrevoir pour les prochaines élections municipales à Marseille une bataille sanglante entre élus de la majorité républicaine… A condition du moins que Martine Vassal ait elle-même réglé ses propres ennuis judiciaires puisqu’elle est toujours en attente d’une décision dans le cadre de l’affaire sur les marchés publics de l’eau qui l’avait conduite en garde à vue en juin 2017.

L.V.  

Au Mexique aussi les explorations se poursuivent…

20 janvier 2018

Alors que les spéléologues de l’association Cassis, les rivières mystérieuses, poursuivent leurs explorations pour tenter de remonter les deux rivières souterraines du Bestouan et de Port-Miou, envisageant désormais la réalisation d’un forage pour explorer le puits terminal situé à 3 km de l’exutoire du Bestouan, voilà que leurs collègues mexicains viennent de faire un grand pas en avant dans la connaissance de réseaux souterrains ennoyés dans la région du Yucatan.

Gran Cenote près de Tulum, site touristique très prisé…

Comme en Provence calcaire, ce secteur du Yucatan est un massif karstique dans lequel les circulations d’eau souterraines ont créé des galeries souterraines par dissolution progressive du calcaire sous l’effet de l’acidité des eaux. Lorsque le toit de ces galeries s’effondre, on observe en surface la formation de vastes puits ou avens, connus localement sous le nom de cénotes. Certains de ces effondrements se forment sous la surface d’un plan d’eau (lac, lagune ou même dans la mer), et ne sont alors visibles sur sous la forme de tâches plus foncées, trous bleus ou trous noirs selon leur perception…

Les Mayas, qui occupaient la péninsule du Yucatan avant l’arrivée des Espagnols, connaissaient bien ces puits naturels donnant accès à de vastes réserves d’eau douce (et parfois salée lorsque les réseaux karstiques communiquement avec la mer, comme c’est le cas aussi à Port-Miou). Ils les utilisaient comme source d’approvisionnement en eau potable. Mais, ils les considéraient également comme des bouches d’accès permettant d’entrer en communication avec les dieux de l’infra-monde, d’où l’origine du mot cénote qui dérive d’un ancien vocable maya signifiant « puits sacré ». Ils s’en servaient donc aussi comme lieux de sacrifice et y jetaient des offrandes et autres victimes expiatoires, ce qui, dans notre conception hygiéniste moderne, paraît bien peu approprié…

Salle ornée de concrétions dans le réseau de Sac Actun (source : Feel the planet)

Toujours est-il que ces cénotes et les réseaux de galeries souterraines noyées qui les relient constituent un immense terrain de jeu pour les spéléologues et les archéologues qui les explorent depuis des années. L’un d’entre eux, le plongeur allemand Robert Schmittner, qui réside au Yucatan depuis maintenant 20 ans et dirige le projet intitulé Gran Acuifero Maya (GAM), explore ainsi depuis des années les réseaux sub-aquatiques autour de la cité balnéaire de Tulum. Il vient de faire la une de très nombreux médias en annonçant, le 15 janvier 2018, avoir réalisé la jonction entre deux réseaux désormais reliés entre eux, ce qui en fait la plus vaste grotte noyée du monde avec pas moins de 347 km de galeries connues !

Progression de plongeurs de l’équipe du GAM dans les galeries de Sac Actun (photo © Herbert Mayrl / GAM via Reuters)

Jusque-là, le réseau de Sac Actun, situé au nord de Tulum, était le deuxième plus vaste système subaquatique exploré au monde avec déjà 262 km de galeries, juste derrière un autre réseau de 269 km, situé dans la même région mais plus au sud et dénommé Ox Bel Ha. Quant au second réseau exploré par les équipes du GAM, connu sous le nom de Dos Ojos, il s’agissait d’un vaste labyrinthe de près de 84 km de longueur cumulée, qui se classait à la quatrième place mondiale. La jonction réalisée entre ce dernier système et celui de Sac Actun montre que les deux ne constituent qu’un seul et unique réseau qui prend désormais le nom du plus grand des deux.

Et le mouvement n’est sans doute pas fini car Robert Schmittner compte bien poursuivre ses explorations. Rien que dans le nord-est de l’État de Quintana Roo où se situe le réseau karstique ennoyé de Sac Actun, on a répertorié pas moins de 358 réseaux subquatiques accessibles, représentant à ce jour un linéaire total de 1 400 kilomètres !

Plongeur de l’équipe du GAM à Sac Actun (photo © Herbert Mayrl / GAM via Reuters)

Outre l’intérêt spéléologique et hydrologique d’une telle découverte de la plus grande grotte noyée du monde, cette meilleure connaissance des réseaux souterrains du Yucatan est une aubaine pour les paléontologues, archéologues et autres anthropologues. On retrouve en effet dans ces galeries noyées et au fond des puits qui en donnent accès, de très nombreux vestiges, ossements animaux et humains, mais aussi poteries et objets sacrificiels mayas qui permettent d’en savoir toujours davantage sur l’histoire de la région et les différentes civilisations qui s’y sont succédées.

Crâne de Naia découvert en 2007 (photo © Roberto Chavez ARCE / AFP )

C’est ainsi qu’a été retrouvé en 2007, dans les eaux du gouffre de Hoyo Negro (en français « trou noir »), un aven de 43 m de profondeur qui fait partie du réseau de Sac Actun, le squelette de Naia, une jeune fille de 15 à 16 ans qui vivait dans la région il y a environ 13 000 ans, en plein âge glaciaire, et qui était malencontreusement tombée au fond du gouffre où elle s’était noyée.

A l’époque, avant la fin de la dernière glaciation, le niveau de la mer était plus bas d’environ 120 m et du coup les grottes du Yucatan n’étaient pas ennoyées à leur niveau actuel si bien que l’accès au puits se faisait à pied sec. Outre ses restes, l’aven abritait également des ossements de 26 autres mammifères terrestres dont un tigre à dents de sabre et un gomphothère, sorte d’éléphant préhistorique.

Selon Le Monde, la découverte n’avait été annoncée qu’en mai 2014 par l’Institut mexicain d’anthropologie et d’histoire, à l’issue de nombreuses analyses. De fait, la découverte des restes particulièrement bien conservés de cette jeune fille de 13 000 ans s‘est révélée très enrichissante sur le plan scientifique car les populations amérindiennes indigènes de cette période étaient des groupes nomades peu nombreux et leurs vestiges ne sont donc pas si fréquents. L’analyse génétique de l’ADN mitochondrial de Naia a permis ainsi de confirmer d’une part son origine asiatique et d’autre part son apparentement aux actuels indiens d’Amérique malgré des différences morphologiques qui traduisent simplement les évolutions génétiques subies depuis que ces peuplades, venues de Sibérie par le détroit de Behring, se sont lentement répandues sur l’immense territoire américain. Des conclusions qui corroborent d’ailleurs celles issues de l’analyse d’un autre squelette découvert dans le Montana, plus ou moins contemporain de Naia et également issu d’une souche de population sibérienne.

Une chose est sûre, les grottes ennoyées du Yucatan, tout aussi mystérieuses que celle de Cassis, n’ont pas fini de livrer tous leurs secrets…

L.V.  

Paris : la bataille de l’eau s’engage !

20 décembre 2017

L’agglomération parisienne fait partie de ces grandes métropoles mondiales pour lesquelles la gestion de l’eau ne va pas de soi. Nos ancêtres les Gaulois de la tribu des Parisii, en installant leurs cabanes de torchis sur l’île de la Cité (à moins que ce ne soit à Nanterre comme le laissent à penser certaines fouilles récentes), en bordure de la Seine, croyaient pourtant s’être prémunis contre cette question de l’approvisionnement en eau potable.

Le lac du Der, en dérivation de la Marne, un des 4 lacs réservoirs en amont de Paris

Mais ils n’imaginaient pas que leur petite cité deviendrait un jour une métropole de 7 millions d’habitants. Or la Seine n’est somme toute qu’un petit fleuve dont le débit en plein été peut devenir ridiculement bas. C’est d’ailleurs pour cette raison qu’ont été construits, après la grande sécheresse de 1921, les quatre grands lacs-réservoirs qui stockent, très en amont du Bassin parisien, sur les cours de la Seine, de la Marne, de l’Aube et de l’Yonne, plus de 800 millions de m3 d’eau qui sont ensuite relâchés progressivement pendant tout l’été et l’automne afin de soutenir le débit d’étiage de la Seine à Paris, tout en contribuant également à la protection de l’agglomération contre les crues d’hiver.

Eugène Belgrand, concepteur du réseau d’eau et d’assainissement de Paris (source © Ecole Polytechnique)

C’est en 1776, sous le règne de Louis XVI, que les frères Perrier créent la première Compagnie des eaux et installent une pompe sur la Seine pour alimenter un réseau de fontaines. Et c’est Napoléon qui fait creuser le canal de l’Ourcq, imaginé jadis par Colbert, et qui alimente encore de nos jours le réseau d’eau non potable qui sert notamment à nettoyer à grandes eaux les rues de la capitale.

Mais c’est à partir de 1854 que, sous l’impulsion du baron Haussmann et de l’ingénieur Eugène Belgrand, se met en place l’essentiel du réseau actuel d’alimentation en eau potable (et du réseau d’assainissement) de la ville. En 1865, les eaux de la Dhuis permettent d’approvisionner les quartiers les plus hauts de Belleville et de Ménilmontant.

Un des ponts aqueducs acheminant les eaux de la Vanne à Paris

Dix ans plus tard, ce sont les eaux de la Vanne, captées à plus de 170 km au sud de Paris, qui sont dérivées vers la capitale, au prix d’aqueducs interminables. En 1893, ce sont les sources de l’Avre, de la Vigne et du Breuil, dans l’Eure à plus de 100 km de Paris, qui sont à leur tour acheminées vers Paris. A l’occasion de l’Exposition universelle de 1900, elles sont grossies par les eaux prélevées sur le Loing et le Lunain, et en 1925 par celles de la Voulzie. En parallèle sont construites deux usines de pompage des eaux de la Seine (à Ivry) et de la Marne (à Saint-Maur). Une troisième, implantée à Orly, les renforcera en 1969.

Célia Blauel, présidente d’Eau de Paris

Et c’est la Compagnie générale des eaux, créée en 1852 sous Napoléon III et rejointe en 1880 par son principal concurrent, la Lyonnaise des Eaux, qui se partagent rapidement la gestion du dispositif. Sur Paris, il a fallu une décision politique du maire Bertrand Delanoë en 2008 pour sortir de ce face-à-face et mettre en place une régie municipale, Eaux de Paris, actuellement présidée par Célia Blauel et qui assure depuis le 1er janvier 2010 l’approvisionnement et la distribution de l’eau potable pour trois millions de Parisiens.

Mais dans le reste de l’agglomération, c’est encore Véolia et Suez, les deux mastodontes héritiers de la Générale et de la Lyonnaise, qui se partagent le gâteau. Suez s’occupe comme délégataire du Syndicat des eaux de la presqu’île de Gennevilliers (SEPG) de la distribution d’eau auprès de 600 000 abonnés de l’ouest parisien, tandis que Véolia gère les 4,5 millions d’usagers du SEDIF, le Syndicat des eaux d’Ile de France, qui règne sur pas moins de 150 communes en Petite et Grande Couronne. Et dans les deux cas depuis 1923 : un record de longévité !

André Santini, président du SEDIF (photo © SIPA)

Certes, la loi Sapin a mis un terme à ces délégations de service public qui s’éternisent et dont la durée légale ne peut désormais excéder 12 années. En 2008, André Santini, maire inamovible d’Issy-les-Moulineaux et président du SEDIF sans discontinuer depuis 1983, a donc été contraint de remettre en jeu le contrat de Véolia. Un appel d’offre a été lancé qui a rapidement tourné à l’affrontement sans pitié entre les deux géants du secteur, jusqu’à ce que Suez se retire de la course, à l’issue d’un combat homérique que relate un savoureux article du Point. Dans l’affaire, Véolia a été contraint de réduire sa marge de 20 % mais le fromage reste alléchant puisque ce contrat représenterait 37 % des 600 millions d’euros de chiffre d’affaire de Véolia Eau.

La Chambre régionale des comptes, qui vient tout juste d’analyser la gestion de ces trois grands services d’eau franciliens sur la période 2010-2014, n’a pas manqué, une fois de plus, de tresser des lauriers à la Ville de Paris qui a parfaitement réussi son pari du retour à une régie municipale et qui offre à ses abonnés le prix de l’eau le moins cher tout en assurant une qualité du service et un niveau d’investissement irréprochables.

Usine de potabilisation de l’eau à Neuilly-sur-Marne (source © SEDIF)

Inversement, les critiques pleuvent sur les délégations de services publics du SEDIF et du SEPG pour lesquels la CRC passe en revue nombre d’irrégularités, de manquements, d’abus et de dérives de toutes sortes, conduisant à une déconnexion totale entre les montants facturés à l’usager et la réalité des dépenses effectives d’investissement, comme l’analyse notamment Marc Laimé sur son site très documenté Les eaux glacées du calcul égoïste.

Ce qui n’empêche pas le SEDIF de fanfaronner et de promouvoir partout son projet de « grand ring de l’eau ». Un concept qui vise à mailler encore davantage les différentes sources d’approvisionnement de l’agglomération parisienne et qui s’est traduit notamment par l’acquisition en février dernier de 6 km de conduites, en vue de relier deux des trois principales usines de pompage et de potabilisation du SEDIF, celle de Méry-sur-Oise et celle de Neuilly-sur-Marne (la troisième étant celle de Choisy-le-Roi, sur la Seine). En fait, une formidable offensive pour étouffer Eau de Paris et viser à terme le monopole de la distribution d’eau potable sur l’ensemble du territoire métropolitain dont les contours restent encore un peu flous.

Unité de nano-filtration dans l’usine du SEDIF à Méry-sur-Oise (source © Véolia)

Du coup, la bataille entre le SEDIF (dont le contrat actuel prend fin en 2022) et Eau de Paris a repris de plus belle, à la faveur des dernières évolutions institutionnelles et notamment de la loi NOTRe qui prévoit qu’à compter du 1er janvier 2020 ce sont désormais aux intercommunalités de prendre la compétence de la production et de la distribution de l’eau potable (comme d’ailleurs de l’assainissement). Sur le territoire de la Métropole du Grand Paris, ce sont désormais les EPT (établissements publics territoriaux) qui sont donc aux manettes, s’étant substitués automatiquement aux communes ou aux intercommunalités. A eux donc de décider s’ils souhaitent ou non adhérer au SEDIF pour lui déléguer cette compétence, et ceci avant le 31 décembre 2017.

Le collectif citoyen Coordination Eau Ile de France, milite donc auprès des élus de certains EPT de Seine-Saint-Denis et du Val-de-Marne en les incitant à profiter de cette fenêtre de tir inespérée pour tenter de sortir du SEDIF et reprendre la gestion de l’eau en régie, ce qui est totalement impossible en temps normal car les statuts du SEDIF empêchent tout départ unilatéral. Et c’est ainsi que 24 des 36 communes des trois EPT Plaine-Commune, Est-Ensemble et Grand Orly-Seine-Bièvre, ont délibéré pour décider de ne pas réadhérer au SEDIF pour les deux ans qui viennent, jusqu’à cette fameuse date butoir du 1er janvier 2020.

Le SEDIF avait bien tenté de bloquer toute initiative en ce sens en laissant entendre qu’en cas de décision de la sorte il se verrait contrait de fermer le robinet sans autre forme de procès le 31 décembre 2017 à minuit et que les élus récalcitrants devront alors se débrouiller pour expliquer leur décision politique malheureuse à leurs électeurs assoiffés. Mais André Santini a fini par reconnaître que cela ressemblait un peu trop à du chantage et avait accepté le 20 octobre dernier le principe de signer des conventions provisoires pour les deux ans à venir, le temps pour les EPT concernés de mener les études nécessaires en vue de déterminer leur position pour 2020. Est-ce un premier pas vers le retour à une extension des régies en Ile de France ? L’avenir le dira…

L.V.

Canal de Provence : des plans d’eau qui rayonnent…

14 novembre 2017

Le Canal de Provence à Saint Maximin, dans le Var (photo © Camille Moirenc / SCP)

Créée en 1957 sous la forme d’une société anonyme d’aménagement régional, la Société du Canal de Provence, qui vient de fêter ses 60 ans, résulte en réalité d’un pacte passé en 1955 entre la Ville de Marseille et les deux départements des Bouches-du-Rhône et du Var, dans l’objectif de mettre en commun leurs droits d’eau sur la rivière du Verdon. Dès 1963, la société s’est vue confier, par concession d’État, la mission de réaliser et gérer le canal de Provence destiné à acheminer, vers l’agglomération marseillaise et une partie du Var, l’eau du Verdon stockée grâce aux différents barrages de Sainte-Croix, Quinson, Gréoux, Castillon et Chaudanne.

La construction du canal s’est échelonnée entre 1964 et 1986, à partir de la prise de Boutre, à Vinon-sur-Verdon. A Rians, le canal se divise en deux branches, l’une desservant le pays d’Aix et le nord de Marseille, l’autre l’Est marseillais et le Var. Le réseau s’est progressivement étendu, y compris via la construction récente de la liaison Verdon – Saint-Cassien destinée à alimenter le littoral varois jusqu’au golfe de Saint-Tropez. Il comprend désormais près de 70 km de canaux à ciel ouvert, 140 km en galerie souterraine et pas moins de 4500 km de canalisations.

Le barrage de Bimont, près de la Sainte-Victoire, géré par la SCP

La gouvernance a évolué également avec l’arrivée de la Région PACA en 1983, puis celle du département de Vaucluse en 1988, pour le développement de l’irrigation dans la plaine du Sud-Luberon. En 2008, l’ensemble du patrimoine appartenant à l’Etat et concédé à la SCP a été transféré à la Région, renforçant ainsi l’appropriation par les collectivités territoriales de ce patrimoine hydraulique.

Branche nord du canal de Provence (photo © Camille Moirenc / SCP)

De l’ordre de 2 millions de personnes, soit 40 % de la population régionale est désormais alimenté en tout ou partie par de l’eau acheminée par le réseau de la SCP. Une des particularités de ce réseau réside dans son mode de régulation dynamique, géré de manière centralisée depuis le siège de la société basé au Tholonet, et qui permet d’ajuster à tout moment les débits délivrés en fonction de la demande effective des utilisateurs.

C’est ce souci constant de l’innovation technologique qui a poussé la SCP, depuis déjà quelques années et après avoir exploité toutes les potentialités de l’hydroélectricité, à s’intéresser à la production d’énergie solaire sur son propre réseau. Dans une région aussi ensoleillée, un des freins au développement de cette production réside en effet dans le coût du foncier qui réduit les possibilités d’implantation de centrales photovoltaïques. Or, les plans d’eau et les canaux gérés par la SCP constituent de vastes superficies qui peuvent facilement être recouvertes de panneaux solaires.

Panneaux solaires installés dans le cadre du projet Canasol à Rians (source : Actu Environnement)

Qui plus est, une telle couverture présente de multiples intérêts. Les panneaux photovoltaïques protègent les canaux contre les intrusions et les chutes ou les baignades intempestives, ce qui est un des risques récurrents auquel est confrontée la SCP, et en même temps ils protègent l’eau des rayonnements solaires directs, ce qui permet de limiter l’évaporation et de garder à l’eau une certaine fraîcheur tout en évitant la prolifération des végétaux aquatiques, une autre des plaies de l’exploitant.

Et ce n’est pas tout ! En plein été et sous le chaud soleil de Provence, la température grimpe rapidement à la surface des panneaux photovoltaïques. Or, au-delà d’une certaine température (de l’ordre de 70 °C), le rendement des panneaux baisse fortement, perdant jusqu’à 15 % de leur efficacité énergétique. Le fait de les installer juste au-dessus de la surface des canaux présente donc une réelle opportunité puisqu’on peut facilement les arroser pour éviter tout échauffement intempestif.

Site du démonstrateur Canalsol à Rians (photo © Camille Moirenc / SCP)

Pour tester le concept, la SCP s’est alliée avec le pôle de recherche technologique du CEA en 2013, dans le cadre du pôle de compétitivité Capénergie, afin de créer une plateforme expérimentale située à proximité de son centre d’exploitation à Rians. 132 panneaux solaires ont ainsi été déployés et testés pendant plus d’un an à partir de l’automne 2014, pour évaluer l’intérêt du dispositif et comparer différentes orientations et modalités de refroidissement (par aspersion, par circulation direct ou par le seul effet passif de l’eau circulant à 1,20 m sous les panneaux et dont la température moyenne varie entre 15 et 18 °C).

Dispositif d’aspersion des panneaux photovoltaïques du projet Canalsol

Les résultats de ce projet de recherche baptisé Canalsol semblent suffisamment probants pour que la SCP poursuive ses efforts de développement technologique et envisage de passer à une phase très opérationnelle qui consisterait à installer une centrale photovoltaïque flottante sur le vaste réservoir à ciel ouvert du Vallon Dol situé sur les hauteurs de Marseille, au pied du massif de l’Étoile.

La réserve de Vallon Dol, sur les hauteurs de Marseille (photo © Camille Moirenc / SCP)

Ce gigantesque bassin qui s’étend sur 17 hectares contient 3 millions de m3 d’eau acheminée depuis le Verdon (soit plus de deux fois la capacité du Vieux Port !), de quoi assurer pendant une semaine entière l’alimentation en eau de toute la ville de Marseille. Construit en 1973, ce bassin qui peut être alimenté via les deux branches principales du canal de Provence sert de réserve pour l’usine de potabilisation située à proximité et géré par la SEM.

Pour aménager sur ce vaste plan d’eau une centrale solaire dont la puissance visée serait de 10 MW, la SCP vient de lancer une consultation, afin de choisir un partenaire avec lequel la SCP créerait une société de projet en vue de concevoir, financer, réaliser, exploiter, maintenir et vendre la production d’électricité de cette future installation de panneaux photovoltaïques flottants. Un projet ambitieux et innovant dont s’est fait l’écho La Provence et qui pourrait peut-être demain donner des idées à d’autres exploitants : à quand des panneaux photovoltaïques sur le Grand Canal à Venise ?

L.V. 

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Les îles Poubelles, une nouvelle nation émergente ?

1 octobre 2017

Que retiendra t-on de la 72ème assemblée générale des Nations-Unies qui vient de se tenir à New-York, du 12 au 25 septembre 2017 ? Le discours belliciste de Donald Trump, menaçant de rayer de la carte la Corée du Nord et de déchirer l’accord obtenu sur le nucléaire iranien, après 12 ans d’âpres négociations ? Celui de son homologue Emmanuel Macron, chantre du multilatéralisme, héraut de la lutte contre le réchauffement climatique et porte-parole des sans-voix et des opprimés ?

Source Plastic Oceans Foundation

Ou peut-être la campagne médiatique qui a beaucoup fait jaser dans les couloirs et qui vise la reconnaissance officielle d’un 196e État baptisé Trash Isles, autrement dit, Les îles Poubelles ? Une pétition toujours en ligne et qui a déjà recueilli plus de 125 000 signatures a en effet été remise au nouveau secrétaire général des Nations-Unies, António Guterres. Elle cherche, de manière quelque peu symbolique, à faire reconnaître comme un nouvel État, le gigantesque amas de déchets flottants, grand comme la France, qui s’étend au centre du Pacifique Nord.

La campagne est pilotée par le site américain LADbible soutenu par l’ONG Plastic Oceans Foundation. L’idée qu’ils mettent en avant paraît saugrenue mais ne manque pas de panache. On connaît depuis 1997, et leur découverte fortuite par le navigateur Charles Moore, l’existence de ces vastes amas de déchets qui dérivent dans tous les océans de la planète mais dont les principaux se regroupent sous forme d’immenses vortex concentrés par les courants marins circulaires dans le Pacifique nord mais aussi dans le Pacifique sud, l’Atlantique nord et sud et bien sûr l’Océan indien. La Méditerranée elle-même n’est pas épargnée par le phénomène, comme toutes les étendues marines bordées de zone densément urbanisées.

Situation des principales plaques de déchets flottants (infographie © Le Monde)

Les expéditions scientifiques se sont multipliées ces 15 dernières années pour explorer ce que certains ont dénommé « Le septème continent ». En décembre 2014, une vaste étude internationale, parue dans la revue PLOS ONE, à l’issue de 24 campagnes effectuées entre 2007 et 2013, non seulement sur les cinq grands gyres océaniques, mais aussi près des côtes australiennes, dans le golfe du Bengale et en Méditerranée, avait ainsi estimé à 269 000 tonnes la quantité de détritus flottant sur les mers du globe. On a plus récemment évalué à environ 8 millions de tonnes la quantité de déchets plastiques qui auraient été rejetés directement en mer au cours de la seule année 2010.

Des miliiers de déchets plastiques flottant (photo © Christophe Launay / Race for Water)

Nous avons tous en tête ces images de milliers de déchets flottants de toutes sortes qui s’amassent sur les plages et près des côtes, que certains essaient tant bien que mal de récupérer et de valoriser. Mais les études montrent que les vortex de déchets qui dérivent au milieu des océans ressemblent en réalité plutôt à une soupe compacte constituée de milliards de microdéchets de polyéthylène, de polypropylène et de polyéthylène téréphtalate (PET) dont la taille ne dépasse guère quelques millimètres et qui ne sont pas détruits par les micro-organismes..

Les gros éléments en plastique ont tendance en effet à se fragmenter sous l’action des vagues et du rayonnement solaire, mais aussi parce qu’ils rencontrent de nombreux oiseaux et mammifères marins qui les croient comestibles et qui en meurent bien souvent comme en attestent leurs cadavres. En revanche, ces minuscules fragments de plastique eux ne disparaissent pas et continuent de flotter entre deux eaux pendant des siècles, constituant d’immenses radeaux de la taille d’un pays européen voire bien davantage, et dont on a encore du mal à évaluer l’ampleur du volume immergé. On commence en revanche à mieux identifier les nombreux effets néfastes de ces micro-résidus non seulement sur la faune marine mais aussi comme vecteurs de la prolifération de certaines espèces invasives.

C’est pour tenter d’attirer l’attention sur cette situation inacceptable que certains ont eu l’idée de faire reconnaître comme un nouveau pays le plus vaste de ces continents de déchets, celui que l’on surnomme le « Great Pacific Garbage Patch » (la grande poubelle du Pacifique). L’ancien candidat aux élections présidentielles américaines, Al Gore, fait ainsi partie des tous premiers signataires de cette pétition et aspire à devenir citoyen de ce nouvel État en voie d’émergence qui possède déjà son drapeau, son passeport et même sa monnaie, le « débris », bien entendu…

Un billet du futur Etat en gestation ? (photo © Mario Kerkstra)

Pour pouvoir être reconnu comme nation, il faut en effet disposer d’un territoire, former un gouvernement, avoir une population permanente et être capable d’interagir avec les autres nations. D’où l’idée de cette pétition qui vise à recenser tous les volontaires désireux de devenir citoyen de ce futur État. 

Le passeport du futur pays ? (photo © Mario Kerkstra)

Si d’aventure le processus arrivait à son terme, ce radeau flottant de déchets serait en mesure de solliciter l’application de la charte de l’environnement édictée par les Nations-Unies et qui postule : « tous les membres doivent coopérer dans un esprit de partenariat global pour conserver, protéger et restaurer la santé et l’intégrité de l’écosystème planétaire ». Autrement dit, cela obligerait les autres nations à s’engager à venir nettoyer ce continent de déchets.

Une démarche pour le moins originale donc, qui, bien évidemment, n’a aucune chance d’aboutir, mais qui ne manque pas d’interpeller. Voilà que des dizaines de milliers de citoyens du monde, Américains pour beaucoup, se revendiquent citoyens d’un nouvel État en voie d’émergence et s’échinent à le faire reconnaître par les autres nations non pas pour le coloniser mais tout simplement pour le faire disparaître. A côté d’un tel casse-tête juridique, la crise de la Corée du Nord ressemble à de la petite bière…

L.V.  

Au Texas, Houston sous les eaux

30 août 2017

Le sud du Texas est en train de connaître une des pires inondations de son histoire récente. En cause, l’ouragan Harvey, né à la mi-août d’une onde tropicale en Afrique de l’Ouest, et dont les météorologues ont suivi l’évolution à travers tout l’Océan atlantique jusqu’aux côtes vénézuéliennes.


L’ouragan Harvey a tout balayé sur son passage dans les zones côtières (photo © Gabe Hernandez / AP)

Arrivé sur le golfe du Mexique, l’ouragan s’est brusquement intensifié au-dessus des eaux chaudes et a abordé la côte texane vendredi 25 août, classé en catégorie 4 avant de se transformer en simple tempête tropicale à partir du samedi après-midi. Depuis, du fait de l’absence de vent en altitude, la tempête Harvey fait quasiment du sur-place et se déplace très lentement vers l’Est tout en se rechargeant en permanence avec les eaux chaudes du Golfe du Mexique tout proche.

Carte de situation publiée dans Le Monde (source NOAA, New York Times), montrant les cumuls de précipitation et la trajectoire de la tempête au 30 août 2017

Le résultat est assez effrayant puisque on comptabilise désormais en 5 jours un cumul de précipitations tout à fait inhabituel qui pourrait atteindre localement, d’ici jeudi, 1270 mm, bien davantage que ce qui peut tomber sur Marseille en une année entière ! La ville littorale de Corpus Christi, qui compte 300 000 habitants, a été une des premières dévastées par l’ouragan Harvey avec des vents soufflant en pointe à 215 km/h, et à partir du dimanche 27 août c’est la ville de Houston, quatrième plus grande ville des Etats-Unis avec 2,3 millions d’habitants, qui a été à son tour noyée sous des trombes d’eau continues.

Maisons d’habitation ravagées par l’ouragan Harvey à Rockport (photo © Mark Ralston / AFP)

De nombreux axes routiers ont été inondés parfois sous plusieurs mètres d’eau et on a vu des habitants attraper à main nue des poissons passant devant leur porte tandis que les épaves de voitures partent à la dérive dans une eau boueuse qui envahit peu à peu toute la ville.

Au moins 10 personnes ont déjà trouvé la mort depuis le déclenchement de ces inondations, dont une personne qui est décédée dans l’incendie de sa maison à Rockport tandis qu’une femme s’est noyée à Houston en sortant de sa voiture dans une zone où la vitesse d’écoulement était rapide. L’état de catastrophe naturelle a été déclaré dès vendredi et la population est invitée à rester confinée chez elle pour limiter les risques de noyades dans des rues totalement submergées par les eaux.

A Corpus Christi comme en plusieurs autres endroits, des consignes d’évacuation volontaires ont été données, tandis que 4500 prisonniers du centre de détention de la ville de Rosharon, au sud de Houston, ont dû être évacués en catastrophe. Au moins 230 000 foyers étaient privés d’électricité dès dimanche et la situation ne fait qu’empirer depuis. Quant aux deux aéroports de Houston dont les pistes étaient sous les eaux, ils ont dû fermer l’un après l’autre.

Autoroute submergée à Houston dimanche 27 août 2017 (photo © Richard Carson / Reuters)

Le niveau de la mer s’est élevé de près de 4 m au plus fort de la tempête, alors même que la côte texane accueille près d’un tiers des capacités de raffinerie de pétrole des Etats-Unis et le Golfe du Mexique 20 % de la production américaine. Au moins 112 plateformes ont été évacuées, représentant environ un quart de la production quotidienne de brut et de gaz, et de nombreuses installations à terre ont fermé. Il est encore trop tôt pour évaluer le coût de cette catastrophe d’autant que la tempête se déplace désormais vers la Louisiane voisine, encore sous le traumatisme du cyclone Katrina qui avait provoqué en 2005 la rupture de plusieurs digues, ravageant des quartiers entiers de La Nouvelle Orléans, provoquant plus de 1800 morts et laissant une ardoise estimée à 118 milliards de dollars. A ce jour, les estimations pour la tempête Harvey font état d’un bilan qui pourrait néanmoins s’élever autour de 42 milliards de dollars, ce qui est tout à fait considérable et s’explique largement par l’importance économique du Texas dont le PIB dépasse celui d’un pays comme le Canada.

Le Bayou Buffalo en crue dans la traversée de Houston (photo © Carole Enarn / Reuters)

Le président Donald Trump ne s’y est d’ailleurs pas trompé. Contrairement à son prédécesseur Georges W. Bush qui avait été accusé d’indifférence en ne se rendant que tardivement à la Nouvelle Orléans où il s’était contenté d’un rapide survol en hélicoptère, le Président s’est rendu dès mardi 29 août sur place, accompagné de son épouse dont les talons aiguilles n’étaient pas des plus adaptés pour une telle visite de terrain…

A Houston, le maire a décrété le couvre-feu dès mardi pour tenter de sauvegarder la ville des risques de pillage car beaucoup d’habitants ont fui pour se mettre à l’abri, et le gouverneur du Texas a fini par mobiliser l’ensemble des 12 000 soldats de la Garde nationale texane. Mardi, 10 000 habitants étaient déjà hébergés dans le Centre des conventions de Houston et le flux de réfugiés continuait à enfler. Les autorités les dirigeaient alors vers d’autres villes de l’intérieur, moins exposées, dont Dallas, située à 400 km de là et dont les 3 centres d’accueil ont été rapidement saturés.

Evacuation de sinistrés à Houston (photo © Texas Military Department)

A Houston, une des plus grosses inquiétudes a trait à l’état de deux vastes réservoirs endigués construits dans les années 1930 à l’ouest de la ville, précisément pour la protéger contre les inondations, et qui approchent depuis mardi de leur niveau de saturation. Dès la création de la ville en 1836, à la confluence entre deux rivières, le bayou Buffalo et le bayou du Chêne blanc, il est apparu en effet que le site était particulièrement vulnérable au risque d’inondation. En un siècle, la ville a connu 16 inondations majeures, avec parfois jusqu’à 12 m d’eau dans les points bas de la ville !

Après la crue de 1935, particulièrement dévastatrice et qui avait fait 7 morts, une structure spécifique a été mise en place pour développer la prévention du risque inondation, ce qui n’empêche pas qu’on dénombre 30 crues importantes depuis, dont celle liée au passage de la tempête tropicale Allison, le 5 juin 2001, qui a causé 22 victimes et endommagé 95 000 véhicules et 73 000 habitations dans cette région texane.

Les deux réservoirs Addicks et Barker, dont l’état inquiète au plus haut point les ingénieurs de l’US Army Corps of Engineers en charge de leur exploitation, ont été mis en service en 1938 et font l’objet d’un programme de confortement entamé en 2014 mais dont l’achèvement n’est prévu qu’en 2019. Ces vastes cuvettes, dont la capacité de stockage cumulée atteint 510 millions de m3, soit près de la moitié du barrage de Serre-Ponçon, sont fermées par des digues en terre dont la hauteur maximale atteint respectivement 34 et 37 m. Ils interceptent plusieurs affluents en amont du bassin versant du Bayou Buffalo qui ensuite traverse toute l’agglomération de Houston. Ces cuvettes, aménagées en parcs urbains et espaces verts récréatifs, ne servent à retenir l’eau qu’en cas de crue, afin de protéger les zones urbanisées en aval.

Zones résidentielles inondées par les lâchers d’eau du réservoir Addicks, mardi 29 août 2017 (photo © David J. Phillip)

Mais les deux vastes réservoirs ont atteint leur cote maximale autorisée de remplissage dès le lundi 28 août au matin. Il a donc fallu alors commencé à délester avant que le niveau de l’eau ne monte trop haut et ne menace la stabilité des digues elles-mêmes. C’est en effet le point faible de ce type d’ouvrage qui, en cas de submersion peut se rompre, provoquant alors une onde qui se propage très rapidement en aval, dévastant tout sur son passage. C’est donc pour éviter ce risque que les autorités ont préféré ouvrir les vannes, inondant de ce fait l’ensemble des quartiers situés en contrebas, et venant rappeler à tous qu’une protection contre les inondations est toujours dimensionnée pour un niveau de crue donné : au-delà, il faut bien que l’eau s’écoule et reprenne son chemin naturel, en l’occurrence la vaste plaine alluviale dans laquelle les hommes ont choisi, peut-être un peu imprudemment, de bâtir une ville de 2,3 millions d’habitants !

Vue aérienne du réservoir d’Addicts lors d’une inondation récente (photo © US Army Corps of Engineers)

L’histoire n’est certes pas terminée et l’heure des comptes n’est pas encore arrivée. Après le passage de Katrina à la Nouvelle-Orléans, ce sont environ 1 million d’habitants qui ont dû faire appel aux services sociaux de l’Agence fédérale de gestion des situations d’urgence et on estime déjà que ce nombre pourrait avoisiner les 450 000 après le passage de la tempête Harvey, de nombreux Américains n’étant pas assurés contre ce type de risque naturel. La seule bonne nouvelle, si l’on peut dire, c’est que les assureurs ne sont pas inquiets puisque leur secteur dégage un bénéfice confortable évalué actuellement à 700 milliards de dollars, de quoi largement voir venir…

L.V. 

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.