Posts Tagged ‘Techniques’

Le mirage de la mer à boire…

14 mai 2018

Dessaler l’eau de mer pour satisfaire nos besoins en eau douce : la solution technique paraît séduisante pour faire face à la raréfaction des ressources en eau douce, menacées par les épisodes de sécheresse et contaminées par les pollutions. Sachant que les océans recouvrent 70 % de la surface du globe terrestre, l’eau de mer apparaît pour beaucoup comme une ressource inépuisable. La transformer en eau potable après élimination de ses sels minéraux pourrait donc constituer, aux yeux de nombreux responsables politiques, une solution d’avenir à généraliser.

Usine de dessalement de l’eau de mer de Fujairah aux Émirats arabes unis (source © Suez)

En apparence, la solution technique n’est pas compliquée et les marins grecs la mettaient déjà en œuvre dans l’Antiquité en appliquant une recette concoctée par Aristote et qui consiste simplement à chauffer l’eau et à récupérer par condensation la vapeur ainsi émise. C’est le principe de la distillation, utilisé dans la marine de manière industrielle dès le XIXème siècle.

Depuis, il a fait naturellement l’objet de multiples améliorations techniques, avec notamment le développement de la vaporisation multi-flash qui consiste à faire passer l’eau, initialement chauffée sous pression, dans des enceintes à pression de plus en plus réduite qui entraînent sa vaporisation quasi instantanée. C’est ce type de procédé qui est notamment employé à grande échelle dans les pays du Golfe où l’énergie à base d’hydrocarbures ne coûte pas très cher.

Vue de la plus grande usine de dessalement de l’eau de mer fonctionnant en Europe, près de Barcelone

Car – est-il besoin de le préciser ? – l’opération est particulièrement gourmande en énergie. Certes, dans nombre de pays, comme le Qatar, qui recourt massivement au dessalement de l’eau de mer pour son approvisionnement en eau potable, l’eau est distribuée gratuitement et son prix de revient n’est donc pas considéré comme un problème. Ce qui explique d’ailleurs qu’un Qatari consomme en moyenne 1200 litres d’eau par jour, là où un Allemand n’en utilise que 95 litres !

L’usine de dessalement de l’eau de mer construite en 2010 à Hadera, au nord de Tel-Aviv en Israël

Heureusement, la technique a fait de nombreux progrès en la matière et on a de plus en plus recours à d’autres procédés nettement moins énergivores comme celui de l’osmose inverse. Là encore, le principe est simple puisqu’il consiste en une ultrafiltration sous pression à travers une membrane poreuse semi-perméable qui retient les sels. C’est cette technique qui est notamment utilisée couramment en Israël où près de 70 % de l’eau consommée par les particuliers provient du dessalement de l’eau de mer.

Pour autant, même avec ce type de procédé, dessaler l’eau de mer consomme encore cinq fois plus d’énergie que les usines de traitement d’eau douce classiques. Certes, on développe désormais de plus en plus d’installations de dessalement alimentées par des énergies renouvelables, comme c’est le cas par exemple sur l’île d’El Hierro aux Canaries, où trois usines fonctionnent grâce à l’énergie éolienne ou hydraulique et on commence à exploiter, pour l’instant à titre expérimental, des systèmes de distillation à four solaire.

Principe de fonctionnement de l’alimentation électrique d’une station de dessalement d’eau de mer sur l’île El Hierro, aux Canaries (source © Futura Sciences)

Mais tout cela ne résout pas le problème majeur qui est celui des rejets : la saumure concentrée et les produits destinés à limiter l’entartrage des installations, sont purement et simplement rejetés en mer où ils s’avèrent particulièrement néfastes pour le milieu naturel, surtout dans une mer fermée comme l’est la Méditerranée. Poussé à l’extrême, le principe consiste à augmenter sans cesse la salinité de l’eau laissée en mer, alors que cette salinité, qui est en moyenne de 35 g/l dans les océans atteint déjà 39 à 40 g/l en Méditerranée, 42 g/l dans le Golfe Persique et dépasse 50 g/l dans la Mer Rouge.

Sans aller jusqu’à prétendre, bien évidemment, que c’est à cause des usines de dessalement que l’eau de mer est salée, il n’en reste pas moins que les impacts environnementaux des rejets de ces installations apparaissent comme des plus préoccupants, en particulier sur les fonds marins où la saumure se dépose et perturbe non seulement la vie benthique mais aussi les courants marins.

Là aussi, les ingénieurs ne manquent pas d’imagination pour rechercher des solutions techniques. C’est ainsi qu’un cabinet canadien a imaginé, dans le cadre d’un appel à projet pour la production d’eau potable à Santa Monica, en Californie, une construction en forme de gros cigare posé à quelques encablures de la côte et qui devrait permettre de produire, grâce à l’énergie solaire, 4,5 millions de m3 d’eau potable par an tout en rejetant les saumures dans un bassin central à usage thermal : de quoi faire d’une pierre deux coups…

Maquette du projet The Pipe destiné à dessaler l’eau de mer près de Santa Monica en Californie (source © Khalili Engineers – Land Art Generator Initiative Design)

Mais l’on se rend compte aussi que l’alimentation en eau potable à partir d’eau de mer dessalée peut être à l’origine de carences graves en magnésium et en iode, comme c’est déjà le cas en Israël. Il faut donc rajouter ces éléments dans l’eau douce après s’être évertué à les enlever de l’eau de mer, ce qui du coup rend le procédé encore moins économique.

Globalement, le dessalement de l’eau de mer reste en tout cas un procédé coûteux qui n’est envisagé que faute d’alternative plus simple permettant d’exploiter les eaux de surface ou les nappes souterraines. Pourtant, on constate que certains pays n’hésitent pas à utiliser de l’eau dessalée y compris pour l’irrigation agricole. C’est le cas désormais en Espagne où, dès 2006, 40 % de l’eau produite par dessalement était en fait destinée à la production de tomates sous serres, en particulier dans la région d’Alméria.

Serres de cultures intensives près d’Alméria, alimentée à l’eau de mer dessalée (source © Ecotoxicologie)

Une telle situation paraît aberrante mais répond à une logique purement économique : cette production d’eau douce est indispensable pour répondre à l’afflux saisonnier de touristes dans une région où l’aridité du climat rend les ressources en eau douce trop rares, et le meilleur moyen de rentabiliser de tels investissements est de les faire fonctionner toute l’année en approvisionnant les agriculteurs pour la production maraîchère de contre-saison qui permet d’inonder tout le marché européen à bas coût.

Pas sûr que cette démarche soit la plus rationnelle en termes d’exploitation raisonnée et durable des ressources naturelles, mais dans le domaine de l’alimentation en eau, comme dans beaucoup d’autres, ce sont bien souvent d’autres critères qui dictent les investisseurs économiques…

L.V. 

Publicités

Le champignon de Marseille va-t-il détrôner celui de Paris ?

3 mai 2018

L’agriculture urbaine, tout comme la permaculture sont en train de devenir des concepts à la mode. A Singapour, un État minuscule de 715 km2 (moins que la superficie de la seule commune d’Arles !) dans lequel s’entassent pas moins de 75 millions d’habitants, soit davantage que sur le territoire français, on compte ainsi déjà une centaine de fermes verticales, des tours édifiées en site urbain et dans laquelle on pratique le maraichage hors-sol.

Ferme verticale hors-sol à Singapour (source © Sky Greens)

Le principe est simple, sachant qu’une plante pour se développer a besoin, comme chacun sait, d’un peu d’amour et de beaucoup d’eau fraîche, mais aussi de lumière (l’énergie qui permet d’activer la photosynthèse) et de certains nutriments, généralement contenus dans le sol mais aussi apportés par les épandages d’engrais. A défaut de substrat, il suffit de verser les apports dans l’eau où baignent les racines des plantes. C’est ce même principe de l’hydroponie qui va être mis en œuvre à Romainville, en Seine Saint-Denis où plusieurs bâtiments dont une tour maraîchère de 24 m de hauteur sont en cours de construction, qui comprendront, outre des serres pour le maraîchage hors-sol, une champignonnière, un laboratoire pour la germination des graines, une serre pédagogique, un point de vente et, en extérieur, des petits vergers et un poulailler.

Maquette de la future tour maraîchère de Romainville (source © Ilimelgo et Secousses architectes / Poltred perspectiviste)

A Montréal, c’est ce même principe de la culture hydroponique qui est mis en œuvre dans deux serres installées sur les toits de la ville et dont la production est vendue sur internet sous forme de paniers de légumes. Cultiver sur les toits en ville présente en effet de multiples avantages, le moindre n’étant pas la proximité avec les consommateurs, ce qui permet de réduire fortement les coûts de commercialisation et de distribution.

Cultures maraichères sur le toit d’un supermarché à Montréal (source © Cent degrés)

Mais l’autre avantage est paradoxalement de profiter d’une qualité de l’air parfois meilleure en ville, surtout en altitude : les gaz d’échappement restent généralement bloqués au sol et ne dépassent pas le 2ème ou le 3ème étage, si bien que l’air en toiture est très acceptable.

Julien Girardon, créateur d’Abricotoit

C’est ce qui explique que les toitures marseillaises deviennent un lieu de refuge pour l’agriculture des Bouches-du-Rhône. C’est en tout cas le pari de la structure créée sous le joli nom d’Abricotoit par Julien Girardon, un jeune Marseillais, titulaire d’un doctorat en biotechnologie végétale, et qui propose d’aménager des jardins potagers sur les toits des immeubles du centre-ville, soit pour faciliter sa production personnelle, soit pour alimenter des restaurants en produits frais.

D’ailleurs les toits des immeubles sont de plus en plus convoités pour de multiples activités liés à l’agriculture, y compris pour y installer des ruches. Force est en effet de constater que les apiculteurs trouvent désormais en ville un terrain nettement plus propice à l’élevage mellifère du fait de l’absence de pesticides dans l’environnement proche et en raison de la plus grande diversité des espèces florales. On compte ainsi plus de 700 ruches à paris où la mortalité des abeilles ne dépasse pas 3 à 4 % alors qu’elle atteint désormais 30 à 40 % en milieu rural.

C’est la raison pour laquelle on voit désormais fleurir des ruches non seulement sur certains ronds-points comme c’est le cas à Vitrolles par exemple, mais aussi sur le toit des hôtels. Les clients de l’hôtel Sofitel situé sur le Vieux Port savourent ainsi depuis plusieurs années déjà le miel produit sur le toit du bâtiment et il en est de même pour ceux qui fréquentent l’hôtel Ibis de Bonneveine. Gérard Jourdan, l’apiculteur à l’origine de cette initiative, basé à Auriol, a depuis multiplié les implantations de ruches dans l’agglomération marseillaise et estime que la qualité du miel récolté ainsi en site urbain est généralement excellente.

Ruches installées sur le toit de l’hôtel Sofitel sur le Vieux Port de Marseille (source © Gérard Jourdan)

Depuis 2014, c’est le Castorama de Saint-Loup qui s’est lancé dans l’aventure, pour le plus grand bénéfice des employés du magasin qui se partagent la récolte, tandis qu’une association, intitulé Une ruche dans mon jardin, s’efforce d’implanter des ruches dans différents quartiers périphériques de Marseille, dont la Cité des Néréides, dans un but pédagogique afin d’inciter les enfants à retrouver le goût de la nature et de l’activité agricole.

Et voilà que ce sont désormais les caves de Marseille qui commencent à être investies par les adeptes de l’agriculture urbaine. Comme le relate Agathe Perrier sur le site Made in Marseille, deux amis, Maxime et Nicolas, ont eu l’idée de développer la culture de champignons (non hallucinogènes, est-il besoin de le préciser ?) dans les sous-sols de l’Équitable café situé sur le Cours Julien. Le substrat utilisé pour cela est en effet tout simplement du marc de café, mélangé aux spores de champignons et enserré dans des filets en forme de gros boudins, conservés pendant 15 jours dans l’obscurité puis exposés à la lumière dans une atmosphère très humide qui fait pousser en 5 jours de gros bouquets de pleurotes plutôt appétissantes.

Les boudins contenant le marc du café qui sert de support à la culture des champignons (photo © Agathe Perrier / Made in Marseille)

Une fois les champignons récoltés, le substrat est donné à l’association Terre de Mars, qui cultive d’anciens terrains agricoles dans le quartier de Sainte-Marthe : un apport organique idéal pour enrichir la terre. « C’est là que l’on boucle la boucle, car on produit des champignons grâce à des déchets et, de notre côté, on ne crée aucun déchet », met en avant Maxime.

Un cageot de pleurotes produites à Marseille (photo © Agathe Perrier / Made in Marseille)

Un bel exemple d’économie circulaire et qui pourrait encore évoluer puisque les deux amis se sont lancés dans d’autres expérimentations en essayant de recycler comme substrat des sciures de bois issus d’un chantier naval du Pharo.

D’ailleurs, leur ambition est de produire à terme une tonne de champignons par mois. Pour cela, ils envisagent sérieusement de déporter leur champignonnière urbaine dans les sous-sols du fort Saint-Nicolas et viennent de répondre à un appel à projet dans ce but. Le champignon de Marseille est peut-être promis à un bel avenir ?

L.V.

Vers une privatisation des barrages hydroélectriques ?

21 avril 2018

Voilà une information qui a fait le buzz dans tous les médias, de Libération à La Dépêche du midi, en passant par le blogger Ludo Torbey dont la vidéo d’Osons causer sur le sujet fait un tabac : Macron ose s’attaquer à notre patrimoine hydroélectrique et veut privatiser les barrages d’EDF, pour le plus grand bénéfice des multinationales, Total en tête, mais aussi les Allemands EON et Vattenfall, l’Italien Enel, le Canadien Hydro-Québec, voire des entreprises chinoises qui vont donc s’emparer de nos grands barrages, fleurons du génie industriel français.

Un véritable cauchemar pour les 160 000 salariés d’EDF dont 21 000 dans le secteur de l’hydroélectricité, et principalement les syndicalistes de la CGT qui ont été les premiers à monter au créneau après avoir appris, à l’occasion d’une réunion intersyndicale à Matignon le 7 février dernier, de la bouche de Thibaud Normand et Antoine Peillon, conseillers énergie du Premier ministre, que la France avait fini par céder aux exigences de la Commission européenne et acceptait d’ouvrir à la concurrence certaines des 433 concessions hydroélectriques françaises, et ceci dès 2018.

Barrage EDF de Sainte-Croix sur le Verdon, mis en service en 1974 (source © photothèque EDF)

On dénombre en France de l’ordre de 2300 installations hydroélectriques dont 433 donc qui relèvent du régime de la concession car d’une puissance supérieure à 4,5 MW. Elles totalisent à elles-seules 95 % de la puissance installée, soit de l’ordre de 24 GW. La part de l’hydroélectricité dans le mix énergétique français est relativement modeste, autour de 12 % (deux fois moins qu’au Portugal par exemple), même si l’hydroélectricité représente plus des deux tiers de l’énergie renouvelable produite en France.

Quoi qu’on en dise, la France reste totalement dépendante de la filière nucléaire pour son alimentation électrique et EDF fait tout pour que cette situation perdure, s’opposant de toutes ses forces à la volonté politique de réduire la part du nucléaire, refusant obstinément de fermer ces centrales même en fin de vie.

Or sur ces 433 concessions hydroélectriques, l’entreprise EDF en gère près de 85 %, le reste se partageant entre la CNR (Compagnie nationale du Rhône) et la SHEM (Société hydro-électrique du Midi). La CNR, créée en 1933, privatisée en 2001 et premier producteur français d’énergie exclusivement renouvelable est détenue principalement par le groupe public Caisse des Dépôts et des collectivités territoriales, avec comme actionnaire de référence minoritaire ENGIE (ex GDF-Suez). La SHEM, également producteur d’énergie 100 % renouvelable et lointaine héritière de la Compagnie des chemins de fer du Midi est aussi une filiale d’ENGIE.

C’est cette position dominante, quasi exclusive, d’EDF sur le parc hydroélectrique français, que l’Union européenne conteste depuis des années, prônant pour une ouverture à la concurrence. Car, contrairement à ce qu’on pourrait imaginer, les barrages en question n’appartiennent pas à EDF mais à l’État qui en a financé la construction (un gros investissement puisque l’on considère qu’il faut de l’ordre de 1 milliard d’euros pour aménager de quoi produire 1 GW).

Marcel Paul, syndicaliste et résistant, ministre de la production industrielle dans le gouvernement de Charles de Gaulle et instigateur de la création d’EDF-GDF en 1946

A l’époque où la plupart de ces barrages ont été construits, juste après la guerre, EDF était un service public, créé en 1946 sous l’impulsion du ministre et ancien résistant Marcel Paul avec un statut d’établissement public à caractère industriel et commercial. Bénéficiant alors d’un régime de monopole, EDF a pu s’arroger la quasi-totalité des concessions hydroélectriques, pour des durées de 75 ans.

Depuis, on s’est rendu compte que les situations de monopole jouaient rarement en faveur de l’usager ou du consommateur. La loi Sapin, adoptée en 2013 pour tenter de lutter contre les pratiques de corruption, a réduit la durée des délégations de services publics précisément pour éviter les dérives liées aux rentes de situation. En parallèle, l’ouverture progressive du marché de l’électricité à la concurrence sous l’impulsion politique de l’Union européenne et la transformation du statut d’EDF, devenue en 2004 une société anonyme cotée en bourse, ont radicalement changé la donne.

Certes, EDF reste détenue à près de 85 % par l’État français, ses autres actionnaires étant pour l’essentiel des investisseurs institutionnels (majoritairement étrangers). Mais l’entreprise se comporte désormais comme un champion de l’ultralibéralisme qui semble avoir totalement tourné le dos à ses valeurs initiales, ouvrant des filiales dans des paradis fiscaux, refusant de développer les énergies renouvelables, confiant la maintenance de ses centrales nucléaires à près de 20 000 sous-traitants en situation de grande précarité, exigeant sans cesse de nouvelles hausses des tarifs de l’électricité tout en amassant de juteux bénéfices.

EDF, fortement critiquée pour la gestion peu durable de son parc électronucléaire

Et l’hydroélectricité participe pour beaucoup à la constitution de ces bénéfices puisqu’on estime qu’ils s’élèvent à 1,25 milliards par an du seul fait de l’exploitation des concessions hydroélectriques depuis longtemps amorties, au point que l’électricité produite ainsi ne coûte de 20 à 30 € le MWh, contre 50 € le MWh d’origine nucléaire. Ces bénéfices sont principalement réinvestis à l’étranger et notamment au Royaume Uni où EDF a racheté British Energy en 2008 et lancé fin 2016 la construction des deux réacteurs nucléaires très controversés d’Hinkley Point, pour la modique somme d’au moins 21 milliards d’euros.

En 2010, l’État français avait annoncé une première vague d’appels d’offres pour la reprise de certaines concessions hydroélectriques mais sans jamais y donner suite. Au contraire, les concessions d’EDF déjà arrivées à échéance avaient été subrepticement rallongées moyennant quelques menus travaux supplémentaires de maintenance des ouvrages, au point qu’en octobre 2015, la commissaire européenne chargée de la concurrence, Margrethe Vestager, a adressé à Laurent Fabius, alors ministre des affaires étrangères et responsable à ce titre des questions européennes, un courrier pour l’informer de l’ouverture d’une enquête sur les concessions hydrauliques accordées en France à EDF.

Travaux de rénovation sur le barrage de Sarrans sur la Truyère en 2014 après vidange complète de la cuvette (source © L’Usine nouvelle)

Depuis, les acteurs français jouaient la montre alors que d’autres pays européens dont l’Allemagne avaient dès 2011 obtenu de sortir leurs barrages hydroélectriques du champ de la directive européenne sur les concessions, au même titre que les centrales nucléaires sont exclues du domaine concurrentiel car relevant d’activités « d’importante vitale ».

A l’époque, la France était déjà en position de faiblesse à cause de son taux d’endettement colossal totalement dérogatoire aux critères de Maastricht. Et désormais il se murmure que si le gouvernement a été contraint de céder aux injonctions de Bruxelles c’est pour faire baisser la pression contre le maintien des aides publiques françaises à l’agriculture…

Barrage de Bort-les-Orgues, sur la haute vallée de la Dordogne, mis en service en 1952 (source © Corrèze tourisme)

Toujours est-il que l’on annonce dès 2018 la remise en concurrence de certaines concessions hydroélectriques dont les barrages de Haute-Dordogne, celui de Beaufortain en Savoie et celui du Lac Mort en Isère. Les autres concessions suivront progressivement jusqu’en 2050, au fur et à mesure que les concessions initiales arriveront à échéance, conformément aux conventions signées initialement mais qu’EDF espérait bien ne jamais voir appliquer : dura lex, sed lex…

L.V. 

La Lune comme une déchetterie !

28 mars 2018

L’information n’est pas nouvelle mais elle resurgit périodiquement tant elle fait honte à notre habitude de laisser traîner partout nos déchets, même sur le sol de notre satellite lunaire qui est devenue une véritable déchetterie. Eh oui, la Lune elle-même que le poète venait « voir à la brune / Sur le clocher jauni, / La lune / Comme un point sur un i », la lune donc, toute « pâle et morne », ne serait plus qu’un vaste dépotoir sous son « masque blafard »…

Module lunaire du programme Apollo (source © NASA)

Ouest France en a remis une couche récemment, mais c’est le site internet du magazine américain The Atlantic qui avait levé le lièvre en 2012, révélant que l’on estimait à l’époque à 180 tonnes la masse de déchets accumulés sur la Lune depuis 1959. Le premier de ces débris est d’ailleurs la carcasse du premier engin fabriqué de la main de l’homme qui a réussi à atteindre la Lune, à savoir la sonde soviétique Luna 2 qui s’y est écrasée lamentablement le 14 septembre 1959.

La sonde soviétique Luna 2, première à avoir atteint la Lune, où elle s’est écrasée comme une crêpe…

Il faudra attendre Luna 9 en 1966 pour qu’une première sonde parvienne à se poser en douceur sur le sol lunaire, toutes celles du programme américain Ranger, mis en œuvre entre 1961 et 1965, ayant échoué à atteindre leur but, à l’exception des trois dernières qui s’y sont aussi définitivement scratchées.

180 tonnes de déchets pour un lieu où à ce jour seulement 12 hommes ont mis le pied, à la suite de Neil Amstrong, le capitaine de la mission Apollo 11 qui en a foulé le sol pour la première fois le 20 juillet 1969, c’est quand même beaucoup ! Depuis les 6 missions du programme Apollo qui ont permis à ces rares élus de marcher sur la Lune, la dernière (Apollo 17) s’étant déroulée en décembre 1972, plus personne n’a donc remis les pieds là-haut. Mais cela n’empêche pas les déchets de continuer à s’y accumuler…

Neil Amstrong, décédé récemment à 82 ans, premier homme à marcher sur la Lune en 1969 (source © NASA)

Car les agences spatiales de tous les pays, et elles sont de plus en plus nombreuses maintenant qu’Européens, Japonais, Chinois et Indiens se targuent eux-aussi d’aller voir de plus près ce qui se passe dans l’Espace, ont pris la mauvaise habitude d’utiliser notre satellite comme une vaste décharge. Plutôt que d’organiser le rapatriement sur Terre de tous les engins spatiaux devenus inutiles une fois leur mission accomplie, le plus simple et surtout le plus économique est en effet de les programmer pour qu’ils aillent s’écraser sur le sol de notre satellite naturel où ils viennent grossir la masse de déchets accumulés.

En 2012, la NASA recensait ainsi pas moins de 809 objets abandonnés à la surface de la Lune, les plus volumineux étant les modules lunaires et autres sondes spatiales dont les épaves jonchent désormais la surface de la Lune. Mais les souvenirs abandonnés par les quelques passages de l’homme à l’occasion des missions Apollo sont loin d’être négligeables. Certains ont été laissé en place à bon escient, comme le réflecteur lunaire installé par l’équipage d’Apollo 11, qui renvoie les rayons lasers émis depuis la Terre et permet de calculer à tout moment la distance qui sépare les deux corps célestes, ou encore le télescope doré déposé par la mission Apollo 16 et qui est l’unique télescope à pouvoir observer l’espace à partir d’un autre astre.

Plusieurs de ces objets abandonnés sur la Lune l’ont aussi été en toute connaissance de cause pour une raison symbolique voire sentimentale. C’est le cas notamment d’un micro disque de silicone renfermant les messages de 73 chefs d’état, mais aussi des cendres du géologue de la NASA, Eugene Shoemaker, lequel aura rêvé toute sa vie de se rendre sur la Lune, mais a dû se contenter d’attendre sa mort pour faire le voyage en kit.

La photo de la famille de Charles Duke que l’astronaute n’a pas pu s’empêcher de laisser traîner sur le sol lunaire (source © NASA)

Ces témoignages divers dont certains redoutent qu’ils n’attirent désormais des touristes lunaires venus les recolter comme vestiges historiques, sont de nature très diverse. On y retrouve ainsi, outre 5 drapeaux américains et l’inévitable Bible, une photo de la famille de l’astronaute Charles Duke, dédicacée et abandonnée à l’occasion de la mission Apollo 16 en 1972. On doit y retrouver aussi avec un peu de chance les deux balles de golf que le facétieux Alan Shepard, contre-amiral de l’US Navy, n’a pas pu s’empêcher de lancer avec l’aide d’un club de golf transporté clandestinement…

La plume et le marteau abandonnés après une expérience de physique assez basique (source © NASA)

Même les objets utilisés à des fins scientifiques sont restés sur place. Aucun des membres de l’équipage de la mission Apollo 15 ne s’est ainsi donné la peine de ramasser le marteau et la plume de faucon qu’ils avaient laissés tomber à la surface de la Lune pour vérifier ce que tout lycéen a pourtant pu observer de visu en TP de physique et sans pour autant déployer un tel arsenal de technologie, à savoir que dans le vide deux objets tombent à la même vitesse, quelle que soit leur masse et leur forme.

Mais il faut bien reconnaître que la plupart de ces détritus jetés sans vergogne, parmi lesquels des objectifs photographiques, une caméra, mais aussi 12 paires de bottes, des sacs à dos, de vieux magazines et pas moins de 96 sacs d’excréments, d’urine et de vomi, auraient quand même mérité d’être rapatriés ou au moins détruits pour ne pas polluer prématurément le sol de notre satellite. Manifestement, les astronautes américains n’avaient à l’époque guère plus de savoir-vivre et de préoccupation pour l’environnemnt que le touriste lambda en arrêt pique-nique au bord d’une route nationale un jour de départ en vacances…

C’est d’ailleurs ce que reconnaît sans ambages l’historien en chef de la Nasa, un certain William Barry, interviewé il y a quelques années par le site Live Science : « La préoccupation principale de la Nasa, c’était : les membres de l’équipage peuvent-ils arriver sur la Lune sans encombre ? Peuvent-ils prélever les échantillons dont ils ont besoin ? Et peut-on les ramener sur Terre en un seul morceau ? Les ingénieurs n’ont pas pensé à grand-chose d’autre… ». Voilà qui n’est certes pas le versant le plus glorieux de l’aventure spatiale, mais on veut bien le croire en effet…

L.V. 

Galerie des Janots : une découverte insolite…

25 mars 2018

Pour qui se rend à La Ciotat en venant de Cassis ou de La Bédoule, il est difficile de ne pas repérer le chantier qui se prolonge depuis des mois le long de la RD 559 qui est surmontée à cet endroit d’une passerelle provisoire. Ce chantier inhabituel est celui du siphon des Janots et est un des signes bien visibles d’une opération lancée depuis bientôt 10 ans par la Communauté urbaine de Marseille, intégrée depuis à la Métropole Aix-Marseille-Provence qui en a donc repris la maîtrise d’ouvrage.

Le Canal de Marseille au niveau de l’aqueduc de Roquefavour, achevé en 1847 (source © Marseille en live)

L’ouvrage concerné par ces travaux titanesques est une des branches du Canal de Marseille qui court sur près de 200 km depuis La Roque d’Anthéron, en l’occurrence la dérivation de La Ciotat qui approvisionne en eau potable les communes de Cassis, de Roquefort-La Bédoule, de La Ciotat et de Ceyreste. Cette canalisation majeure franchit le massif de Carpiagne par le souterrain du Mussuguet qui débouche tout près de la gare de Cassis. Après Cassis, elle doit ensuite traverser un second massif sous la Couronne de Charlemagne. Pour cela, elle emprunte tout simplement le tunnel SNCF des Janots.

Mais le passage de la canalisation dans le tunnel, aménagé entre 1956 et 1964 se fait par des ouvrages vétustes et fuyards qui posent de grosses difficultés d’exploitation et de maintenance. Cette canalisation qui ne permet de faire transiter que 330 l/s est de toute façon très insuffisante, surtout en période estivale, pour répondre aux besoins sans cesse croissants de l’usine de potabilisation de La Ciotat, laquelle alimente aussi Ceyreste et Saint-Cyr-sur-mer. Il a donc été décidé de déplacer cette canalisation en dehors du tunnel SNCF et de creuser une nouvelle galerie spécifique parallèle, avec pour objectif de faire passer par la future canalisation un débit de 440 l/s, qui pourrait même être porté ultérieurement à 1 m3/s.

Creusement de l’amorce de galerie sur La Ciotat en prévision de la mise en place du tunnelier à l’entrée de la galerie des Janots (source © Bronzo)

L’opération n’est pas anodine puisque son coût est évalué à 55 millions d’euros, financé en partie (pour 11 millions) par l’Agence de l’Eau Rhône-Méditerranée. Le creusement de la galerie proprement dit, estimé à près de 27 millions par les services de la Métropole, doit se faire sur une longueur de 2 750 m et selon un diamètre de 3,5 m. Elle passe sous le Parc national des Calanques, avec une épaisseur de recouvrement qui varie le long du tracé entre 15 et 180 m, mais elle serpente également très près de la voie ferrée et à proximité de nombreuses habitations, ce qui rend l’opération délicate.

Le tunnelier Augustine lors de son baptême le 3 février 2017 (photo © Christiane Wanaverbecq – Le Moniteur)

Il a donc fallu un tunnelier, construit tout spécialement par la société Robbins et installé à pied d’oeuvre depuis janvier 2017, un engin de 135 m de longueur et pesant 250 t, destiné à creuser la roche pendant une durée prévisionnelle de 10 mois en travaillant 24 heures sur 24. Inaugurée le 3 février 2017 en présence de nombreuses personnalités dont la maire de Cassis, Danièle Milon, et celui de Gemenos, Roland Giberti, par ailleurs délégué à l’eau et à l’assainissement à la Métropole, la machine imposante a été baptisée du petit nom d’Augustine. Une référence bien sûr au prénom de la mère de Marcel Pagnol, lui qui arpentait dans son enfance avec émerveillement les rives du Canal de Marseille.

Amorce de galerie pour la mise en place du tunnelier (source © Made in Marseille)

Depuis, le tunnelier poursuit son travail de grignotage. Prévu pour s’achever fin 2017, le percement de la galerie s’est prolongé au-delà des prévisions, ce qui n’a rien d’inhabituel dans ce type de chantier hors normes soumis à d’inévitables aléas géologiques, surtout dans un massif calcaire sujet aux phénomènes de karstification liés à la dissolution du carbonate de calcium sous l’effet de la circulation des eaux souterraines plus ou moins acides qui s’infiltrent via les fissures de la roche, élargissant ces dernières jusqu’à former de véritables cavités.

Et ça n’a pas loupé comme l’a annoncé Eiffage, l’entreprise générale mandataire du marché de travaux : le 13 mars 2018, Augustine est justement passée juste à côté d’une vaste cavité karstique remplie de magnifique concrétions. La géologue de service, une certaine Marie Lesimple, a donc eu le privilège de pénétrer la première, accompagnée d’un jeune ingénieur dénommé Salah-Edinne Chatouani, dans cette grotte en forme de cloche qui ne présente pas d’autres accès apparents praticables.

Cette découverte grandiose a mis en émoi les responsables du chantier et le directeur des travaux souterrains d’Eiffage Génie Civil, Loïc Thevenot, s’est déplacé en personne pour admirer le spectable inattendu et prononcer une sentence historique, comme il se doit en pareille occasion, déclarant : « On se sent tout petit quand on contemple ces merveilles que la nature nous offre ».

Vue de la cavité karstique découverte à l’occasion des travaux de creusement de la galerie des Janots (source © Eiffage)

L’accès à la grotte, ouvert grâce au passage du tunnelier, a été immédiatement sécurisé par un ouvrage en béton muni d’une trappe afin de permettre des investigations ultérieures et surtout pour que le chantier puisse suivre son cours sans tarder davantage. Il reviendra ensuite au maître d’ouvrage, à savoir la Métropole, de décider du sort de cette caverne joliment concrêtionnée, découverte par le plus grand des hasards grâce au percement de cette galerie technique destinée à apporter aux Ciotadens l’eau issue de la Durance, alors même que de l’eau circule en abondance à travers les interstices de ce massif, comme en témoigne l’importance du volume de vide créé au fil des millénaires du fait de ces infiltrations naturelles…

L.V.  

La France, troisième exportateur mondial d’armes…

20 mars 2018

Carte des conflits armés en cours dans le monde en février 2018 (source : Wikipedia)

La fin des conflits armés dans le monde n’est certainement pas pour demain. On peut le regretter, surtout si l’on habite au Yemen, en Syrie, en Afghanistan, au Sud-Soudan, en Lybie ou en Somalie mais une chose est sûre, c’est une excellente nouvelle pour ceux qui font le commerce des armes. Et il se trouve que c’est justement une spécialité de la France. Depuis 2013, les exportations françaises d’armement ont bondi de 27 % alors qu’elles ont augmenté en moyenne de 10 % dans le monde. Le chiffre d’affaire des grands groupes d’armement français, qui emploient de l’ordre de 200 000 personnes, serait ainsi passé de 4,8 milliards d’euros en 2012 à 16,9 milliards en 2015 selon la Direction générale de l’armement (DGA) : voilà au moins des entreprises qui ne connaissent pas la crise…

La France était autrefois connue pour ses exportations de produits agricoles, vin et camembert en tête, mais tout cela semble bien oublié depuis et tout compte fait, le commerce des armes s’avère bien plus lucratif, même s’il présente le léger inconvénient de contribuer à alimenter les conflits armés un peu partout dans le monde. Mais comme le dit si bien notre ministre des Armées, Florence Parly, « beaucoup de pays sont confrontés à cette situation d’avoir, le cas échéant, livré des armes à d’autres pays alors que ces armes n’étaient pas censées être utilisées ». C’est vrai qu’après tout on n’est pas obligé de vérifier ce que nos clients peuvent bien faire avec la marchandise qu’on leur fourgue, sinon c’est la mort du petit commerce…

Le général André Lanata, chef d’état-major de l’armée de l’Air, présente des systèmes de bombes aéroportées à la ministre Florence Parly (photo © Frédéric Lert / Aerobuzz.fr)

Mais heureusement, nos entreprises nationales d’armement ne s’embarrassent pas de tels scrupules hors de propos, et du coup les affaires sont florissantes. Alors qu’en 2015 la France se classait à la cinquième place des pays exportateurs d’armes, derrière les États-Unis, la Russie, la Chine et l’Allemagne, voilà qu’elle a devancé l’Allemagne en 2016 et qu’elle se classe même en troisième position juste derrière la Russie pour l’année 2017. Elle pourrait même dépasser cette dernière dès 2018.

Selon le magazine Challenges, c’est une étude du cabinet IHS Markit, cabinet qui scrute 40 000 programmes d’armement dans 65 pays, qui l’affirmait en août 2017 et depuis les affaires marchent très bien, merci. La récente visite en Inde du Président Macron l’a encore confirmé avec à la clé de nouvelles ventes de Rafale et de sous-marins, à un pays qui, malgré les relents nationalistes de son gouvernement actuel, est devenu depuis 5 ans notre meilleur client en matière de vente d’armes. Juste devant l’Arabie saoudite, un autre pays quelque peu belliqueux qui bombarde allègrement depuis quelques années les populations yéménites, mais qui a le bon goût de nous acheter sans compter de l’artillerie, des missiles, des hélicoptères et des frégates, sans qu’on s’interroge trop sur la finalité de ces investissements…

Le maréchal al-Sissi (au centre) en 2015 (photo © Fady Fares / SIPA)

Et en troisième position de nos fidèles clients vient l’Égypte du maréchal Abdel Fattah al-Sissi, au pouvoir depuis 2012 suite à un coup d’État, qui a déjà largement rempli les prisons avec des islamistes, mais aussi de nombreux journalistes, des intellectuels, des homosexuels et de manière générale tous les démocrates qui s’opposent à sa politique musclée, allant jusqu’à écarter des prochaines élections présidentielles du 26 mars le seul autre candidat crédible, Khaled Ali. Voilà en tout cas une valeur sûre avec qui nos exportations de Mistral, de Rafale, d’hélicoptères, de véhicules blindés et de canons a augmenté de 215 % en 5 ans : une belle progression qui fait honneur au savoir-faire de nos ingénieur, à défaut de mettre en valeur leurs valeurs éthiques, mais on ne peut pas être bon partout !

Un dessin de Deligne

Seule ombre au tableau : il se murmure dans les milieux bien informés que le marché mondial de l’armement, en hausse constante depuis 2009, pourrait pour la première fois connaître une légère contraction en 2018. Non pas – que l’on se rassure ! – à cause d’une baisse d’intensité des conflits régionaux que nombre de dirigeants s’emploient à attiser allègrement, mais tout simplement parce que plusieurs pays ont considérablement renforcé leur propre capacité de production, ce qui rend moins nécessaire d’importer.

Selon l’IHS cependant, il reste encore de beaux jours devant nous. Le Moyen-Orient, porté par l’Arabie saoudite, décidément une valeur sûre, devrait continuer d’importer pour 22 milliards de dollars de matériel militaires au moins jusqu’en 2020 et d’autres pays comme l’Inde mais aussi l’Indonésie voire l’Algérie devraient devenir de solides clients dans les années à venir. Voilà qui n’est pas forcément rassurant pour la stabilité dans le monde mais c’est au moins une bonne nouvelle pour l’avenir de notre balance commerciale : on ne peut pas gagner sur tous les tableaux…

L.V.  

Des télescopes géants pour traquer des univers lointains…

10 mars 2018

Pour cette nouvelle conférence organisée par le Cercle progressiste carnussien le 22 février dernier et qui a attiré un public particulièrement nombreux d’environ 65 personnes, ce sont Jacques Boulesteix et Michel Motré, qui en introduction ont présenté le conférencier, Jean-Gabriel Cuby, astronome au laboratoire d’astrophysique de Marseille et résident à Carnoux. Jacques Boulesteix a rappelé les différents aspects qu’englobe l’astronomie à ce jour, que ce soient l’étude de modélisation théorique de l’univers, la conception d’instruments d’observation et d’exploration, ou l’interprétation des enregistrements collectés.

Présentation du conférencier par Jacques Boulesteix (à gauche) – photo © CPC

Jean-Gabriel Cuby a présenté d’abord l’astronomie comme une science ancienne qui utilise aujourd’hui a besoin des outils spatiaux et des télescopes au sol d’une technologie hyper complexe. Ces moyens ne peuvent être que mis en commun au niveau planétaire pour permettre la poursuite des nombreux programmes d’observation de l’univers en cours et ceux prévus dans le futur.

C’est dans ce domaine que notre conférencier excelle puisqu’il a participé à la mise au point de très grands télescopes, ces dernières décennies, installés dans les observatoires répartis dans différents sites à la surface de la terre, notamment à Hawaii et au Chili.

Cela paraît évident mais c’est l’astronomie qui est à la source de nombreux outils utilisés quotidiennement, qui n’auraient pu être mis au point si le ciel avait été constamment recouvert de nuages ! Ainsi, les lois de la physique n’auraient pu être établies sans l’observation des planètes et leurs trajectoires, ou sans celle des étoiles, qui ont donné naissance aux théories élaborées par des savants comme Galilée, Kepler, Newton jusqu’à Einstein qui a modélisé mathématiquement notre univers. Même le GPS ne pourrait pas fonctionner sans l’apport de la théorie de la relativité…

Dès l’antiquité la connaissance de l’astronomie a permis l’établissement de calendriers, de cartes du ciel pour la navigation, la prévision d’éclipses. Cette connaissance constituait pour ceux qui les possédaient un outil de pouvoir. D’ailleurs les cultes les plus anciens associaient phénomènes célestes et architecture, tant l’influence sur leurs vies et croyances étaient importantes (pyramides, alignements de Carnac, de Stonehenge,..).

Galileo Galilei et deux de ses lunettes qu’il fit construire aux environs de Bologne un peu avant 1610

Depuis des millénaires et encore aujourd’hui, l’œil humain suffit à observer les astres les plus proches de notre système solaire si les conditions météorologiques le permettent. Mais ce n’est que depuis 1610 que Galilée a ouvert une ère nouvelle à l’astronomie avec la mise au point de sa lunette, prémisse des futurs télescopes constamment améliorés par d’autres savants comme Newton.

L’étape majeure se situe au 19ème siècle lorsque Camille Flammarion établit une cartographie de Mars, et c’est l’invention de la photographie qui permit d’enregistrer l’image de la nébuleuse du « tourbillon », qui est en fait la galaxie de la constellation  des Chiens de chasse.

Depuis 50 ans, l’astronomie a multiplié ses moyens d’observation grâce à l’exploration spatiale (en dehors de l’atmosphère terrestre) par des engins que sont les satellites et sondes interplanétaires ainsi que les missions habitées comme Apollo ou la station orbitale internationale, mais aussi via la mise au point de radio-télescopes.

Représentation de la sonde Rosetta et du robot Philae posé sur la comète 67P/Tchourioumov-Guérassimenko, surnommée « Tchouri » (source © CNES / illustration David Ducros)

Le télescope Hubble permet d’obtenir des clichés d’une finesse incroyable repoussant de plusieurs années lumières les limites de notre vision de l’univers. Les sondes Giotto, Huygens et Voyager après un voyage de plusieurs années aux confins de notre système solaire, de même que des sondes robotisées, explorent et transmettent leurs données enregistrées sur Mars ou sur la comète « Tchouri », avec la sonde « Rosetta » de l’Agence spatiale européenne (ASE/ESA), dont les données sont traitées précisément par le laboratoire de Marseille.

Dans ses propos, Jean-Gabriel Cuby a beaucoup insisté, en s’appuyant sur la projection de nombreuses photos, sur le parallèle entre le perfectionnement des télescopes (la taille de l’optique) et leurs limites d’observation des objets lointains.

Si la lunette de Galilée avait un diamètre de deux centimètres et demi, le perfectionnement permanent des techniques de fabrication et l’adjonction de nouvelles inventions technologiques permettent d’atteindre aujourd’hui un diamètre de l’ordre de 40 mètres.

C’est par un facteur deux, tous les trente ans, que la performance des matériels est améliorée. Mais ceci nécessite de concevoir différemment ce type de télescope. Comme il reste impossible de construire un miroir de 40 m de diamètre d’un seul bloc, on a choisi de juxtaposer 800 miroirs identiques sur une surface de presque 1 000 m² afin d’obtenir le résultat voulu, mais au prix de prouesses technologiques pour ajuster ces multiples miroirs dont la planéité ne tolère pas d’écart. Par comparaison la tolérance recherchée est celle de l’épaisseur d’un cheveu sur une surface équivalente à celle de la ville de Paris !

Différents télescopes installés autour du Mauna Kea à Hawaii (source © Université d’Hawaï)

Il est par ailleurs crucial d’implanter ces télescopes dans des régions où les conditions sont les plus propices à des observations quasi permanentes en toutes saisons, et surtout pour pouvoir observer des longueurs d’onde moins absorbées en altitude (infrarouge, ultra-violet, ondes millimétriques). C’est donc en haute altitude, sous les cieux les plus secs de la planète qu’ils sont installés, comme dans le désert d’Atacama (à 5 000 m d’altitude) au Chili ou sur le site de Mauna Kea à Hawaii (à 4 000 m d’altitude).

Les pôles constitueraient aussi des sites d’observation favorables, peu pollués et avec de faibles turbulences, mais les conditions climatiques et les difficultés logistiques ne permettent d’y implanter que des instruments de taille modeste.

Les très grands télescopes, bien que très puissants, souffrent néanmoins de l’atmosphère terrestre qui agit comme un « dépoli », modifiant les rayons optiques en provenance de l’espace lointain et élargissant les images. Une technologie récente, « l’optique adaptative » permet d’analyser la perturbation due à l’atmosphère et de la corriger en temps réel en utilisant des miroirs déformables. Si les images ainsi obtenues approchent la qualité des images observées par des satellites, elles ne compensent cependant pas l’absorption de certaines radiations par l’atmosphère terrestre.

En fait, l’astronomie moderne utilise d’une manière très complémentaire trois outils : 

  • les grands télescopes optiques, qui disposent des plus grandes surfaces collectrices et donc peuvent observer les signaux les plus faibles. Ils sont notamment utilisés pour analyser la lumière (spectrographie) pour déterminer la composition et la vitesse des objets célestes ; 
  • les satellites ou sondes spatiales, qui, situés hors de l’atmosphère terrestre peuvent détecter des objets dans des longueurs d’onde inobservables sur Terre ;
  • les radiotélescopes, qui permettent d’observer les atomes d’hydrogène et les molécules et qui nous donnent ainsi des informations sur la matière et la formation des étoiles.

Parallèlement, l’astronomie moderne ne se limite plus à la seule observation du rayonnement électromagnétique (spectre visible et spectre radio).

D’une part, depuis quelques années, on tente d’observer les ondes gravitationnelles (suggérées par Einstein). Le succès de la détection par les instruments LIGO (Etats-Unis) et VIRGO (Europe) de fusions de trous noirs ouvre une nouvelle voie à l’observation d’objets très massifs dans l’univers, invisibles par les télescopes classiques.

D’autre part, les observatoires de détection de neutrinos peuvent permettre d’observer dans les régions les plus denses et les plus absorbées comme le centre galactique. En effet, les neutrinos, particules n’interagissant pratiquement pas avec les autres, peuvent traverser l’univers sans absorption. Encore faut-il pouvoir les observer ! C’est ce qui se fait avec l’expérience Antarès située au large de la Seyne ou Amanda, dans les glaces du pôle sud.

La conjonction de tous ces moyens est une contribution essentielle à la découverte de nouvelle planète et à la compréhension de la formation de l’Univers.

Par comparaison, les télescopes spatiaux présentent de nombreux avantages techniques mais leur coût d’entretien (comme celui de Hubble, en fonction depuis 25 ans) est aussi très supérieur.

Un public captivé par les explications de Jean-Gabriel Cuby (photo © CPC)

Pour réduire les coûts de ces installations gigantesques, tout en développant plusieurs programmes d’observation, la solution réside dans une coopération internationale indispensable, cela par le biais d’alliances entre pays. C’est notamment le cas du projet JWST (James Webb Space Telescope, successeur du Hubble Telescope), télescope spatial déployable de 6,50 m de diamètre, prévu pour 2019 entre la NASA (Etats Unis) et l’ESA (Europe).

Le projet qui tient à cœur de Jean-Gabriel Cuby et sur lequel il insiste davantage, est celui auquel il a travaillé depuis 2004, et qui concerne la conception et la construction du télescope géant européen E-ELT (Extremely Large Telescope), installé au Chili sur le complexe déjà existant d’Atacama (VLT). Ce nouveau concept de télescope révolutionnaire au sol aura un miroir primaire de 39 mètres et sera le plus grand télescope optique au monde, capable d’analyser aussi le proche infrarouge. Il devrait faire considérablement progresser les connaissances astrophysiques en permettant une étude détaillée d’objets tels que les exoplanètes (planètes gravitant autour d’autres étoiles que le Soleil), les premiers objets de l’Univers, les trous noirs super-massifs, ainsi que la nature et la distribution de la matière noire et de l’énergie noire qui dominent l’Univers.

Vue d’artiste du futur Extremely Large Telescope en construction dans le désert d’Atacama (source © L. Calcada / European Southern Observatory / AFP)

Devant être inauguré en 2014 il ne sera mis en service qu’en 2024, démontrant que la difficulté de réalisation d’un tel projet n’est pas seulement d’ordre technique mais aussi financier, politique, logistique et environnemental. Pour un tel projet d’observatoire en astronomie, il faut en effet régulièrement compter une trentaine d’années entre sa conception et l’obtention des premiers résultats escomptés !

Si les retombées scientifiques espérées sont immenses, les avancées techniques et industrielles autorisées par un tel projet sont également importantes, avec la mise au point induite de nombreuses innovations technologiques commercialisables.

Pour conclure, le conférencier a rappellé les enjeux scientifiques que représente l’astronomie : l’étude des galaxies, la découverte des exoplanètes, une meilleure connaissance de l’évolution de l’univers, de son origine, de la notion d’énergie, de la possibilité de vie extraterrestre, avec ce caractère, certes irrationnel, qui touche au domaine du rêve.

Un public particulièrement nombreux pour cette nouvelle conférence du CPC (photo © CPC)

Ensuite le public a posé de nombreuses questions, révélant une curiosité inassouvie et de multiples interrogations sur notre univers, régi par des lois physiques mais ayant toujours cette capacité à émerveiller, d’une façon intemporelle, le simple observateur humain.

L’apéritif partagé par le public à l’issue de la conférence a permis de poursuivre le dialogue dans l’attente d’une autre conférence sur l’astronomie concernant les récentes découvertes faites dans l’univers.

C.M.

Gare Saint-Charles, ou la diamétralisation de la quadrature du cercle…

7 mars 2018

La gare Saint-Charles, menacée de diamétralisation…

C’est le Conseil d’orientation des infrastructures (COI de son petit nom) qui l’affirme dans le rapport de 200 pages qu’il vient de remettre, le 1er février 2018, à la ministre des transports, Elisabeth Borne : il convient de « diamétraliser » la gare Saint-Charles ! Et ce n’est pas un scoop puisque le rapport précédent, remis en 2013 et destiné également à hiérarchiser les choix d’investissement dans les infrastrutures de transports, disait déjà exactement la même chose…

Certes, le COI, instauré le 17 octobre 2017 et présidé par Philippe Duron, ex-président de l’Agence de financement des infrastructures de transport en France (AFITF), est une nouvelle structure, installée à l’occasion des Assises nationales de la mobilité, et dont l’objectif est de « définir sous deux mois une stratégie et une programmation soutenables des actions à mener dans la prochaine décennie dans le domaine des transports et des mobilités », rien de moins, mais pour autant, son analyse s’appuie sur des décennies d’études qui convergent toutes vers la nécessité d’améliorer la desserte ferroviaire entre Marseille et Nice, et de rendre plus opérationnelles les deux gares d’extrémité.

Remise du rapport Duron le 1er février 2018 à la ministre Elisabeth Borne (photo © A. Bouissou / MTES / La Gazette des communes)

Pour la ministre, « il ne s’agit pas de dépenser moins. L’enjeu est aussi et d’abord d’investir mieux pour améliorer les réseaux existants et désenclaver les territoires mal desservis ». Et comme l’argent public est de plus en plus rare, il s’agit de phaser les projet en fonction de leur priorité et des moyens financiers qui pourront être dégagés. Trois scénarios ont donc été imaginés selon que l’AFITF sera en capacité de mobiliser pour les 20 ans qui viennent entre 48 milliards d’euros (dans l’hypothèse la plus pessimiste), 60 ou 80 milliards (soyons fous !).

Dans tous les cas, la « diamétralisation » de la gare Saint-Charles est considérée comme une priorité. Pour ceux qui auraient quelques lacunes en matière de géométrie dans l’espace et de langue de bois technocratique, précisons au passage que l’opération de diamétralisation consiste tout simplement à rendre traversante une gare qui fonctionne jusqu’à présent en cul-de-sac et où les trains qui arrivent sont obligés de repartir en marche arrière.

Différents scénarios à l’étude pour la diamétralisation de la gare Saint-Charles

Mais pas question pour autant, bien évidemment, de créer une nouvelle voie ferrée qui sortirait de la façade nouvellement reconfigurée de la gare Saint-Charles et viendrait se faufiler via la Porte d’Aix, encore en chantier… Le but de la manœuvre est purement et simplement de construire une nouvelle gare en souterrain, prolongée de part et d’autre par des voies en tunnel afin de permettre aux TGV de transiter par Saint-Charles tout en laissant le niveau actuel de la gare pour le seul trafic ferroviaire local, un peu comme cela a été fait il y a des années pour la Gare de Lyon à Paris. Comme le précise clairement (ou presque) le rapport du COI : « l’objectif réside dans la limitation des cisaillements et des rebroussements consubstantiels à la gare actuelle en cul-de-sac » : Ah, qu’en termes galants ces choses-là sont dites…

Toujours est-il que le réaménagement de la gare Saint-Charles fait partie des travaux jugés prioritaires, au même titre d’ailleurs que la première phase de déploiement de l’ERTMS, un autre bel acronyme technocratique qui signifie en bon français bruxellois European rail trafic management system, autrement dit l’art et la manière de remplacer la bonne vieille signalisation ferroviaire au sol par un système de régulation en cabine plus souple qui permet d’augmenter de 20 à 30 % le cadencement des trains, en principe sans collision…

Selon le scénario de financement retenu, les travaux de réaménagement du plateau actuel de la gare Saint-Charles devraient débuter au plus tard en 2027, mais peut-être même dès 2020 si les budgets sont au rendez-vous. Ensuite, à savoir entre 2028 et 2032 (voire même dès 2027 si l’AFITF arrive à imposer le scénario 3 à 80 milliards), pourront débuter les travaux de réalisation de la nouvelle gare en souterrain pour atteindre la fameuse diamétralisation.

Le trajet de la ligne nouvelle Provence Côte d’Azur (source © Préfecture de région PACA)

La première étape, qui intègre également, outre le réaménagement des gares de surface de Marseille et de Nice, celle de la Pauline près de Toulon, coûtera 860 millions d’euros pour la seule région PACA. La seconde, qui verra non seulement la réalisation de la gare souterraine Saint-Charles, mais aussi le réaménagement de la ligne classique entre Cannes et Nice, fera grimper la facture à 2,9 milliards d’euros. Viennent ensuite deux autres phases de travaux à programmer. La suivante permettra, pour la bagatelle de 3,9 milliards, de terminer l’aménagement de la gare Saint-Augustin à Nice et de créer la nouvelle gare de La Bocca à Cannes tout en aménageant le tronçon de ligne nouvelle entre Cannes et Nice. Quant à la dernière étape, prévue à partir de 2038 seulement selon les scénarios 1 et 2 les plus probables, son coût prévisionnel est de 6,6 milliards et il verrait la réalisation de deux tronçons supplémentaires de ligne nouvelle, entre Aubagne et Toulon d’une part, entre Cannes et Le Muy d’autre part.

Reste bien entendu à savoir désormais quel accueil sera donné à cette ultime proposition d’ajustement pour un projet qui vivote dans les cartons depuis des années mais qui peine à se concrétiser faute de financement approprié. Il n’y a donc plus qu’à croiser les doigts pour espérer que tout cela s’inscrira bien comme prévu dans le prochain projet de loi d’orientation des mobilités…

L.V. 

Biomasse bois : 3 projets retenus en PACA

3 mars 2018

Le bois, source renouvelable d’énergie (photo © Frédéric Douard)

C’est un communiqué du Ministère de la transition écologique et solidaire qui l’a annoncé, le 28 février 2018 : la deuxième tranche de l’appel à projets lancé en vue de soutenir, via un complément de rémunération, des projets de développement d’unités de production de biomasse, a retenu 11 projets dont trois qui se situent en région PACA : un beau succès pour le développement de la production énergétique à partir de la biomasse forestière dans notre région !

La première tranche de cet appel à projets lancé en février 2016 visait explicitement à encourager à la fois les projets de méthanisation, autrement dit la production de biogaz à partir de déchets ou de matière végétale brute, mais aussi la production directe d’électricité à partir de la combustion du bois. Ce développement de la biomasse en France est une nécessité comme l’affirme Nicolas Hulot : « La France a voté en décembre dernier une loi mettant fin à la recherche et à l’exploitation des hydrocarbures sur tout notre territoire. En parallèle, notre pays doit monter en puissance sur le développement des énergies renouvelables pour répondre aux objectifs fixés dans le Plan climat. Les projets annoncés aujourd’hui répondent à cette ambition de soutenir des filières créatrices d’emplois ».

Stock de copeaux de bois destinés à la filière bois énergie (photo © Richard Mayer / La Gazette)

A l’échelle mondiale, on estime que l’électricité produite à partir de la biomasse représente de l’ordre de 58 GW mais que cette puissance pourrait atteindre 86 GW d’ici 2021, ce qui représente un potentiel de croissance remarquable. En France, c’est moins de 1 % de l’électricité produite qui provient de la biomasse, même si cette fillière représentait déjà en 2014 de l’ordre de 7,5 % de la production d’électricité d’origine renouvelable (loin derrière l’hydroélectricité et l’éolien, mais devant le solaire néanmoins).

Le principe de la filière bois-énergie est des plus simples puisqu’il se limite à faire brûler le bois pour chauffer de l’eau et produire de la vapeur qui actionnera une turbine comme dans n’importe quelle centrale électrique. Il faut environ 4 tonnes de bois pour produire autant d’électricité qu’avec une tonne de pétrole, mais le CO2 qui est relâché dans l’atmosphère à cette occasion correspond à la seule quantité qui a été séquestrée durant la croissance des arbres, d’où un bilan neutre en termes d’émission de gaz à effet de serre, contrairement à ce qui se passe via l’utilisation d’un combustible fossile.

Digesteur à méthanisation de Marnay Energie à Feux dans le Cher, construite par Xergi (photo © Xergi)

Dans le cadre de la méthanisation, le procédé est plus complexe puisqu’on récupère d’abord le biogaz issu de la fermentation de la matière organique utilisée (déchets organiques, résidus végétaux, boues issues de stations d’épuration, ou déchets provenant de certaines activités agro-industrielles) et que c’est ce biogaz qui sert ensuite soit pour produire de l’électricité soit pour se chauffer.

Toujours est-il que l’on est désormais rentré dans un véritable processus visant à encourager ce type de production en France et cet appel à projets du ministère y contribue. Ce sont en effet 45 dossiers de candidatures qui ont été reçus à l’occasion de cette seconde tranche de l’appel à projet, sachant que la troisième tranche sera ouverte à compter du 29 juin 2018 et devrait permettre de sélectionner encore de nouveaux projets industiels.

Le ministre Nicolas Hulot visitant la plateforme expérimentale Gaya à Saint-Fons (production de biométhane à partie de biomasse sèche) le 26 juillet 2017 (photo © ENGIE)

Sur les 11 projets ainsi retenus, 2 correspondent à des installations de méthanisation prévues respectivement en Bretagne et dans le Médoc. Tous les autres sont des projet bois-énergie pour des puissances installées unitaires supérieures à 300 kW, l’ensemble des projets totalisant une puissance globale installée de près de 53 MW (à comparer avec une tranche de réacteur nucléaire de type Fessenheim dont la puissance nominale est de 900 MW).

La plus ambitieuse de ces installations est justement prévue dans les Bouches-du-Rhône, à Tarascon, portée par la société marseillaise Bio-Watt, pour une puissance totale de 25 MW. Les deux autres projets implantés en région PACA sont d’ampleur nettement plus limitée avec des puissances visées oscillant entre 1MW pour le projet de Campus SAG Sud Luberon à Villelaure, dans le Vaucluse, et 1,2 MW pour celui porté par la société Pérénia à Clans, une commune forestière située dans la vallée de la Tinée, dans les Alpes-Maritimes.

Ces désignations interviennent alors que le projet de plus grande centrale biomasse de France prévu à Gardanne, porté initialement par le groupe énergétique allemand E.ON puis repris par sa filiale, la société Uniper France Power, continue à faire polémique. Pour rappel, le Tribunal administratif de Marseille avait annulé le 8 juin 2017 l’autorisation d’exploitation accordée par l’État en 2012, au motif que l’étude d’impact n’analysait pas « les effets négatifs indirects et permanents du projet sur les espaces forestiers de la zone d’approvisionnement » de la centrale, située dans un rayon de 400 km.

Vue de l’unité de la centrale thermique de Provence, à Gardanne destinée à produire de l’électricité à partir de la biomasse (photo © Serge Guéroult / La Provence)

Il faut dire que le projet était particulièrement ambitieux, voire totalement démesuré pour ses détracteurs qui évoquent « un véritable aspirateur à forêts » destiné à raser les châtaigneraies des Cévennes et à faire disparaître toute la forêt méditerranéenne… Il consistait à transformer, moyennant un investissement de 265 millions d’euros, la tranche 4 de l’ancienne centrale à lignite de Gardanne, en une vaste centrale à biomasse, d’une puissance de 150 MW (soit 6 % de la consommation totale de la région PACA), capable de brûler d’ici 2024, 850 000 tonnes de bois par an, dont 445 000 tonnes provenant de boisements locaux, le reste étant a priri constitué de déchets verts et de bois recyclé.

Les deux parcs naturels régionaux du Luberon et du Verdon sont vent debout contre ce projet de centrale à biomasse, au grand dam du Président de la Région, Renaud Muselier, qui menace du coup de leur couper les vivres, estimant dans un communiqué que « l’écologie doit être mise au service de l’économie pour faire de la croissance verte un atout ». Mettre l’écologie au service de l’économie, les écologistes apprécieront certainement…

En juillet 2017, Nicolas Hulot a malgré tout décidé de faire appel du jugement du Tribunal administratif. Quant aux parcs naturels régionaux, ils ont fini par rentrer dans le rang. Comme l’a raconté Reporterre, le 29 septembre dernier, les deux PNR réunis à Valensole ont accepté de signer un protocole d’accord avec Uniper, décidant de l’abandon de leurs poursuites devant le Tribunal administratif et de l’accompagnement de la nouvelle étude d’impact qui s’est du coup déroulé fin 2017 dans la plus grande discrétion. L’association France Nature Environnement PACA, elle-même très opposée au projet a aussi rendu les armes, effrayée par les baisses de subvention annoncées par la Région. Un passage en force donc et qui a déjà permis à l’unité de biomasse de produire 250 MWh au cours de 2200 heures de fonctionnement accumulés pendant les phases d’essais en 2017.

Pour l’instant, 55 % de la ressource utilisée à Gardanne est importée, pour l’essentiel de plantations d’eucalyptus situées en Espagne et au Brésil, 20 % étant issu de la production forestière locale, le reste provenant de déchets de récupération et de bois en fin de vie. Un progrès sans doute par rapport au charbon qui alimentait jusque là cette centrale thermique, l’une des 4 dernières encore en activité dans l’hexagone, mais qui est encore loi d’apaiser toutes les craintes des défenseurs locaux de l’environnement !

L.V.  

La voiture électrique est-elle écologique ?

1 mars 2018

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V. 

France-Allemagne : l’analyse de Thomas Piketty

27 février 2018

Thomas Piketty en conférence à Washington le 15 avril 2014 (crédit photo © Ivan Couronne / AFP)

Est-il besoin de présenter Thomas Piketty ? Docteur en économie de l’École des hautes études en sciences sociales et directeur d’études dans cette même institution après avoir été fondateur et premier directeur de l’École d’économie de Paris en 2006, cet économiste engagé, spécialiste des inégalités économiques, s’est notamment fait mondialement connaître pour la parution en 2013 de son ouvrage intitulé Le Capital au XXIe siècle, une somme de plus de 1000 pages qui le conduisit à donner de nombreuses conférences mondiales très remarquées y compris aux États-Unis.

Proche du Parti socialiste, il s’était engagé comme conseiller économique de Ségolène Royal lors de la campagne présidentielle de cette dernière en 2007, avant de soutenir François Hollande en 2012, pour reconnaître néanmoins sa forte déception a posteriori, allant jusqu’à estimer que « le gouvernement fait exactement le contraire de ce qu’il faudrait ». En 2015, il fait partie, avec Joseph Stiglitz des économistes qui conseillent le candidat du Labour britannique Jeremy Corbyn, et en 2017 on le retrouve dans l’équipe de campagne de Benoît Hamon, favorable à « un revenu universel crédible et audacieux ».

Les idées que soutient Thomas Piketty, en faveur notamment d’une réduction des inégalités par une réforme fiscale ambitieuse via une imposition progressive basée sur l’ensemble des revenus effectifs, ne font certes pas l’unanimité et suscitent même un rejet viscéral de la part des tenants du néolibéralisme, allergiques à toute idée de redistribution des richesses. Une chose est sûre pourtant, rares sont ceux qui contestent la compétence de cet économiste reconnu et ses analyses font souvent autorité.

Ainsi, l’un des articles publiés sur son blog en janvier 2017 et intitulé « De la productivité en France et en Allemagne » a conservé toute son actualité et mérite d’être lu en détail pour préciser certaines de nos idées reçues quant au fameux différentiel de compétitivité entre les deux pays moteurs de la construction européenne. Il n’est pas question ici d’évoquer toute la richesse du raisonnement mais on retiendra néanmoins à titre d’illustration trois ou quatre idées parmi d’autres.

Première affirmation, qui heurtera sans doute certains adeptes du déclinisme à la française : la productivité des économies mesurées en rapportant le PIB (c’est-à-dire la valeur totale des biens et services produits dans un pays au cours d’une année) au nombre total d’heures travaillées (salariés et non-salariés confondus) est quasiment identique en France et en Allemagne, comme d’ailleurs aux États-Unis. Elle représente environ 55 euros par heure travaillée en 2015, et est de plus de 25 % supérieure à celle enregistrée au Royaume-Uni ou en Italie, et près de trois fois plus élevée qu’en 1970 (après prise en compte de l’inflation et du niveau des prix dans les différents pays).

PIB par heure travaillée en parité de pouvoir d’achat et en euros 2015 (source © T. Piketty)

Contrairement à ce que certains voudraient faire croire, la France fait donc partie des quelques pays à forte productivité, de tels taux n’étant en effet dépassés que dans certaines économies très spécifiques basées sur la rente pétrolière (Norvège ou Émirats Arabes Unis par exemple) ou sur les paradis fiscaux (comme le Luxembourg).

Plus instructif encore, on observe que jusque dans les années 1970, la productivité américaine était très supérieure à celle des économies européennes, France comprise. Si la France et l’Allemagne ont pu grosso modo rattraper leur retard dès la fin des années 1980, c’est pour l’essentiel en ayant investi massivement dans l’éducation de leur population en généralisant l’accès à l’enseignement secondaire puis supérieur, avec plus de réussite que nos voisins britanniques et italiens, et davantage d’équité aussi que nos concurrents américains… Comme quoi, miser sur l’éducation est une nécessité absolue !

Nombre d’heures travaillées par an et par emploi (source © T. Piketty)

Deuxième idée intéressante qui ressort de cette analyse de Thomas Piketty : si le PIB par habitant est supérieur aux États-Unis qu’en Europe où il est finalement très comparable entre la France, l’Allemagne et le Royaume Uni (de l’ordre de 3000 € par mois et par personne), c’est parce que le volume d’heures travaillées y est très différent.

Thomas Piketty (crédit photo © Ekko von Schwichow)

Si l’on rapporte le nombre d’heures travaillées au nombre d’emplois, on observe ainsi que ce chiffre est en diminution régulière depuis les années 1970 en France et plus encore en Allemagne (où le phénomène est encore accentué par le développement du temps partiel imposé) alors qu’il est resté nettement plus élevé au Royaume Uni et surtout aux États-Unis. Les 1500 heures travaillées actuellement en moyenne par an en France correspondent peu ou prou à 35 heures hebdomadaires pendant 44 semaines alors que la durée des congés aux USA n’a quasiment pas augmenté depuis les années 1980, ce qui traduit une différence notable de choix de société.

Troisième notion évoquée dans cette analyse : le taux d’emploi par habitant qui, en France, stagne autour de 42 % alors qu’en Allemagne il s’accroit régulièrement depuis le début des années 2000 pour s’approcher désormais de la barre des 50 %. Ce décrochage très significatif de l’emploi en France depuis une quinzaine d’années est particulièrement significatif chez les moins de 25 ans et les plus de 55 ans, reflétant des faiblesses manifestes et inquiétantes en matière de formation professionnelle, de structuration du tissu industriel, de gouvernance des entreprises, mais aussi de financement de la protection sociale.

Dernier point qui mérite aussi d’être cité, sans prétendre tout dévoiler de cette analyse comparative très complète développée ici par Thomas Piketty : la question de l’excédent commercial allemand qui depuis les années 2000 représente toujours plus de 5 % de son PIB, atteignant même jusqu’à 8 % en 2015. Une situation totalement inédite pour un grand pays développé.

Le port à containers d’Hambourg, porte ouverte vers l’exportation

Le Japon a connu lui aussi dans les années 1980 des périodes d’excédent commercial qui lui ont permis d’accumuler des liquidités destinées à anticiper le vieillissement de sa population mais est depuis revenu à l’équilibre et présente même actuellement de nouveau une situation de léger déficit. Au même titre que la France d’ailleurs qui oscille régulièrement entre léger excédent et déficit modéré, alors que les États-Unis se distinguent depuis les années 1980 par un déficit chronique rendu possible par le rôle particulier de leur monnaie qui leur permet de rendre tolérable leur situation d’endettement financier permanent.

Reste que cette situation très particulière d’excédent commercial paraît peu durable à terme car elle suppose d’une part que les autres pays puissent absorber un tel excédent et d’autre part que l’Allemagne soit capable d’investir de manière judicieuse les liquidités ainsi accumulées, ce qui ne semble guère être le cas. La logique voudrait que le pays investisse désormais de manière plus significative dans les salaires (longtemps gelés), dans la consommation et dans l’investissement en Allemagne, afin de rééquilibrer son économie : un véritable défi pour la chancelière Angela Merkel qui peine toujours à former un gouvernement de coalition, cinq mois après les dernières élections législatives, mais un défi aussi pour la construction européenne et la solidité du tandem moteur franco-allemand !

L.V.  

Des villes menacées par la pénurie d’eau ?

15 février 2018

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Lustucru ou l’histoire de la halle voyageuse…

7 février 2018

A Arles, voilà que la friche Lustucru fait de nouveau parler d’elle, et c’est l’occasion de retracer l’histoire peu banale d’une gigantesque structure métallique construite en 1906 par un proche de Jean Eiffel et qui a beaucoup voyagé depuis…

Carte postale de l’exposition coloniale de 1906 à Marseille (source © Iris blog)

En 1906 donc, se tient à Marseille la troisième Exposition coloniale, après celles organisées en 1896 à Rouen et en 1989 à Rochefort. L’idée vient du docteur Heckel, fondateur de l’école de médecine du Pharo, spécialisée dans l’épidémiologie et les pathologies tropicales. Le maire de Marseille, un certain Jean-Baptiste-Amable Chanot, fait voter un budget d’un million de francs et le projet est entériné par un décret présidentiel signé en 1904.

L’exposition se tiendra sur un terrain de près de 40 ha situé entre le boulevard Rabatau, le rond-point du Prado et le boulevard Michelet, utilisé jusque là par l’armée comme champ de manœuvre, et qui deviendra le futur parc Chanot. Une cinquantaine de pavillons, tous plus exotiques les uns que les autres sont construits autour d’une grande allée centrale, tous destinés à être détruits à l’issue de l’exposition, laquelle fut un beau succès avec 1,8 millions de visiteurs entre avril et novembre 1906. Le Président de la République en personne, Armand Fallières, viendra visiter l’exposition avant de poser la première pierre du futur Canal du Rove. De nombreuses personnalités dont Frédéric Mistral, Auguste Rodin ou Jean-Baptiste Charcot ainsi que le général Lyautey, s’y rendent également.

Au centre du parc, à l’extrémité de l’allée centrale, se trouve le grand palais où sont présentées les diverses activités de la métropole et surtout de Marseille ; huilerie et savonnerie, tannerie, raffinage du soufre et du sucre, métallurgie du plomb, chantier naval, etc. Cet immense édifice, dessinée par Edouard Allar, jeune ingénieur de l’Ecole Centrale et ancien adjoint de Gustave Eiffel, a été construit par la Société de construction de Levallois-Perret (ex Compagnie des établissements Eiffel).

Carte postale de l’exposition coloniale de 1906 à Marseille avec une vue du Grand Palais

De forme rectangulaire, la halle mesure 99 m de long pour 44,5 m de largeur et près de 20 m de hauteur intérieure. Elle est constituée d’une nef centrale prolongée de quatre bas-côtés et possédait à l’origine une galerie desservie par deux escaliers intérieurs. Construite à Levallois-Perret et assemblée à Marseille, la structure métallique y sera à maintes reprises rhabillée pour abriter diverses manifestations jusqu’en 1939. Réquisitionnée ensuite successivement par les armées française, puis allemande et finalement américaine, la grande halle peut s’enorgueillir d’avoir connu de près les vicissitudes de l’Histoire…

Elle finit par être démontée et en 1951, elle est transportée à Arles où elle est remontée, sans sa galerie, pour servir de hangar agricole pour les usines de conditionnement de riz Lustucru qui s’établissent dans la plaine de Montmajour, à l’entrée nord de la ville. 

L’ex usine Lustucru est devenu un terrain de jeu pour graphistes (photo © Amélie / Ad-Urbex)

En 2003, la crue du Rhône dévaste totalement les usines Lustucru, rachetées entre temps par le groupe Panzani. Devant l’ampleur des dégâts, Panzani annonce le 26 mars 2004 la fermeture définitive du site. Malgré une très forte mobilisation des salariés qui occupent les locaux et malgré l’appui du préfet Christian Frémont qui va jusqu’à déclarer en septembre 2004 que « tout ceci est immoral », il faut se rendre à l’évidence et le site est définitivement abandonné en 2005, pour devenir le paradis des taggeurs et autres graphistes qui s’en donnent à cœur joie.

En octobre 2016, la ville d’Arles, qui avait racheté les 7,3 ha de la friche industrielle pour 1 € symbolique, accepte finalement de la céder au groupe Frey, un promoteur champenois qui projette d’y créer un centre commercial de plein air regroupant 13 moyennes surfaces et autant de boutiques dans le domaine de l’équipement de la personne et de la maison. Évalué à 1,8 millions d’euros par France Domaine, le tout est cédé à moitié prix au vu des frais particulièrement élevés envisagés pour démolir les bâtiments après les avoir désamiantés, et dépolluer le sol.

Etat actuel de la halle (photo © Jonathan Dahan / Le Moniteur)

Mais des défenseurs du patrimoine s’émeuvent de voir ainsi disparaître l’ancienne halle métallique, qualifiée de « cathédrale d’acier » et qui avait été labellisée en 2012 par l’État « Patrimoine du XX° siècle ». Une pétition recueille 3 000 signatures et est adressée à la ministre de la culture, l’Arlésienne Françoise Nyssen.

Vue aérienne du chantier de la digue des papeteries Etienne (source © SYMADREM)

A l’issue de moult tractations, une solution vient semble-t-il d’être trouvée, le 9 janvier 2018, à l’issue d’une réunion qui s’est tenue en sous-préfecture d’Arles en présence de tous les acteurs du dossier et au terme de laquelle, le groupe Frey a accepté de procéder à un nouveau démontage de la halle pour la déplacer une fois de plus. Le prochain point de chute de cette structure métallique qui aura finalement beaucoup voyagé, sera le site des Papeteries Etienne, une autre friche industrielle située à l’ouest d’Arles, en rive droite du Rhône, rachetée par l’Établissement public foncier régional, et que la Communauté d’agglomération Arles-Crau-Camargue-Montagnette projette de transformer en un nouveau pôle économique dédié à l’économie créative et aux industries culturelles et du patrimoine.

Sauf que pour l’instant ce site, lui-même en zone inondable, attend d’être requalifié en fonction du niveau de protection des digues qu’il est prévu de renforcer. Un laps de temps qui pourra donc être mis à profit pour lancer une consultation citoyenne et réfléchir aux contour du futur projet et au devenir de la fameuse structure métallique si souvent démontée et remontée. A moins qu’elle ne finisse par revenir à son point de départ, le parc Chanot, comme le suggère Christian Mourisard, adjoint au maire d’Arles, délégué au patrimoine et au tourisme. Au point où on en est, la « cathédrale d’acier » à monter en kit n’en est plus à un déplacement près…

L.V.  

Jura : la consigne remise au goût du jour

5 février 2018

Consigner les bouteilles en verre : voilà une pratique autrefois très courante et qui a quasiment disparu de notre environnement quotidien. Dans les années 1960, le geste était pourtant des plus banal, qui consistait à rapporter à son épicier où dans les grandes surfaces alors en plein expansion ses bouteilles vides de lait, de vin ou de bière, et ceci en échange de quelques pièces de monnaie ou d’un bon d’achat de valeur modique.

La pratique ne date d’ailleurs pas d’hier puisqu’elle aurait été initiée, dit-on, en 1799 à Dublin par un vendeur d’eau minérale gazeuse, imité dès 1800 par la marque Schweppes. En 1884, la Suède a généralisé le dispositif à grande échelle, allant jusqu’à imposer une standardisation des bouteilles pour en faciliter le recyclage.

Stockage de verre brisé issu du recyclage (source © Verre avenir)

Car le dispositif de la consigne ne présente que des avantages, tant écologiques qu’économiques. Une bouteille consignée (conçue spécifiquement à cet effet pour être plus résistante) peut être réutilisée une cinquantaine de fois moyennant un simple lavage. Ce qui permet d’économiser, selon une étude menée en Alsace et reprise par la fondation Nicolas Hulot, jusqu’à 75 % d’énergie et 33 % d’eau par rapport au recyclage classique qui nécessite de broyer les bouteilles, de débarraser le verre de ses impuretés puis de le fondre dans un four à 1 500 °C afin de fabriquer de nouveaux flacons…

Et pourtant, la France a presque complètement abandonné cette démarche dans les années 1980, alors que la filière des bouteilles en verre se trouvait fortement déstabilisée du fait du développement massif des emballages jetables en plastique. En 1992, lorsqu’a été créé en France le principe de « la responsabilité élargie du producteur », l’objectif prioritaire des industriels était d’éviter qu’on lui impose un système de consigne et ceci pour des raisons purement commerciales. La directive européenne adoptée en 1994 rend en effet désormais obligatoire la reprise ou la collecte des emballages ménagers en vue de leur réutilisation ou leur recyclage.

Récolte sélective du verre : ça déborde parfois… (source © Ouest-France)

La dispositif français oblige quant à lui les entreprises produisant ce qui deviendra des déchets, de verser une contribution financière à des organismes chargés d’organiser les filières de collecte et de traitement de ces déchets, en l’occurrence l’Adelphe, créée en 1993 à l’initiative des opérateurs industriels du secteur des vins et spiritueux. Or le verre pèse pour près de la moitié dans les déchets ménagers des Français, avec environ 2,3 millions de tonnes collectées chaque année par les collectivités. Et les sommes versées par les industriels pour la collecte et le traitement de ces déchets, de l’ordre de 60 millions d’euros par an, ne couvrent qu’une partie du coût, le reste étant pris en charge par les collectivités locales et payé par le contribuable via la taxe d’enlèvement des ordures ménagères.

Automate pour la collecte des bouteilles consignées en Allemagne

Un modèle imposé par les industriels donc, mais qui coûte cher au consommateur comme au contribuable et dont le bilan énergétique est déplorable ! Mais un modèle qui pourrait facilement être changé, à l’exemple de nombreux pays européens dont l’Allemagne où près des trois quarts des bouteilles sont consignées. Il est d’ailleurs cocasse de constater que Verallia, ancienne filiale conditionnement en verre de Saint-Gobain, produit justement des bouteilles consignées destinées au marché allemand

En France, la pratique de la consigne n’a cependant pas totalement disparu puisqu’elle est toujours pratiquée dans les hôtels, cafés et restaurants, ce qui permet ainsi de réutiliser directement environ 500 000 tonnes de verre par an, ce qui représente pas loin d’un milliard de bouteilles, sachant qu’on en produit chaque année de l’ordre de 3,4 milliards…

Et l’Alsace, peut-être en raison de sa proximité culturelle et géographique avec l’Allemagne, n’a jamais abandonné non plus le principe de la consigne, au point de faire des émules puisque l’on assiste depuis quelques années à l’émergence d’un mouvement de réutilisation des bouteilles dans le Jura.

L’initiative date de 2015 et est à porter au crédit de Clus’Ter Jura, une société coopérative d’intérêt collectif, elle-même issue de Juratri, une entreprise d’insertion créée en 1993 à Lons-le-Saunier et spécialisée dans le tri sélectif des déchets. Lauréate de l’appel à projet « Territoire zéro gaspillage, zéro déchet » organisé depuis 2014 par le ministère de l’environnement, l’initiative sobrement intitulée « J’aime mes bouteilles » commence à faire parler d’elle dans les médias.

Aude Weiss, responsable de la filière J’aime mes bouteilles (photo © Laëtitia Achilli)

Une animatrice, Aude Weiss, a été recrutée en septembre dernier pour piloter le projet qui consiste à collecter les bouteilles de vin issus de la production locale et qui sont consommés à 60 % dans le Jura, ce qui rend d’autant plus aisée et rentable leur réutilisation. Depuis un an, ce sont ainsi déjà plus de 50 000 bouteilles de vin qui ont été récupérées dans 25 points de collecte (Biocoop, cavistes, épiceries, etc.) où les clients les rapportent (gratuitement pour l’instant). La structure revend ensuite ces bouteilles aux viticulteurs, au prix de 18 à 20 centimes la bouteille, contre 24 à 27 centimes pour une neuve, ce qui leur permet de les réutiliser moyennant une économie substantielle supérieure à 20 %.

Dispositif de collecte des bouteilles mis en place dans le Jura par J’aime mes bouteilles

Le mouvement ainsi initié est en plein essor et espère augmenter significativement son impact en visant la collecte de 500 000 bouteilles d’ici 2020, avec une extension à d’autres productions locales telles que la bière et les jus de fruits. La mise en place d’une gratification pour inciter davantage les consommateurs à rapporter leurs bouteilles vides est aussi envisagée, comme en Allemagne où les bouteilles sont vendues un peu plus chères, mais où l’acompte est ensuite redonné aux consommateurs qui rapportent les bouteilles : 8 centimes pour une canette de bière, 15 pour une bouteille en plastique recyclable et 25 centimes pour les contenants non recyclables – sous forme de bons en magasin ou via des automates collecteurs.

Non seulement cette pratique est vertueuse sur le plan environnemental en contribuant à diminuer les volumes de déchets, mais de surcroît elle offre aux plus démunis la possibilité d’arrondir leurs fins de mois en ramassant les bouteilles et canettes vides laissées à l’abandon. Comme quoi, bénéfices économiques, sociaux et environnementaux arrivent parfois à se rejoindre !

L.V.  

Marseille envisage le recours à la délation massive…

1 février 2018

A Marseille, on savait déjà grâce aux travaux du sociologue Laurent Mucchielli, que les caméras de vidéosurveillance servaient principalement non pas à élucider les délits de voie publique mais à verbaliser les automobilistes mal garés. Il en est d’ailleurs de même à Carnoux, depuis l’an dernier. Et voilà qu’un article très documenté paru dans la Provence du 24 janvier 2018 vient encore noircir le tableau et brouiller les pistes.

Extrait de l’article publié par La Provence, le 24 janvier 2018

Intitulé sobrement « Big Brother : un ami qui vous veut du bien », l’article décortique la politique de surenchère frénétique et de course à la technologie qui s’est emparée des édiles marseillais cherchant à tout prix à rassurer leur électorat par le déploiement à grande échelle de gadgets aussi coûteux qu’inutiles, et envisageant sérieusement d’encourager des pratiques de délation massive qui commencent à faire froid dans le dos…

Caroline Pozmentier, adjointe au maire de Marseille, déléguée à la sécurité publique

On y apprend ainsi que Caroline Pozmentier, l’adjointe au maire de Marseille en charge de la sécurité publique et de la prévention de la délinquance, attend avec impatience les résultats de l’expérimentation de la ville de Nice sur le dispositif Reporty avant d’envisager sa mise en œuvre dans la cité phocéenne. Développé en Israël, où la politique ultra-sécuritaire que mène depuis des années ce pays en guerre civile larvée fait fantasmer tous nos élus locaux de droite, ce système consiste en une application installée sur le smartphone de tout un chacun et qui permet à un citoyen lambda de dénoncer en direct toute incivilité, crime ou délit dont il serait témoin, en se contentant de filmer la scène.

Certains craignent que cela ne vienne encourager le développement d’un climat de délation générale, peu propice à renforcer le tissu social et de nature à déborder la police municipale sous un amas de plaintes futiles et relevant surtout de la jalousie de voisinage. Mais Caroline Pozmentier ne voit pas où est le risque, affirmant sans sourciller : « vous savez, la délation elle existe déjà : le maire reçoit chaque jour des dizaines de lettres anonymes dénonçant tel ou tel… Tout ça, c’est une question de culture que nous devons mettre en place peu à peu ». A croire que l’élue LR regrette le bon temps de la Collaboration où chacun n’hésitait pas à dénoncer allègrement son voisin… D’autant que l’outil qui permet de dénoncer des incivilités existe déjà, via Allo mairie, et que téléphoner au numéro d’urgence nationale (17), lorsqu’on est témoin d’un fait grave, relève déjà de l’obligation citoyenne.

Laurent Mucchielli, cité par La Provence dans son article du 24 janvier 2018

Mais on sent derrière cette stratégie, comme l’analyse Laurent Mucchielli dans le reportage de La Provence, une volonté politique de la municipalité marseillaise de s’approprier la sécurité au détriment des forces de l’ordre nationale. Avec plus de 400 policiers municipaux armés et 600 prévus d’ici 2020, la ville de Marseille bénéficie d’ores et déjà des forces de police municipale les plus importantes de France, talonnée il est vrai par la ville de Nice qui sert d’aiguillon.

Une ville de Nice qui a donc lancé l’expérimentation du dispositif Reporty et où le maire, Christian Estrosi, se dit persuadé que seul un dispositif de vidéosurveillance peut assurer la sécurité de ses concitoyens, lui qui n’hésitait pas à persifler au lendemain de l’attentat contre Charlie Hebdo (et avant celui du 14 juillet 2016 qui avait ensanglanté la Promenade des Anglais) : « Avec 999 caméras et une caméra pour 343 habitants, je suis à peu près convaincu que si Paris avait été équipé du même réseau que le nôtre, les frères Kouachi n’auraient pas passé 3 carrefours sans être netralisés et arrêtés ».

Reporty, une application en test à Nice (source : numerama.com)

La suite des événements lui a clairement prouvé qu’il avait tort mais cela ne l’empêche pas de persévérer et de faire des émules, non seulement à Marseille mais même dans des petites communes comme Sisteron où le maire LR compte installer en 2018 pas moins de 81 caméras pour 8 000 habitants, un des taux les plus élevés de France, ou encore à Châteaurenard où les 15 000 habitants disposent déjà d’une caméra pour 110 habitants.

Centre de supervision urbaine de Marseille (photo © Anne-Christine Poujoulat / AFP.com)

Et Marseille bien entendu ne compte pas être en reste puisque l’objectif est d’y installer 2 000 caméras d’ici 2020, ce qui revient quasiment à doubler le parc déjà déployé depuis 2012, mais qui jusqu’à présent est surtout disposé le long des grands axes routiers (principalement pour surveiller les infractions au code de la route) et dans les noyaux villageois, mais évite soigneusement les cités chaudes où se concentre la délinquance. A raison de coûts d’installation estimés entre 1 500 et 7 000 euros pour chaque caméra, sans compter les frais de fonctionnement liés à la maintenance du matériel et à l’exploitation des images enregistrées, on voit bien que cette politique municipale va coûter cher au contribuable marseillais.

Renaud Muselier, Président du Conseil régional PACA et roi de la surenchère sécuritaire…

Et ce n’est sans doute qu’un début puisque, dans un souci évident de surenchère, chacun y va de sa proposition. C’est ainsi que le Président du Conseil régional, Renaud Muselier, souhaite désormais installer des portiques de reconnaissance faciale devant chaque lycée, tandis que sa vice-présidente rêve de développer « la Big data de la tranquillité publique » pour faire de Marseille une « safe city », en provençal dans le texte. Autrement dit, il s’agit de croiser tous les fichiers de données numériques pour mieux les exploiter, une gageure quand on sait comment fonctionnent les services qui les gèrent, et un véritable cauchemar pour la Commission nationale de l’informatique et des libertés, la CNIL, qui croule sous les demandes et ne sait plus où donner de la tête, elle qui est sensée s’assurer que le fichage des données personnelles respecte certaines règles de base et ne vient pas mettre en péril la vie privée des Français.

Jusqu’où ira-t-on dans une telle course à la technologie destinée avant tout à permettre aux élus locaux de rassurer leurs électeurs en leur montrant qu’ils ne lésinent pas pour assurer leur sécurité ? Après le dispositif des voisins vigilants et les lotissements entièrement cloturés et sous gardiennage électronique, après les caméras de vidéosurveillance et les systèmes de reconnaissance faciale, on envisage désormais sérieusement des drones pour surveiller en permanence tout déplacement suspect et sans doute bientôt des milices armées de citoyens comme on commence à l’organiser avec les groupes de chasseurs dans l’Est de la France. Décidément, on vit une époque formidable qui devrait nous préparer un avenir radieux !

L.V.  

Prochaine conférence du CPC : à la découverte d’univers lointains…

29 janvier 2018

Le conférencier, Jean-Gabriel Cuby (crédit photo © planetastronomy.com)

Après quelques mois d’interruption, le Cercle Progressiste Carnussien relance son cycle de conférences. La prochaine se déroulera jeudi 22 février 2018 à 18h30 et sera animée par Jean-Gabriel Cuby, astronome au Laboratoire d’astrophysique de Marseille. Elle vise à partager les avancées récentes en matière d’observation spatiale à l’aide des télescopes géants, des outils fabuleux de plus en plus performants, permettant d’améliorer sans cesse notre connaissance des univers lointains, très au-delà de notre système solaire.

Jean-Gabriel Cuby est astronome, ex-directeur du Laboratoire d’astrophysique de Marseille (LAM). Il a été, pour l’Observatoire européen austral (ESO) au Chili, le responsable de l’ensemble de l’instrumentation du « Very Large Telescope » (VLT).

Il est ainsi devenu le spécialiste français des télescopes de taille extrême, dénommés ELT pour « Extremely Large Telescope ». Il est désormais en charge de la coordination pour le CNRS – et plus précisément pour son Institut national des sciences de l’Univers (INSU) – des activités liées aux ELT en France. Il est également fortement impliqué sur les ELT au niveau européen, au travers de programmes de l’ESO ou des programmes cadres de recherche et développement de l’Union Européenne.

Vue d’artiste du futur European Extremely Large Telescope en projet dans le désert d’Atcama au Chili (crédit photo © L. Calçada / ESO)

La construction du plus grand télescope au monde a débuté dans le désert d’Atacama au Chili. Ce télescope européen aura un miroir principal de 39 mètres de diamètre, constitué de plus de 700 segments individuels. La construction et la mise en opération de ce miroir, ainsi que de nombreux autres éléments de l’instrument, soulèvent de nombreux défis technologiques. Cet œil géant européen permettra l’observation directe de planètes hors de notre système solaire jusqu’aux galaxies les plus distantes aux confins de l’Univers…

C’est à la fois l’histoire de l’observation de l’Univers et celle des recherches les plus récentes que Jean-Gabriel Cuby envisage de présenter au public lors de sa prochaine conférence à Carnoux-en-Provence le jeudi 22 février 2018, dans la salle du Clos Blancheton, rue Tony Garnier. Comme d’habitude, l’accès à cette conférence est libre et gratuit et les échanges avec le conférencier seront suivis d’un apéritif convivial.

M.M.

Paris : la bataille de l’eau s’engage !

20 décembre 2017

L’agglomération parisienne fait partie de ces grandes métropoles mondiales pour lesquelles la gestion de l’eau ne va pas de soi. Nos ancêtres les Gaulois de la tribu des Parisii, en installant leurs cabanes de torchis sur l’île de la Cité (à moins que ce ne soit à Nanterre comme le laissent à penser certaines fouilles récentes), en bordure de la Seine, croyaient pourtant s’être prémunis contre cette question de l’approvisionnement en eau potable.

Le lac du Der, en dérivation de la Marne, un des 4 lacs réservoirs en amont de Paris

Mais ils n’imaginaient pas que leur petite cité deviendrait un jour une métropole de 7 millions d’habitants. Or la Seine n’est somme toute qu’un petit fleuve dont le débit en plein été peut devenir ridiculement bas. C’est d’ailleurs pour cette raison qu’ont été construits, après la grande sécheresse de 1921, les quatre grands lacs-réservoirs qui stockent, très en amont du Bassin parisien, sur les cours de la Seine, de la Marne, de l’Aube et de l’Yonne, plus de 800 millions de m3 d’eau qui sont ensuite relâchés progressivement pendant tout l’été et l’automne afin de soutenir le débit d’étiage de la Seine à Paris, tout en contribuant également à la protection de l’agglomération contre les crues d’hiver.

Eugène Belgrand, concepteur du réseau d’eau et d’assainissement de Paris (source © Ecole Polytechnique)

C’est en 1776, sous le règne de Louis XVI, que les frères Perrier créent la première Compagnie des eaux et installent une pompe sur la Seine pour alimenter un réseau de fontaines. Et c’est Napoléon qui fait creuser le canal de l’Ourcq, imaginé jadis par Colbert, et qui alimente encore de nos jours le réseau d’eau non potable qui sert notamment à nettoyer à grandes eaux les rues de la capitale.

Mais c’est à partir de 1854 que, sous l’impulsion du baron Haussmann et de l’ingénieur Eugène Belgrand, se met en place l’essentiel du réseau actuel d’alimentation en eau potable (et du réseau d’assainissement) de la ville. En 1865, les eaux de la Dhuis permettent d’approvisionner les quartiers les plus hauts de Belleville et de Ménilmontant.

Un des ponts aqueducs acheminant les eaux de la Vanne à Paris

Dix ans plus tard, ce sont les eaux de la Vanne, captées à plus de 170 km au sud de Paris, qui sont dérivées vers la capitale, au prix d’aqueducs interminables. En 1893, ce sont les sources de l’Avre, de la Vigne et du Breuil, dans l’Eure à plus de 100 km de Paris, qui sont à leur tour acheminées vers Paris. A l’occasion de l’Exposition universelle de 1900, elles sont grossies par les eaux prélevées sur le Loing et le Lunain, et en 1925 par celles de la Voulzie. En parallèle sont construites deux usines de pompage des eaux de la Seine (à Ivry) et de la Marne (à Saint-Maur). Une troisième, implantée à Orly, les renforcera en 1969.

Célia Blauel, présidente d’Eau de Paris

Et c’est la Compagnie générale des eaux, créée en 1852 sous Napoléon III et rejointe en 1880 par son principal concurrent, la Lyonnaise des Eaux, qui se partagent rapidement la gestion du dispositif. Sur Paris, il a fallu une décision politique du maire Bertrand Delanoë en 2008 pour sortir de ce face-à-face et mettre en place une régie municipale, Eaux de Paris, actuellement présidée par Célia Blauel et qui assure depuis le 1er janvier 2010 l’approvisionnement et la distribution de l’eau potable pour trois millions de Parisiens.

Mais dans le reste de l’agglomération, c’est encore Véolia et Suez, les deux mastodontes héritiers de la Générale et de la Lyonnaise, qui se partagent le gâteau. Suez s’occupe comme délégataire du Syndicat des eaux de la presqu’île de Gennevilliers (SEPG) de la distribution d’eau auprès de 600 000 abonnés de l’ouest parisien, tandis que Véolia gère les 4,5 millions d’usagers du SEDIF, le Syndicat des eaux d’Ile de France, qui règne sur pas moins de 150 communes en Petite et Grande Couronne. Et dans les deux cas depuis 1923 : un record de longévité !

André Santini, président du SEDIF (photo © SIPA)

Certes, la loi Sapin a mis un terme à ces délégations de service public qui s’éternisent et dont la durée légale ne peut désormais excéder 12 années. En 2008, André Santini, maire inamovible d’Issy-les-Moulineaux et président du SEDIF sans discontinuer depuis 1983, a donc été contraint de remettre en jeu le contrat de Véolia. Un appel d’offre a été lancé qui a rapidement tourné à l’affrontement sans pitié entre les deux géants du secteur, jusqu’à ce que Suez se retire de la course, à l’issue d’un combat homérique que relate un savoureux article du Point. Dans l’affaire, Véolia a été contraint de réduire sa marge de 20 % mais le fromage reste alléchant puisque ce contrat représenterait 37 % des 600 millions d’euros de chiffre d’affaire de Véolia Eau.

La Chambre régionale des comptes, qui vient tout juste d’analyser la gestion de ces trois grands services d’eau franciliens sur la période 2010-2014, n’a pas manqué, une fois de plus, de tresser des lauriers à la Ville de Paris qui a parfaitement réussi son pari du retour à une régie municipale et qui offre à ses abonnés le prix de l’eau le moins cher tout en assurant une qualité du service et un niveau d’investissement irréprochables.

Usine de potabilisation de l’eau à Neuilly-sur-Marne (source © SEDIF)

Inversement, les critiques pleuvent sur les délégations de services publics du SEDIF et du SEPG pour lesquels la CRC passe en revue nombre d’irrégularités, de manquements, d’abus et de dérives de toutes sortes, conduisant à une déconnexion totale entre les montants facturés à l’usager et la réalité des dépenses effectives d’investissement, comme l’analyse notamment Marc Laimé sur son site très documenté Les eaux glacées du calcul égoïste.

Ce qui n’empêche pas le SEDIF de fanfaronner et de promouvoir partout son projet de « grand ring de l’eau ». Un concept qui vise à mailler encore davantage les différentes sources d’approvisionnement de l’agglomération parisienne et qui s’est traduit notamment par l’acquisition en février dernier de 6 km de conduites, en vue de relier deux des trois principales usines de pompage et de potabilisation du SEDIF, celle de Méry-sur-Oise et celle de Neuilly-sur-Marne (la troisième étant celle de Choisy-le-Roi, sur la Seine). En fait, une formidable offensive pour étouffer Eau de Paris et viser à terme le monopole de la distribution d’eau potable sur l’ensemble du territoire métropolitain dont les contours restent encore un peu flous.

Unité de nano-filtration dans l’usine du SEDIF à Méry-sur-Oise (source © Véolia)

Du coup, la bataille entre le SEDIF (dont le contrat actuel prend fin en 2022) et Eau de Paris a repris de plus belle, à la faveur des dernières évolutions institutionnelles et notamment de la loi NOTRe qui prévoit qu’à compter du 1er janvier 2020 ce sont désormais aux intercommunalités de prendre la compétence de la production et de la distribution de l’eau potable (comme d’ailleurs de l’assainissement). Sur le territoire de la Métropole du Grand Paris, ce sont désormais les EPT (établissements publics territoriaux) qui sont donc aux manettes, s’étant substitués automatiquement aux communes ou aux intercommunalités. A eux donc de décider s’ils souhaitent ou non adhérer au SEDIF pour lui déléguer cette compétence, et ceci avant le 31 décembre 2017.

Le collectif citoyen Coordination Eau Ile de France, milite donc auprès des élus de certains EPT de Seine-Saint-Denis et du Val-de-Marne en les incitant à profiter de cette fenêtre de tir inespérée pour tenter de sortir du SEDIF et reprendre la gestion de l’eau en régie, ce qui est totalement impossible en temps normal car les statuts du SEDIF empêchent tout départ unilatéral. Et c’est ainsi que 24 des 36 communes des trois EPT Plaine-Commune, Est-Ensemble et Grand Orly-Seine-Bièvre, ont délibéré pour décider de ne pas réadhérer au SEDIF pour les deux ans qui viennent, jusqu’à cette fameuse date butoir du 1er janvier 2020.

Le SEDIF avait bien tenté de bloquer toute initiative en ce sens en laissant entendre qu’en cas de décision de la sorte il se verrait contrait de fermer le robinet sans autre forme de procès le 31 décembre 2017 à minuit et que les élus récalcitrants devront alors se débrouiller pour expliquer leur décision politique malheureuse à leurs électeurs assoiffés. Mais André Santini a fini par reconnaître que cela ressemblait un peu trop à du chantage et avait accepté le 20 octobre dernier le principe de signer des conventions provisoires pour les deux ans à venir, le temps pour les EPT concernés de mener les études nécessaires en vue de déterminer leur position pour 2020. Est-ce un premier pas vers le retour à une extension des régies en Ile de France ? L’avenir le dira…

L.V.

Vous reprendrez bien un peu de glyphosate ?

30 novembre 2017

« L’homme est un animal doué de raison », disait le philosophe Aristote. C’est parfois à se demander. Prenons l’affaire du glyphosate. Voilà un produit miracle, mis sous le marché en 1974 sous le doux nom de Roundup et qui a fait la fortune de la firme Monsanto, devenant en quelques années le pesticide le plus vendu au monde : pas moins de 800 000 tonnes par an dont plus de 10 000 tonnes rien qu’en France. Le brevet est tombé dans le domaine public en 2000 mais il continue à rapporter la bagatelle de 5 milliards de dollars chaque année à la firme Monsanto, désormais tombée dans l’escarcelle du géant allemand Bayer.

Les agriculteurs affiliés à la FNSEA ne jurent que par lui et considèrent qu’il est désormais impossible à l’agriculture française de se passer du glyphosate. Comme l’a affirmé Eric Thirouin, secrétaire général de la FNSEA à un journaliste du Monde, interdire l’utilisation de cet herbicide, reviendrait « à poser un boulet à l’agriculture française » et coûterait pas moins de 2 milliards d’euros à une filière nationale déjà bien mal en point. La raison d’un tel surcoût : il faudrait que les céréaliers en reviennent à la charrue et se remettent à labourer leurs terres, ce qui les obligerait « à augmenter leur consommation de gas oil et leurs émissions de CO2 ».

Un véritable scénario catastrophe qui laisse pantois. Certes, nous voilà partiellement rassurés, nos agriculteurs ne seront pas obligés d’en revenir pour autant à l’araire tirée par des bœufs, voire à la daba. Mais tout de même, de là à prétendre que le glyphosate est la meilleure arme qu’on ait trouvée pour protéger l’environnement et combattre le réchauffement climatique, voilà qui paraît un peu fort de café.

Pour labourer profond, il faut ce qu’il faut… (source : Massey-Fergusson)

On en vient même à se demander, lorsqu’on voit le nombre de tracteurs dernier cri, avec cabine insonorisée équipée de GPS, en train de tracer leurs sillons dans les plaines céréalières de la Beauce ou de la Brie, si certains ne seraient pas en train de pousser un peu loin le bouchon en voulant nous faire croire qu’on a arrêté depuis belle lurette de retourner les champs et que, grâce au glyphosate, tout la profession s’est convertie à la permaculture…

Voilà en tout cas une situation bien peu rationnelle en apparence. Alors qu’en Europe et singulièrement en France, la demande en produits issus de l’agriculture biologique explose, au point qu’on est obligé d’importer massivement pour y faire face, la majorité active (ou du moins la plus bruyante) de la profession agricole se bat pour conserver le droit d’utiliser des produits phytosanitaires dont l’effet sur les sols et sur l’environnement est catastrophique, avec pour principal argument que c’est le seul moyen pour produire à bas coût et répondre ainsi aux diktats de la grande distribution.

La filière agricole et le ministre de l’agriculture en tête, se sont ainsi bruyamment félicités de la décision honteuse prise le 27 novembre 2017 par les États membres de l’Union européenne à une large majorité de prolonger de 5 ans la licence d’exploitation du glyphosate malgré tous les risques qu’il représente non seulement pour l’environnement mais aussi pour la santé humaine puisqu’il est désormais considéré comme « cancérogène probable » suite à une étude publiée en mars 2015 par le Centre international de recherche contre le cancer qui dépend de l’OMS.

Un dessin de Deligne (source : Urtikan)

La déclassification en mars 2017 des fameux « Monsanto papers » indique d’ailleurs que la firme américaine a découvert ce pouvoir mutagène du glyphosate dès 1999 et a tout fait depuis, grâce à son réseau d’influence auprès d’experts internationaux reconnus, pour semer le doute à ce sujet et publier nombre de résultats d’études qui tendent à prouver le contraire pour renforcer sa position.

Voilà en tout cas qui montre, une fois de plus, à quel point il est difficile, sur des dossiers aussi complexes et qui comportent de tels enjeux économiques, de prendre des décisions qui seraient conformes à l’intérêt général. Difficile d’ailleurs de ne pas faire le parallèle avec le cas de l’amiante dont on connait les dangers depuis les années 1890 mais pour laquelle il a fallu attendre 1997 pour que son utilisation soit enfin interdite en France.

Monument dédié aux victimes de l’amiante à Condé-sur-Noireau

Les propriétés de ce matériau étaient telles qu’il a été massivement utilisé dans l’industrie et la construction, sous forme d’amiante-ciment, en renforcement des enrobés routiers, comme isolant thermique ou encore dans les garnitures de freins. Pendant des décennies, des générations entières d’ouvriers ont été exposées à l’inhalation de fibres d’amiante dont l’accumulation dans les poumons est la cause de cancer. Rien qu’en France, 6 500 cas de maladie professionnelle liée à l’amiante ont ainsi été reconnus pour la seule année 2005 et on considérait en 2015 que chaque année de l’ordre de 2 200 personnes développent un cancer du fait de l’amiante et que 1 700 personnes en meurent.

C’est en 1899 qu’a été constaté le premier décès imputé directement à l’amiante et en 1906 déjà un inspecteur du travail s’alarmait des nombreuses pathologies des ouvriers dans une filature de Condé-sur-Noireau, là même où en 1972 Ferrodo installera une usine de garnitures de frein dans laquelle plusieurs centaines d’ouvriers seront victimes d’exposition grave aux fibres d’amiante.

Bâtiments de l’ancienne mine d’amiante de Canari en Corse (photo © Gérard Baldocchi, Corse Matin)

Mais pendant très longtemps, les syndicats de travailleurs ont milité aux côté du lobby des entreprises de l’amiante pour lutter contre toute limitation de l’utilisation de ce produit considéré lui-aussi comme indispensable, de même que les Corses se sont battus pour conserver leur mine d’amiante à Canari ou que les élus locaux un peu partout se sont démenés pour maintenir en activité les usines Eternit comme à Port-de-Bouc où le site est désormais ornée d’un monument aux morts dédié aux victimes de l’amiante.

Travaux de désamiantage dans les locaux de l’université de Jussieu (source : EPAURIF)

Il a fallu pour que l’on cesse enfin d’utiliser ce produit nocif que l’on se rende compte que ce n’était pas seulement les professionnels qui étaient touchés mais la société toute entière. Alors qu’en 1994 six enseignants exposés à l’amiante dans un lycée de Gérarmer décèdent et qu’apparaissent les premières victimes sur le site de la faculté de Jussieu, l’inénarrable Claude Allègre, toujours aussi lucide, en est encore à railler, en 1996, « un phénomène de psychose collective ». C’est sans doute ce qu’il dirait aujourd’hui de la phobie du glyphosate, s’il avait conservé un minimum de crédibilité pour qu’on lui tende encore un micro…

En 2005, un rapport parlementaire faisait état de 35 000 morts dus à l’exposition à l’amiante en France entre 1965 et 1995 et de plusieurs milliers de décès supplémentaires attendus entre 2005 et 2030. Notons également que le Fonds d’indemnisation des victimes de l’amiante a déjà déboursé plus de 2 milliards d’euros en une dizaine d’années et que le désamiantage de la seule université de Jussieu a déjà coûté de l’ordre de 2 milliards d’euros également. De quoi largement relativiser les arguments de la FNSEA qui voudrait nous faire croire que, pour le glyphosate comme pour d’autres dossiers, la meilleure solution est encore de foncer dans le mur en fermant les yeux…

L.V. 

Ordures ménagères : faut-il vraiment trier ses déchets ?

28 novembre 2017

Ordures ménagères dans les rues de Marseille (photo © Robert Poulain, source Destimed)

Le traitement des ordures ménagères fait partie de ces dossiers complexes que les collectivités ont bien du mal à gérer. Leur volume ne cesse d’augmenter : chaque Français jette plus d’1 kg de déchet chaque jour, soit 573 kg par an, et cette quantité a doublé au cours des 40 dernières années ! Et les solutions techniques pour les traiter sont de plus en plus coûteuses.

Le simple enfouissement des ordures pose de sérieux problèmes environnementaux et tend à disparaître, sauf pour les déchets ultimes, dans des conditions très contrôlés, d’autant que plus personne n’accepte l’ouverture d’une décharge à côté de chez lui. Mais on enfouit encore près de 30 % de nos déchets, ce qui montre à quel point le recyclage reste largement à développer.

L’incinération, qui concerne désormais de l’ordre d’un tiers du traitement des déchets, crée également de sérieuses réticences de la part du voisinage et n’est rentable que pour de gros volumes. Le coût moyen de traitement des ordures par incinération, comme cela est pratiqué pour l’agglomération marseillaise, est évalué par l’ADEME à 121 € la tonne (en 2013) mais les coûts augmentent rapidement lorsque les volumes à traiter sont faibles, du fait des charges fixes élevées. Il existe actuellement en France plus de 125 unités d’incinération, dont la plupart (moins de 70 % en réalité) valorisent l’énergie produite (en alimentant des réseaux de chaleur).

Incinérateur d’ordures ménagères à Fos-sur-Mer (photo © Pierre Ratcliffe)

En France, on estime le volume global de déchets produits annuellement à 355 millions de tonnes dont l’essentiel provient des chantiers de construction (estimé à 250 Mt) et, dans une moindre part (6Mt environ) de l’activité économique industrielle. La part des ordures ménagères proprement dite représente de l’ordre de 17 Mt, à laquelle s’ajoute à peu près autant de déchets issus des artisans et commerçants et qui sont généralement collectés en même temps, ainsi que 4 Mt produits par les collectivités elles-mêmes, soit environ 38 millions de tonnes de déchets à traiter chaque année par les collectivités.

Décharge sauvage d’ordures ménagères sur le littoral méditerranéen (source © Ecologie Nature)

Voilà qui fait un volume considérable et qui coûte très cher à la société : de l’ordre de 10 milliards d’euros chaque année (dont la motié payée directement par les ménages via la taxe d’enlèvement des ordures ménagères) alors que ce montant n’était que de 3,5 milliards en 1990, à une période où les déchets étaient moins nombreux, plus facilement dégradables et surtout où l’on se contentait encore bien souvent de les entasser dans la nature dans de simples décharges, ce qui limitait les coûts à la collecte et au transport…

Une partie de ces déchets, déposés en déchetterie ou collectés en porte à porte via les poubelles jaunes peut être recyclée via différentes filières, pour l’essentiel largement subventionées car encore peu rentables économiquement. Mais près de la moitié de ce volume est constituée d’ordures ménagères et assimilées qui s’entassent dans nos poubelles grises et ne peut être facilement valorisée. Malgré toutes les campagnes de sensibilisation et d’information qui se multiplient depuis des années, le tri individuel des déchets n’est pas partout entré dans les mœurs et l’agglomération marseillaise fait partie des mauvais élèves.

On observe bien une amélioration globale du taux de recyclage qui dépasse désormais la barre des 60 % pour les emballages du programme Eco-emballage (mais plafonne encore en dessous de 45 % pour les emballages industriels…). Tous les immeubles collectifs sont loin d’être équipés pour la collecte sélective et les erreurs de tri sont telles que bien des containers collectés de la sorte s’avèrent inutilisables, d’autant que les règles de tri sont évolutives, plus complexes qu’il n’y paraît, et varient d’une collectivité à l’autre. En gros, seule une petite moitié des déchets recyclables fait l’objet d’un tri effectif à la source, via les dispositifs d’apport volontaire ou via la collecte sélective en porte à porte.

Plaquette pédagogique pour le tri des déchets, éditée par la société Eaux de Marseille

Face à ce constat, certains ont eu l’idée de mieux valoriser le tout venant issu de nos poubelles grises en procédant à leur tri de manière automatique. C’est le processus qu’a mis au point la société Vacher et qui est à l’œuvre depuis mi-2014 dans l’écopôle Altriom en Haute-Loire. A l’origine de cette initiative, un appel d’offre de la communauté d’agglomération du Puy-en-Velay, alliée avec la communauté de communes du Pays de Saugues et deux syndicats intercommunaux voisins de collecte et de traitement des ordures ménagères, celui des Monts du Forez et celui d’Emblavez-Meygal.

Ces colectivités se heurtaient depuis des années à l’impossibilité d’ouvrir un nouveau centre d’enfouissement des déchets. La solution proposée par le groupement consiste à trier les ordures ménagères en séparant de manière automatisée la matière organique d’une part (valorisée par compostage), et les emballages plastiques et métalliques ainsi que les papiers-cartons d’autre part, qui pourront ainsi être recyclés. Le reste, considéré pour l’essentiel comme combustible solide de récupération, est incinéré dans des fours de cimenteries locales, à l’exception d’une part de refus qui correspond grosso modo à 10 % du volume initial et qui, lui, doit effectivement être envoyé dans un centre d’enfouissement pour déchets ultimes. Tout le système repose sur un dispositif breveté très sophistiqué capable d’ouvrir les sacs de déchets et de traiter 20 tonnes par heure à raison de 21 heures par jour, avec plusieurs flux de valorisation, un bel outil technologique, pour un coût tout à fait compétitif puisqu’il est estimé entre 60 et 100 € la tonne !

Vue de l’usine Altriom au Puy-en-Velay (source Altriom)

Bien entendu, les concepteurs d’un tel système, pompeusement dénommé 3Wayste, le présentent comme révolutionnaire puisqu’il permettrait de valoriser 90 % des ordures ménagères entrantes alors que le système de collecte sélective en porte à porte, au Puy-en-Velay comme à Carnoux-en-Provence, ne dépasse guère les 16 %… A se demander d’ailleurs s’il est bien raisonnable de poursuivre cet effort de tri sélectif volontaire à la source auquel les Français semblent totalement rétifs quand on en voit les piètres résultats alors qu’il est en vigueur depuis des années et devrait désormais être entré dans les habitudes au vu de tous les efforts pédagogiques entrepris, y compris en milieu scolaire depuis le plus jeune âge

C’est d’ailleurs ce que préconise le directeur du centre Altriom qui envisage désormais de supprimer carrément la collecte sélective dans le centre-ville du Puy. Un choix statégique qui serait certainement vécu comme une incroyable reculade de la part de tous ceux qui se battent depuis des années pour que chaque citoyen prenne conscience qu’il doit être acteur de la gestion de son environnement et que réduire ses déchets en triant tout ce qui peut-être valorisé fait partie des gestes qui lui incombent en toute responsabilité… D’autant qu’en réalité le système revient à envoyer entre 38 et 46 % de ses flux de déchets entrants directement dans les fours de cimenterie.

Voilà en tout cas un beau débat de société en perspective !

L.V.