Archive for the ‘Science et techniques’ Category

Des algues à la rescousse de la planète

21 octobre 2017

A Paris, la société Suez Environnement vient d’installer une nouvelle sorte de mobilier urbain qui rappelle furieusement les antiques colonnes Morris, lesquelles parsemaient les artères de la capitale au XIXème siècle pour afficher spectacles et informations diverses. Dressée sur la place d’Alésia dans le 14ème arrondissement, au centre d’un carrefour où transitent chaque jour en moyenne pas moins de 72 000 véhicules, cette colonne d »un nouveau style, est en réalité un puits de carbone expérimental, ainsi que l’ont rapporté notamment Le Monde et Les Echos.

Colonne Morris aquarium installée place d’Alésia (photo © Gilles Rolle / REA)

Le principe de fonctionnement est des plus simples. Comme chacun sait, les algues, ainsi que tous les végétaux pourvus de chloroplastes et aptes à la photosynthèse, absorbent en présence de lumière le gaz carbonique dont elles assimilent le carbone et rejettent l’oxygène.

La colonne Morris high tech de 4 m de hauteur installée en juillet 2017 place d’Alésia par Suez en accord avec la Mairie de Paris n’est ni plus ni moins qu’un vaste aquarium de 1 m³ qui contient des microalgues. Un système de ventilation leur permet de s’alimenter avec l’air ambiant chargé en gaz carbonique et en polluants divers dont le dixyde d’azote (NO2) rejeté en grande quantité par les pots d’échappement des véhicules et dont la quantité à cet endroit dépasse régulièrement le seuil réglementaire de 40 µg/m³, selon les données d’Airparif.

Principe de fonctionnement du puits de carbone (source © SUEZ)

Des diodes électroluminescentes fournissent aux algues l’éclairage suffisant pour optimiser les réactions de photosynthèse et l’oxygène ainsi produit est rejeté dans l’air ambiant grâce au système de ventilation : rien de plus simple, il suffisait d’y penser ! A force de se goinfrer ainsi de gaz carbonique, les microalgues vont naturellement croître et se multiplier. Quand il y en aura trop, un coup de chasse d’eau et la biomasse en excès filera via le réseau d’assainissement vers la station d’épuration où elle sera transformée en biogaz. Après traitement, le méthane ainsi récupéré sera ensuite réinjecté dans le réseau de gaz naturel. Un bel exemple d’économie recyclée où l’on est gagnant à chaque étape…

Prototype en cours de test à la station d’épuration de Colombes (source © SUEZ)

Le dispositif, mis au point avec la start-up Fermentalg, basée à Libourne en Gironde et spécialisée dans la production de microalgues destinées à la nutrition humaine et animale, a fait l’objet d’une présentation lors de la COP 21 en décembre 2015. En janvier 2017, un premier test en vraie grandeur a été effectué à l’usine de traitement des eaux usées du SIAAP (Syndicat interdépartemental de l’assainissement de l’agglomération parisienne) à Colombes où un puits de carbone a été mis en place, alimenté par les gaz à effet de serre rejetés par les fumées du four d’incinération des boues de l’usine. Le système a donné entière satisfaction et la durée de vie des algues s’est révélée bien plus longue que prévu grâce à cette source d’alimentation constante en CO2.

Devant le succès de l’opération, la question s’est posée de poursuivre l’expérimentation dans un site urbain où les taux de gaz carbonique varient davantage. Célia Blauel, adjointe en charge de l’environnement à la mairie de Paris, s’est ainsi laissée convaincre et la fameuse colonne Morris a donc été installée place d’Alésia. L’objectif est de fixer une tonne de CO2 par an, soit un effet comparable à une centaine d’arbres, tout en produisant une dizaine de kg de biométhane, un objectif jugé bien modeste par certains au vu du coût de l’investissement, qui n’a pas été communiqué mais qui semble assez élevé. Le système permettra aussi d’absorber une partie des polluants atmosphériques de type oxydes de soufre, mais c’est seulement à l’issue de cette phase expérimentale qu’on pourra déterminer dans quelle proportion.

Bref, le chemin semble encore bien long avant que de telles colonnes épuratoires ne se développent dans les rues de la capitale, mais l’idée est ingénieuse et vient rappeler à quel point les algues peuvent être des auxiliaires précieux de notre vie quotidienne. Les microalgues en particulier, qui sont très abondantes dans de nombreux milieux naturels et peuvent facilement être cultivées sans nécessiter pour cela de vastes surfaces agricoles, ont un potentiel de développement dix à trente fois supérieur aux plantes terrestres, puisqu’elles sont capables de doubler leur biomasse chaque jour dans des conditions optimales.

Réacteurs photo-biologiques pour la culture de micro-algues (source © WebTV de l’Université de Nantes)

Utilisées de longue date comme nutriment, cosmétique, colorant ou complément alimentaire, les microalgues pourraient bien contribuer demain à la production de biocarburants, pour l’instant issu surtout de la transformation de soja mais au prix de l’accaparement de vastes superficies de terres agricoles. Ainsi, des chercheurs chiliens sont parvenus récemment à produire du biodiesel à base de microalgues en essayant de réduire autant que possible la quantité d’énergie nécessaire pour la croissance de ces organismes unicellulaires, mais le procédé reste pour l’instant au stade de la recherche.

Bitume bio obtenu à partir de résidus de microalgues (source © WebTV de l’Université de Nantes)

En attendant, des chercheurs du CNRS et de l’université de Nantes associés avec la société AlgoSource Technologies basée à Saint-Nazaire, sont peut-être en train de mettre au point le bitume algaire de demain, ainsi que l’a rapporté Le Monde. Leurs travaux, issus du projet Algoroute, publiés en avril 2015 dans la revue ACS Sustainable Chemistry & Engineering et qui ont fait l’objet du dépôt d’un brevet, montrent en effet qu’il est possible, en laboratoire, d’obtenir à partir de résidus de microalgues placés dans un bain d’eau chauffée sous pression, une substance visqueuse hydrophobe, qui présente des caractéristiques similaires à celles du bitume pétrolier : même couleur noire, même viscoélasticité qui assure la cohésion des granulats entrant dans la composition des revêtements routiers, et propriétés rhéologiques comparables conférant au matériau résistance et flexibilité sous l’application de charges roulantes.

Voilà en tout cas qui laisse entrevoir, pour un avenir peut-être proche, des possibilités intéressantes de substitution de certains produits dérivés de l’exploitation pétrolière. A défaut de se passer de routes et de voitures, ce sont peut-être les cultures d’algues qui permettront un jour de trouver enfin un équilibre durable entre développement économique et pérennité de notre environnement naturel…

L.V.  

Publicités

Marseille enterre son passé celto-ligure

14 octobre 2017

Jean-Claude Gaudin en colère face à un journaliste d’Envoyé Spécial (source : capture écran © France2)

A Marseille, il est temps de faire table rase du passé. L’inamovible Jean-Claude Gaudin, 77 ans au compteur, vient enfin de se résoudre à quitter son poste de sénateur qu’il occupait depuis 24 ans, et ceci après avoir piqué une énorme colère face à un journaliste d’Envoyé Spécial venu l’interroger sur les petits chèques de 5000 € qu’il a touchés chaque trimestre pendant au moins 4 ans dans le cadre d’un système très organisé de détournement de fonds publics mis en place par une structure associative dénommée Union républicaine du Sénat. Finies donc les distributions trimestrielles de « chocolats » puisque la loi ne lui permet plus de cumuler cette sinécure sénatoriale avec ses fonctions de maire de la cité phocéenne et de président de la métropole Aix-Marseille-Provence.

Mais la ville s’apprête aussi à enterrer, au sens propre cette fois, certains vestiges de son illustre passé, en l’occurrence un ancien oppidum celto-ligure situé dans le quartier de Verduron, en limite nord de la ville, près de Saint-Antoine. Découvert fortuitement en 1905 par le sculpteur Sébastrien Clastrier qui est tombé sur un amoncellement de grosses pierres et de tessons de poteries en défrichant la propriété qu’il venait d’acquérir, ce site est classé monument historique depuis 2004 et a bénéficié de plusieurs campagnes de fouilles archéologiques entre 2000 et 2005.

Vestiges de l’oppidum de Verduron, sur les hauteurs de Marseille (source : Marsactu)

L’oppidum, qui daterait de la fin du IIIème siècle avant J.-C., est implanté sur un éperon rocheux qui culmine à 195 m d’altitude et domine la route menant de Marseille à la plaine de Marignane en passant par l’Estaque. Le site est ceinturé par un fossé et un mur d’enceinte bati en pierres, dont l’épaisseur à la base atteint 80 cm à 1 m. On pénétrait dans l’enceinte via une porte fortifiée située au sud-est, en partie basse, et le site lui même était traversé par une rue principale desservant 36 cases d’habitation dont on a retrouvé les vestiges. Au sommet se trouvent les restes d’un édifice carré divisé en quatre parties.

Cet habitat fortifié d’origine celto-ligure ne semble pas avoir été occupé pendant une très longue période et il a manifestement subi une destruction violente occasionnée par un siège militaire avec utilisation de catapultes, sans qu’on sache très bien si les agresseurs étaient des Grecs ou des Romains. Toujours est-il que l’édifice continue à se dégrader même longtemps après le départ de ceux qui l’ont jadis assiégé, si bien qu’en 2009 une étude scientifique avait préconisé d’en recouvrir les parties les plus vulnérables par une couche de sable afin de les protéger de l’érosion atmosphérique et du vandalisme.

Après réflexion, la Ville de Marseille a finalement annoncé, par la voix de l’adjoint au maire en charge du patrimoine, André Malrait, au cours d’une conférence de presse dont Marsactu s’est fait l’écho, que le site allait être entièrement recouvert et disparaîtrait ainsi des regards. Exit donc l’ex-oppidum de Verduron, en espérant que certains ne l’oublient pas totalement au point d’aller y construire un lotissement, ni vu ni connu, sur ce promontoire à la vue imprenable… Voilà au moins un monument historique dont les urbanistes marseillais n’auront plus à subir le poids des contraintes réglementaires induites !

Il existe certes de multiples autres oppidum de ce type dans toute la région, y compris tout près de Carnoux, sur la commune de Roquefort-La Bédoule, sans oublier naturellement celui d’Entremont, en limite sud du plateau de Puyricard, au nord d’Aix-en-Provence, là où se situait probablement l’ancienne capitale de la confédération des Celto-Ligures, prise en 123 avant J.-C. par les troupes du futur consul de Rome Caius Sextius Calvinus qui fondera au pied du plateau la ville d’Aquae Sextiae, la future Aix-en-Provence.

Vue partielle du site de l’oppidum d’Entremont (source © Archeopterre)

Les nombreux vestiges retrouvés sur ce site et visibles au musée Granet nous en apprennent un peu plus sur les mœurs de nos ancêtres locaux, ces Salyens de l’arrière-pays marseillais qui au IVème siècle avant J.-C. étaient en pleine expansion et avaient chassé les Grecs massaliotes de leur comptoir rhodanien qu’ils rebaptisent Arelate et qui deviendra la future Arles.

Mur d’enceinte du Baou de Saint-Marcel

Un autre site très réputé est celui du Baou de Saint-Marcel, situé dans ce quartier marseillais, au droit d’un rétrécissement de la vallée de l’Huveaune. Cet habitat protohistorique, qui s’étend sur 3 ha environ, présente à l’ouest une falaise rocheuse abrupte constituant une défense naturelle utilisée épisodiquement comme abri au Paléolithique alors que les autres versants en pente douce sont protégés par une enceinte en pierres, construite dès le deuxième quart du VIème siècle av. J.-C. Ce site montre des traces d’occupation quasi continue jusqu’à la deuxième moitié du IIème siècle avant J.-C. et de nombreux restes de poteries provenant principalement de Grèce et d’Etrurie y ont été découverts.

Citons aussi pour faire bonne mesure l’oppidum de La Cloche, situé sur la commune des Pennes-Mirabeau, en haut d’un promontoire rocheux offrant une vue imprenable sur les pistes de l’aéroport de Marignane et l’étang de Berre. On accédait jadis à ce site perché via une voie marqué de profondes ornières encore bien visible et qui passe désormais au dessus du tunnel ferroviaire du Rove dont le tracé est marqué par les cheminées d’aération.

Vue aérienne de l’oppidum de La Cloche (source : © Service régional de l’Archéologie DRAC-PACA)

La porte d’entrée qui permettait de pénétrer à l’intérieur du mur d’enceinte était surmonté d’une poutre à laquelle étaient cloués quelques crânes de guerriers ennemis, en guise de marque d’accueil. Edifié dans la première moitié du premier siècle avant notre ère et probablement détruit en 49 avant J.-C. par les armées romaines du général Trebonius, l’oppidum ressemble à un véritable village perché avec ses nombreuses maisons d’habitation serrées les unes contre les autres et étagées selon la topographie du promontoire rocheux.

Bien d’autres sites archéologiques datant de cette époque salyenne d’avant la conquête romaine pourraient être évoqués ici, qui témoignent s’il en était besoin de la richesse de l’histoire ancienne de cette région. Certains pourraient en être fiers et chercher à mettre en valeur ce patrimoine protohistorique singulier. D’autres préfèrent tout simplement les enterrer à jamais…

L.V.  

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Au Cameroun, des bouteilles à la mer…

28 septembre 2017

Alors que tous les médias sont focalisés sur les inondations récentes qui se sont produites dans le sud des États-Unis et aux Antilles suite au passage des derniers cyclones Harvey puis Irma, on aurait presque tendance à oublier que bien d’autres régions du monde ont été meurtries récemment par des événements climatiques tout aussi spectaculaires. Fin août 2017, on estime ainsi que plus de 1500 personnes ont péri du fait des inondations consécutives à la mousson en Asie du Sud-Est, principalement en Inde, au Népal, au Bengladesh et au Pakistan.

Inondations à Freetown, Sierra Leone, en août 2017 (photo © Jamie Hitchen / Twitter)

Mais l’Afrique est aussi régulièrement touchée par les inondations. Cet été, c’est notamment le Sierra Leone qui a été cruellement frappé par de terribles inondations qui ont dévasté plusieurs quartiers de la capitale Freetown où un bilan provisoire établi par la Croix-Rouge faisait état, mi-août, d’au moins 312 victimes recensées tandis que de spectaculaires coulées de boues ravageaient tout sur leur passage, éventrant de nombreuses maisons et ensevelissant des dizaines de personnes.

Le Cameroun fait partie de ces pays de l’Afrique subtropicale régulièrement touché par les fortes pluies qui s’abattent en été. Le 14 septembre dernier, le site Cameroon-info, faisait ainsi état de graves inondations qui paralysent la capitale Douala après trois jours de pluies particulièrement intenses tombant sans discontinuer, tandis que le 11 septembre, la ville de Yaoundé avait déjà essuyé des inondations dévastatrices.

C’est à l’occasion d’un tel déluge qu’un jeune étudiant camerounais avait constaté, en 2011, que son quartier pouvait être envahi en moins de 30 minutes, non seulement par des eaux plus ou moins chargées, mais surtout par une véritable marée de bouteilles en plastique ! Jetées partout dans les rues et sur les dépotoirs, les bouteilles en plastique sont en effet remobilisées dès que les flots se déversent dans la ville et viennent s’accumuler dans les points bas.

Face à une telle invasion, le jeune Ismaël Essome s’est lancé le défi de trouver des débouchés à toutes ces bouteilles en plastique indésirables. Une fois obtenu son diplôme d’ingénieur en gestion environnementale, et alors qu’il travaille pour une ONG internationale à la mise en valeur du littoral camerounais, il se met en tête d’essayer de construire des pirogues en assemblant des centaines de bouteilles en plastique.

En 2014, le gouvernement camerounais a pourtant pris la décision courageuse d’interdire les emballages non biodégradables sur l’ensemble du territoire : dorénavant, les producteurs et distributeurs de liquides vendus dans des bouteilles en plastique doivent assurer leur recyclage après usage. Pourtant, force est de constater que, trois ans plus tard, des millions de bouteilles encombrent toujours les villes du pays et s’amassent dans tous les cours d’eau et fossés de drainage.

Démonstration de navigation avec une pirogue (crédit photo © Madiba et Nature)

En août 2016, comme le raconte Le Monde Afrique, et après moult essais, Ismaël Essome réussit à construire une première pirogue constituée d’un millier de bouteilles en plastique de récupération, soigneusement rebouchées, et attachées entre elles par un lien en nylon. Deux planches forment l’ossature de la pirogue et vogue la galère…

Pour piloter ce projet un peu fou, Ismaël a fondé sa propre association, dénommée Madiba et Nature, destinée à promouvoir de manière très pragmatique la préservation de l’environnement et l’économie circulaire. Aidé de son neveu, il sillonne les rues pour collecter les bouteilles usagées et améliore sans cesse la structure de ses pirogues en plastique qu’il teste sur les plages pour démontrer aux pêcheurs professionnels leur efficacité.

Une pirogue ainsi assemblée peut transporter jusqu’à trois personnes et une charge de 90 kg. Elle est plus stable qu’une pirogue en bois traditionnelle, coûte deux à trois fois moins cher et s’avère plus durable car, contrairement au bois, le plastique met très longtemps à se dégrader. Sans compter que leur construction, non seulement ne contribue pas à la déforestation du pays mais participe au contraire à assainir l’environnement de ces déchets qui l’encombrent.

Une fois son prototype au point, le jeune Camerounais a formé une équipe de cinq personnes et fait appel à des volontaires, ce qui lui a permis de construire six pirogues en un an, qu’il utilise pour faire des démonstrations et convaincre les acheteurs potentiels. Il a déjà enregistré une cinquantaine de commandes destinées à la pêche artisanale et à l’écotourisme.

Les pirogues écologiques d’Ismaël Essome sur la plage de Londji, au Cameroun (crédit photo © Josiane Kouagheu)

Ainsi, à Londji, petit village de pêcheurs situé près de Kribi, dans une zone côtière touristique du Sud-Cameroun réputée pour ses plages de sable fin et ses mangroves, le président de la coopérative tente de monter, avec l’aide d’Ismaël Essome, un projet de centre d’accueil pour le moins original : les touristes y seront hébergés dans des cases construites à l’aide de bouteilles en plastique recyclées et ils pourront déguster du poisson pêché avec les pirogues conçues par Madiba et Nature : une vraie success story à la Camerounaise…

L.V. 

Le feu de Carnoux vu de l’espace…

17 septembre 2017

Le 19 août dernier, l’incendie qui a ravagé le versant boisé situé entre Aubagne et Carnoux, menaçant gravement plusieurs maisons situées en limite nord de Carnoux, le long de l’avenue Jean Bart, a laissé de sinistres traces. Plusieurs centaines d’hectares d’espaces boisés et de garrigues sont partis en fumée, laissant un paysage noirci de cendres et d’arbres calcinés qui rappellera pour de longs mois le souvenir de cet événement. Trois semaines plus tard, lorsque les premières grosses pluies de la saison se sont abattues sur Carnoux, la forte odeur de brûlé a brutalement envahi toute la ville, comme un ultime rappel du sinistre qui a bien failli transformer toute la ville en un gigantesque brasier…

Zones brûlées sur les hauteurs de Carnoux (photo prise le 27 août 2017)

Il suffit de se promener sur les hauteurs de Carnoux comme chacun ou presque l’a fait depuis cette date pour observer les ravages du feu. Mais lorsqu’on prend un peu de hauteur, l’effet est d’autant plus saisissant. Un des outils permettant une telle observation est la famille de satellites Sentinel, qui constituent le volet spatial du programme Copernicus initié par l’Union européenne. Le déploiement de cette batterie de satellites européens, commencé il y a maintenant une dizaine d’années, est encore en cours mais plusieurs satellites sont d’ores et déjà opérationnels.

Le premier, Sentinel-1A, avait été lancé de Kourou le 3 avril 2014 et a bien failli exploser en vol avant même de pouvoir déployer ses capteurs, tout ça à cause d’un banal accident de la circulation. Heureusement, les opérateurs de l’agence spatial européenne avaient alors réussi, grâce à un léger coup d’accélérateur bien placé, à éviter de justesse le satellite américain Acrimsat, qui passait malencontreusement par là au mauvais moment. Les routes de l’espace sont plus dangereuses qu’on ne le croit…

Vue du satellite Sentinel 2 (source © ESA/ATG medialab)

Depuis, d’autres satellites ont été déployés : le petit frère, Sentinel-1B, en avril 2016, mais aussi les deux sœurs jumelles Sentinel-2A, lancé le 23 juin 2015 par Véga depuis Kourou et Sentinel-2B, qui vient de s’envoler depuis Baïkonour le 7 mars 2017, propulsé par le lanceur russe Rockot. Ce sont ces deux derniers satellites qui nous intéressent tout particulièrement car ils disposent de 13 bandes spectrales allant du visible au moyen infra-rouge et permettant de prendre des clichés avec une résolution de 10 à 60 m. A eux deux, ils permettent de couvrir la quasi totalité des terres émergées avec des prises de vues espacées de 5 jours seulement, ce qui en fait des mouchards particulièrement efficaces.

Les clichés pris dans l’infra-rouge sont surtout utiles pour analyser l’occupation des sols car cette technique permet notamment de mettre en évidence certaines distinctions qui n’apparaissent pas aussi clairement dans le spectre visible. Elle permet en particulier de détecter des différences de température mais aussi d’humidité des sols, de couvert végétal et bien d’autres éléments très utiles notamment dans l’agriculture et le suivi des catastrophes naturelles.

Vue satellite de l’incendie du 19 août entre Aubagne et Carnoux (7 septembre 2017 – source © Sentinel hub)

Une partie des données issues de ces observations satellitaires étant en libre accès sur l’application Sentinel hub, il est assez aisé de rechercher, via un outil de visualisation ouvert à tous, des images d’archives prises par Sentinel 2. Celle du 7 septembre 2107 ne manque pas d’intérêt puisque prise quelques jours seulement après l’incendie qui est venu lécher la commune de Carnoux. Le cliché est assez spectaculaire car la restitution via l’exploitation de plusieurs canaux infrarouges met parfaitement en évidence les surfaces brûlées. On y décèle clairement le point de départ de l’incendie et sa propagation jusqu’aux portes de Carnoux, ainsi que les coupe-feux qui ont permis aux pompiers d’en stopper la progression.

Les plus curieux (et bien entendu les Varois) seront naturellement enclins à déplacer le curseur vers la droite de la carte, ce qui permet de mettre en évidence les foyers qui se sont déclarés cet été dans le département voisin qui a, cette année, payé un très lourd tribut avec 3 660 hectares de forêts ravagées par le feu en juillet-août 2017.

Vue satellite des deux incendies du 25 juillet et du 2 septembre aux alentours de La Londe-les-Maures, dans le Var (14 septembre 2017 – source © Sentinel hub)

 On y repère notamment les trois plus importants d’entre eux qui ont eu lieu le 24 juillet à la Croix-Valmer (518 ha) et à Artigues (1 704 ha) et le 25 juillet entre La Londe–les-Maures et Bormes-les-Mimosas (1 418 ha), suivi d’un autre qui s’est déclaré le 2 septembre entre Hyères et La Londe (460 ha). On est loin des chiffres de l’année 2003 où près de 19 000 hectares étaient partis en fumée dans le seul département du Var, causant la mort de 3 pompiers et de 4 autres personnes, mais ce nouvel été meurtier vient rappeler, si besoin était, à quel point les espaces méditerranéens sont vulnérables aux feux de forêt.

Vue satellite de l’incendie du 11 août dans le Cap Corse (30 août 2017 – source © Sentinel hub)

Et si l’on prend la peine de se décaler un peu vers le sud-est jusqu’aux rivages corses, la photo satellite met en évidence d’autres zones calcinées, en particulier au droit du cap Corse. Une tâche noirâtre barre entre Pietracorbara et Sisco toute la largeur de ce que certains irrévérencieux ont comparé à un doigt d’honneur tendu vers la métropole : c’est la signature de l’incendie qui s’est déclenché près de Nonza, sur la côte ouest, dans la nuit du 10 au 11 août 2017 et qui a traversé le cap Corse dans toute sa largeur, brûlant au passage plus de 2000 ha de forêts et de maquis, et obligeant à évacuer pas moins d’un millier de personnes.

Un autre incendie est particulièrement visible sur ces images satellite et montre à quel point les habitations situés en lisière de zone boisée peuvent être exposées : il s’agit de celui d’Olmeta-di-Tuda qui a parcouru de l’ordre de 2200 ha entre le 24 et le 29 juillet et a été arrêté in extremis en bordure des lotissements de la zone très urbanisée de Biguglia, au sud de Bastia.

Vue satellite de l’incendie du 24 juillet au sud de Bastia (30 août 2017 – source © Sentinel hub)

De nombreuses autres images tout aussi spectaculaires sont visibles sur ce site, envoyées depuis l’espace par les satellites Sentinel, dont celles des récents cyclones qui ont ravagé les Antilles et le sud des États-Unis, venant opportunément nous rappeler à quel point les aménagements faits par l’Homme sont vulnérables face aux éléments naturels…

L.V.  

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Le futur téléphérique de Marseille

5 septembre 2017

Alors que la Région PACA dépense des millions pour équiper en canons à neige la station de ski de Super Sauze, si chère à son ancien Président Christian Estrosi, et si coûteuse pour ses malheureux électeurs contribuables, voilà que le maire de Marseille, Jean-Claude Gaudin, se prend à rêver d’installer un téléphérique pour monter à la Bonne Mère depuis le Vieux-Port, et ce n’est pas une galéjade…

Un skieur devant la basilique Notre-Dame de la Garde à Marseille le 7 janvier 2009 (Photo Jean-Paul Pélissier / Reuters)

Il est vrai qu’en janvier 2009 les chutes de neige qui avaient paralysé pour quelques heures la capitale phocéenne avaient démontré l’excellente qualité du domaine skiable qui s’étend sur les pentes de la colline de Notre-Dame de la Garde, laquelle culmine tout de même, rappelons-le, à 162 m d’altitude. De quoi donner des envies d’aménager des remontées mécaniques depuis le Vieux-Port situé en contrebas.

Soyons honnête, l’idée de la Ville de Marseille, portée par l’adjoint délégué aux grands projets et par ailleurs vice-président de la Métropole, Gérard Chenoz, n’est pas de développer les sports d’hiver à Marseille. Son objectif est simplement d’installer une liaison par téléphérique pour faciliter la desserte touristique de ce site qui reçoit chaque année 1,8 millions de visiteurs en moyenne. Pour un coût estimé à 15 millions d’euros en première approche, la liaison entre le Vieux Port et la basilique ne prendrait en effet que 6 minutes en survolant allègrement la zone urbanisée.

Les voies d’accès à la basilique étant largement saturées et peu adaptées à la circulation routière, l’idée d’une liaison par câble est en effet séduisante. Elle n’est d’ailleurs pas nouvelle et a même été mise en pratique sous une forme un peu différente il y a plus d’un siècle.

L’ancien ascenseur de Notre-Dame de la Garde, qui a pu transporter jusqu’à 15 000 personnes par jour, avait en effet été mis en service en 1892. Conçu par l’ingénieur Emile Maslin l’ascenseur avait été édifié à l’emplacement d’une ancienne carrière, sur l’autre versant de la colline et permettait de rallier la Bonne Mère via une passerelle métallique de 80 m de longueur, construite par la société Eiffel.

L’ancien ascenseur qui permettait d’accéder à Notre-Dame de la Garde jusqu’en 1967

Le système d’ascenseur lui-même était particulièrement simple et ingénieux puisque constitué de deux cabines en bois guidées par deux rails et une crémaillère équipée d’un câble. Chaque cabine était surmontée d’un réservoir de 6000 l d’eau. Pendant que la cabine du bas se vidait, celle du haut se remplissait à l’aide d’un réservoir situé sur la passerelle, s’alourdissant jusqu’à descendre la rampe de 72 m de dénivelée, freinée dans sa chute par le poids de la cabine ascendante, et ceci sans autre source d’énergie que les pompes permettant de remplir périodiquement le réservoir du haut.

Un dispositif rustique (et particulièrement bruyant !) qui a fonctionné sans encombres pendant 75 ans, jusqu’en 1967, période à laquelle la concurrence de l’automobile, devenue trop rude, finit par l’emporter. Le système sera finalement démonté en 1974, emporté par le vent de modernité qui souffle à cette époque… Et voilà que, comme pour les anciens tramways, on cherche désormais à reconstituer une forme de transport qui prenne à son tour la place de la voiture dont on ne mesure maintenant que trop les désagréments en site urbain dense.

L’idée du téléphérique fait partie des promesses de campagne de Jean-Claude Gaudin et a fait l’objet d’une première étude de faisabilité dès 2014 en vue d’obtenir des financements de la part de l’Etat. Ce dernier a néanmoins fait la sourde oreille et préféré soutenir le projet de prolongement du tramway, également mis à l’étude.

Le tracé provisoire envisagé pour le futur téléphérique (source © Made in Marseille)

Qu’à cela ne tienne, la municipalité revient à la charge avec un projet plus modeste qui se limite à une simple liaison, sur une longueur d’environ 1 km, entre le Fort d’Entrecasteaux et Notre-Dame de la Garde. Le projet a été adopté par le Conseil municipal le 5 décembre 2016, permettant de débloquer une nouvelle enveloppe de 1 million d’euros pour relancer ces études de faisabilité. Un appel d’offre vient ainsi d’être lancé au cours de l’été, afin de sélectionner un assistant à maîtrise d’ouvrage chargé d’épauler la collectivité, d’abord dans le montage administratif, juridique et technique du dossier puis dans la sélection du constructeur et éventuellement dans le suivi des travaux, si d’aventure le projet va jusqu’à son terme, l’objectif visé étant une mise en service en 2020.

Le téléphérique du Mont Faron à Toulon (photo © RB / Var Matin)

A priori, l’idée paraît séduisante et de nombreuses autres villes se sont déjà dotées de ce type de transport urbain particulièrement adapté pour les zones à fort dénivelée. Celui du Mont Faron mis en service à Toulon en 1959, ou encore celui de la Bastille à Grenoble, qui fonctionne depuis 1934, confirment, s’il en était besoin, la fiabilité de ce type d’installation.

Le téléphérique de Brest, inauguré le 19 novembre 2016 par Ségolène Royal et souvent en panne depuis…

Celui qui a été inauguré à Brest en novembre 2016, pour relier les deux rives de la Penfeld et desservir le nouveau quartier des Capucins, a en revanche connu quelques déboires retentissants. L’ouverture intempestif de la porte d’une des cabines et de multiples défaillances de capteurs l’ont obligé à un arrêt technique pendant un mois juste après sa mise en service. Quelques jours seulement après son redémarrage, il a subi une panne informatique puis de nouveau des problèmes liés au déclenchement d’une alarme, de quoi pimenter quelque peu le trajet quotidien de la soixantaine de voyageurs qui peuvent s’entasser dans sa cabine.

La carrière antique de la Corderie, actuellement menacée par les tractopelles de Vinci (photo publiée par la Marseillaise)

Il n’en reste pas moins que le site de Notre-Dame de la Garde n’est pas forcément si simple à équiper et les contraintes sont multiples, à commencer par le Mistral qui rend le dispositif inexploitable lorsque la vitesse des rafales dépasse les 100 km/h, n’en déplaise aux amateurs de sensations fortes. Le survol de zones habitées peut également déplaire aux riverains, bien que la loi en la matière se soit récemment assouplie et qu’il existe désormais des techniques permettant de voiler temporairement les vitrages dans les zones sensibles. Et ceci sans parler des contraintes réglementaires car les 15 hectares de la colline de Notre-Dame de la Garde sont classés depuis 1917, tandis que le Vieux Port l’est depuis 1932 et qu’un arrêté de classement se fait attendre pour la carrière antique de la Corderie.

Pas sûr cependant que tout ceci n’arrête un Jean-Claude Gaudin qui, après s’être accroché pendant plus de 22 ans à son siège de maire, tient désormais fermement à son télésiège vers la Bonne Mère…

L.V.

Un nouveau château en Espagne

28 août 2017

L’architecte américano-canadien Franck Gehry fait assurément partie de ces starchitectes dont l’oeuvre ne laisse pas indifférent. Concepteur notamment du musée Guggenheim à Bilbao, de la Fondation Louis Vuitton à Paris, de la maison dansante à Prague ou encore de la tour de la fondation Luma en cours de construction à Arles, ses œuvres sont tout sauf classiques. Défiant les lois de la pesanteur, les bâtiments qu’il conçoit, parfois en s’inspirant simplement d’une boule de papier froissé, semblent totalement déstructurés, déformés, bancals et pour tout dire complètement loufoques, bousculant tous les principes architecturaux les plus solidement établis.

Vue d’ensemble de la Bodega Marqués de Riscal (source : Hotel Marqués de Riscal)

Parmi ces chantiers, il en est un qui retient particulièrement l’attention. C’est celui de l’hôtel de luxe édifié en 2006 sur une propriété viticole espagnole, Marqués de Riscal. Située à proximité de la ville médiévale d’Elciego, dans la vallée de l’Ebre, à mi-chemin entre Burgos et Pampelune, ce vignoble est aussi ancien que réputé. Fondée en 1860 par Camilo Hurtado de Amézaga, marquis de Riscal, un aristocrate acquis aux idées libérales et empreint de culture française, la maison Herederos del marqués de Riscal est désormais à la tête d’un domaine qui s’étend sur pas moins de 1500 ha avec des vignes en terrasses cultivées de manière extensive et surplombant la vallée de l’Ebre.

La bodega et les vignobles à proximité du village d’Elciego

Une partie des 180000 bouteilles stockées dans les chais

Une partie des caves date de 1858 et leur extension a été réalisée en 1883. Depuis, la marque est devenue un géant du vin espagnol de la Rioja, avec plus de 5 millions de bouteilles vendues annuellement, dont 70 % à l’export, et a même racheté, en 2010, 350 ha de vignobles à l’un de ses concurrents, le Français Pernod Ricard. Ici, on n’est plus dans le monde artisanal des vignerons à l’ancienne…

Mais le génie commercial de cette véritable entreprise viticole qu’est devenu le domaine Marqués de Riscal réside dans l’investissement hôtelier très haut de gamme conçu il y a maintenant plus de 10 ans pour attirer sur la propriété une clientèle aisée autour d’une véritable Cité du vin, vaste lieu d’accueil thématique de quelque 100 000 m2 consacré à l’élaboration, au soin et à l’étude du vin, entouré d’un complexe hôtelier luxueux assorti de salles de réception et de réunions.

Et c’est là que la patte de l’architecte Franck Gehry a su donner toute l’originalité qu’il fallait pour que cet immense complexe hôtelier et touristique perdu au milieu des vignes, dans un cadre enchanteur avec le village médiéval d’Elciego en arrière plan, devienne un site d’attaction proprement extraordinaire du fait de sa conception pour le moins originale. Il faut dire que si le projet date de 1998, il a fallu du temps, et de nombreuses dégustations de Rioja, pour convaincre l’architecte Franck Gehry, de s’engager dans la conception de cette bodega atypique, mais le résultat vaut le détour !

Les rubans en titane (source : Hôtel Marqués de Riscal)

Le bâtiment lui-même évoque vaguement une forme de cep de vigne avec ses piliers évasés vers le ciel qui supportent des éléments de forme cubiques disposés de manière apparemment très anarchique, avec de grandes ouvertures d’orientation variée. Le tout est enveloppé et surmonté de volutes enrubannées métalliques servant de pare-soleil, en acier inoxydable et titane, dans les tons rose, or et argent, sensé évoquer les teintes du vin, des capsules et de la maille dorée qui orne les bouteilles de la propriété. Vu de loin et en fonction des reflets de la lumière, l’effet est saisissant de voir ces rubans métalliques émerger au dessus des rangées de vignes, tels un paquet cadeau abandonné au milieu des ceps…

Des façades qui se marient avec celles des bâtiments anciens (source : Hôtel Marqués de Riscal)

Les façades sont en pierre, taillées dans le grès local, ce qui leur donne une certaine parenté avec celles des bâtiments historiques tout proches. Quant à l’aménagement intérieur, il est à l’avenant, de nombreux éléments ayant été dessinés par l’architecte lui-même. On y compte 43 chambres et suites luxueuses, accessibles pour la somme modique de 310 € la nuit pour les plus modestes d’entre elles, jusqu’à 800 € pour ceux qui ne comptent pas bouder leur plaisir en regardant à la dépense…

Une des 43 chambres de l’établissement (source : Hôtel Marqués de Riscal)

Le lieu, qui accueille désormais 70 000 visiteurs chaque année, dispose de surcroît de deux restaurants dont l’un tenu par un chef étoilé, de nombreuses salles de réunion et de réception, y compris pour ceux qui veulent s’y marier en grandes pompes, et bien entendu d’un spa luxueux où l’on pratique notamment la vinothérapie qui consiste en un bain dans une barrique en bois remplie d’un mélange à base de marc de raisin…

Le spa de l’hôtel (source : Hôtel Marqués de Riscal)

Destiné manifestement à une clientèle huppée et capable de dépenser sans compter, ce type d’établissement ne laisse cependant pas indifférent du fait de son architecture pour le moins originale, dont la conception a nécessité des études numériques poussées en trois dimensions et même des essais en soufflerie pour vérifier que les volutes en titane n’allaient pas s’envoler à la moindre brise. Quant à la réalisation d’une construction aussi biscornue, dont le coût reste tenu secret, on n’ose même pas imaginer le dialogue au jour le jour entre son concepteur et les entreprises en charge de concrétiser sur le chantier un projet aussi audacieux…

L.V.  

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Gardanne valorise ses friches minières

22 août 2017

La ville de Gardanne fait partie de ces terroirs durablement marqués par l’extraction minière. Dès le 18e siècle, de nombreux habitants de la région s’adonnaient à l’exploitation du charbon de terre pour pallier la rareté du bois de chauffage. Au début du 19e siècle, on compte ainsi déjà plus de 80 puits de mines en activité et sans doute 200 déjà abandonnés.

L’arrivée du chemin de fer accélère le mouvement et les années 1880-90 voient à la fois le creusement du premier puits de mine moderne au coeur de la cité minière de Biver, et l’installation de l’usine Péchiney d’alumine, qui profite du lignite de Gardanne et de la bauxite extraite dans le bassin minier varois tout proche. C’est cette même usine qui sera à l’origine des rejets en mer de boues rouges dans les années 1960 et qui défraie toujours la chronique sous son nouveau nom d’Alteo. Après la deuxième guerre mondiale, enfin, est édifiée la centrale thermique de Meyreuil, alimentée par le lignite dont l’extraction bat alors son plein à Gardanne.

Mais tout cycle minier a une fin. L’exploitation du lignite de Gardanne stagne à partir des années 1960. Soutenue artificiellement pour des raisons politiques, la production s’effondre à partir des années 1990 et le dernier puits ferme en 2003. Alors que l’industrie minière employait jusqu’à 6500 personnes au début des années 1950, à une période où le site attirait une forte population de travailleurs immigrés, et encore autour de 2000 après la relance de l’activité impulsée en 1981, il ne restait plus que 600 à 700 mineurs encore employés au moment de la fermeture du dernier site.

Depuis, la ville de Gardanne s’efforce de retrouver un nouveau souffle, à l’image du bassin d’emploi voisin, qui s’étend sur les communes de Peynier, Fuveau et Rousset, où s’est développée depuis les années 1960 une activité industrielle florissante axée sur la micro-électronique. L’histoire de cette zone d’activité est d’ailleurs très intéressante car liée étroitement au déclin de l’extraction minière comme l’a bien analysé Olivier Lambert, professeur à l’université d’Aix-Marseille et spécialiste de l’histoire industrielle locale.

Zone industrielle de Peynier-Rousset vue d’avion (source : Pays d’Aix développement)

Cette zone industrielle de Peynier-Rousset, créée en 1961, est en effet située dans le même bassin minier que Gardanne, situé à une quinzaine de km seulement. Les premiers puits pour l’exploitation du lignite y ont été creusés à partir de 1912 et une usine de production d’alumine y est construite à partir de 1917 par les Norvégiens de la Norsk Aluminium Company qui ont bien repéré l’intérêt des lieux, situés à proximité des futures mines de lignite en cours d’aménagement, de la vallée de l’Arc, source d’eau abondante, et de la voie ferrée Carnoules-Gardanne, pourvoyeuse de la bauxite varoise.

Mais en décembre 1918, alors que le creusement des puits atteint 425 m de profondeur, l’eau de la nappe s’engouffre brusquement dans les travaux miniers et ruine définitivement toute velléité d’exploitation houillère. Echaudés par cet échec industriel, les Norvégiens se retirent également. De nouveaux projets industriels sont bien relancés dans les années 1940 pour valoriser l’usine d’alumine en vue de produire des carburants de synthèse puis du gaz de ville, mais sans succès et en 1949, l’ensemble des terrains et des bâtiments est racheté par les Houillères du bassin de Provence, issues de la nationalisation des mines de charbon décidée à la Libération.

Ce sont donc les Houillères qui seront à l’origine de la création de la zone industrielle de Peynier-Rousset, la première des Bouches-du-Rhône, en 1961, déjà dans une perspective de reconversion pour pallier la baisse d’activité inéluctable de l’extraction du lignite de Gardanne. Fortement aidée à coup de subventions publiques et malgré certaines implantations durables comme celle de Volvic qui y produit son jus de fruit Oasis avec l’eau du puits de l’Arc, la zone industrielle vivote pendant une vingtaine d’années, tenue à bout de bras par les Houillères.

En 1979, la zone industrielle prend enfin son essor avec l’arrivée d’Eurotechnique, issu d’une association entre les Américains de National Semiconductor et le Français Saint-Gobain. La première usine de fabrication de puces électroniques au silicium est construite à Rousset. Elle passera en 1983 dans le giron de Thomson avant de rejoindre en 1987 SGS-Thomson, une nouvelle société franco-italienne de semi-conducteurs qui prendra plus tard son nom actuel de STMicroelectronics.

Effectifs des Houillères et de la zone industrielle de Rousset entre 1945 et 2010 (source : O. Lambert / revue Rives, 2013)

Depuis, ce site est devenu un pôle d’activités prospère tourné vers la microélectronique et les nouvelles technologies, qui employait en 2013 de l’ordre de 7000 personnes, soit davantage que l’industrie minière de Gardanne à son apogée, sans pour autant qu’il s’agisse d’une véritable reconversion industrielle même si le contexte politico-économique mis en place par l’action des Houillères et les nombreuses aides publiques à la reconversion de cet ex-bassin minier ont fortement contribué à ce succès.

Centre Georges Charpak à Gardanne (source : Ville de Gardanne)

Nul doute en tout cas que la ville de Gardanne souhaite manifestement s’inspirer de cet exemple pour assurer l’avenir de ses propres friches minières. L’inauguration en 2008 du centre de microélectronique Georges Charpak, rattaché à l’école des mines de Saint-Étienne, sur un campus de 6 ha, partie prenante du pôle de compétitivité « Solutions communicantes innovantes », illustre bien cette volonté de s’inscrire dans un environnement technologique en pleine évolution.

Centrale thermique de Meyreuil

En parallèle, la centrale thermique à charbon de Meyreuil, d’abord détenue par une filiale de Charbonnage de France, et désormais dans les mains de l’énergéticien allemand Uniper, tente une conversion difficile d’une des deux unités vers une centrale à biomasse. Le projet, lancé en 2103 et pour lequel ont déjà été investis 250 millions d’euros, devrait permettre à terme de brûler 850 000 t de bois chaque année, issus pour moitié de déchets et pour moitié de coupes de bois. C’est cependant ce dernier point qui inquiète fortement les associations locales de défense de l’environnement puisque cela reviendrait à prélever un tiers du gisement forestier disponible dans un rayon de 250 km… Le Tribunal administratif de Marseille a d’ailleurs annulé, le 8 juin dernier, l’autorisation d’exploitation accordée à la centrale !

Quant aux anciennes installations minières elles-mêmes, la ville tente de les valoriser après avoir racheté en 2006 les emprises du puits Morandat et du puits Z. Les puits ont été au préalable mis en sécurité et obturés en tête par des dalles en béton armé très épaisses pour éviter tout risque d’effondrement. La SEMAG (Société mixte d’aménagement de Gardanne) est ainsi à l’oeuvre pour réaménager les 14 ha de la future zone d’activité qui sera développée autour du puits Morandat, avec pour objectif l’implantations d’entreprises innovantes et de PME axées vers l’économie sociale et solidaire, permettant de générer près d’un millier d’emplois selon les prévisions les plus optimistes.

L’ancien hall des mineurs accueille d’ores et déjà une pépinière d’entreprises tandis que le bâtiment du Parc héberge l’unité territoriale après-mine créée par le BRGM et Charbonages de France pour gérer la mise en sécurité des anciennes mines dans le tiers sud-est de la France.

Le chevalement de l’ancien puits Morandat (source : Ville de Gardanne)

Les travaux de viabilisation ont déjà été lancés en vue d »aménager les premières tranches destinées à l’accueil d’entreprises. Il est notamment prévu la fourniture de chaleur via un réseau qui exploite le gisement géothermique des anciennes galeries minières désormais ennoyées. Une société spécifique, dénommée Énergie solidaire, a été créée pour cela, via une association entre la SEMAG et Dalkia EDF. Elle prévoit un investissement de 4 millions d’euros, la moitié de l’électricité nécessaire pour faire fonctionner la station de pompage étant issue de panneaux photovoltaïques.

Le chevalement du puits Morandat pourrait, quant à lui, être reconverti en un restaurant panoramique tandis que l’ancien vestiaire des mineurs devrait accueillir d’ici 2022 un centre de culture scientifique et technique imaginé dans l’esprit de la Cité des sciences de la Villette à Paris. Bref, les projets ne manquent pas à Gardanne pour valoriser ces anciennes friches minières, sans totalement tourner le dos à un passé dont la ville continue à s’enorgueillir.

L.V.  

Monaco gagne (encore) sur la mer…

31 juillet 2017

Dans la principauté de Monaco, minuscule confetti enclavé sur le territoire français pour des raisons historiques, la conquête de l’espace est une préoccupation constante. Avec une superficie totale qui ne dépasse pas 2 km2, (202 hectares très précisément, nettement moins donc que la commune de Carnoux qui s’étend, mine de rien, sur 345 ha !) c’est le deuxième plus petit État indépendant au monde (derrière le Vatican). Sauf que la population qui s’entasse sur cet espace ridicule s’élève à 38 500 habitants au dernier recensement de 2016, soit une des densités les plus fortes du monde avec plus de 18 000 habitants au km2.

Sommet de la Tour Odéon à Monaco

Pas étonnant que dans ces conditions, le prix du foncier atteigne des sommets vertigineux, plaçant Monaco en tête du classement mondial des villes où se loger coûte le plus cher. A Monaco, un bel appartement se négocie autour de 45 000 € le m2. C’est en moyenne 15 % de plus qu’à Hong Kong et 40 % plus cher qu’à Londres, plus du double de Paris où le prix de l’immobilier de luxe oscille autour de 20 000 € le m2, une misère… Achevée en 2015, la double tour Odéon qui s’élève à 170 m de hauteur dans le quartier de l’Annonciade, a vu ses appartements se négocier autour de 55 000 à 70 000 € le m2. Quant au penthouse qui s’étend au sommet de la tour sur 3 300 m2 répartis sur 5 niveaux, avec piscine à toboggan, fitness et vue plongeante sur la mer, il peut s’enorgueillir d’être à ce jour l’appartement le plus cher du monde, vendu pour la modique somme de 300 millions d’euros, soit un prix de revient de 91 000 € le m2.

Dans un tel contexte, chaque mètre carré compte et la solution la plus simple pour ce territoire côtier, à défaut de pouvoir se lancer dans des guerres de colonisation d’un autre âge, est d’empiéter toujours davantage sur le domaine maritime. Dès 1865, un premier remblai a ainsi été réalisé pour y permettre le passage de la voie ferrée, rapidement suivi par la construction du quartier industriel de Fontvielle gagné sur la mer sur une surface de 5,5 ha. Depuis, les Monégasques ne s’arrêtent plus et repoussent sans cesse la ligne de rivage. Ces dernières années, ce sont ainsi plus de 40 hectares qui ont été gagnés sur la mer, permettant d’agrandir toujours plus le terrain disponible pour de nouvelles constructions. Même le stade Louis II de l’AS Monaco a été construit sur la mer…

Photomontage du futur quartier en construction (© Valode et Pistre)

Et ce n’est pas fini puisqu’un nouveau chantier a été lancé fin 2016. Il s’agit cette fois de construire une nouvelle plateforme de 6 hectares gagnée sur l’eau dans l’Anse du Portier, dans le prolongement du Grimaldi forum. Un chantier totalement pharaonique qui coûtera 2 milliards d’euros mais pour lequel le gouvernement de la principauté ne déboursera pas un centime puisque ce sont les entreprises, au premier rang desquelles Bouygues Construction, qui avancent l’argent en espérant bien se faire largement payer en retour par la vente des 60 000 m2 de logements ainsi construits.

Maquette du nouveau quartier d’habitation (capture video © Valode et Pistre)

Bien entendu, il s’agit d’immeubles de haut standing, labellisés écoquartier, avec panneaux solaires et climatisation par pompes à chaleur alimentées à l’eau de mer, disséminés au milieu d’un parc arboré de 1 ha, avec parkings, équipements publics, port de plaisance d’une trentaine d’anneaux, 3 000 m2 de commerces et promenade littorale. Un éden pour milliardaires, dont l’architecture a été conçue par le célèbre architecte Renzo Piano.

Nacre Nobilis, plus grand coquillage de Méditerranée (photo © David Luquet)

Pour bâtir une telle infrastructure dans des fonds marins dont la profondeur atteint jusqu’à 50 m et qui s’étendent entre deux zones naturelles, la réserve du Larvotto et le tombant des Spélugues, une préparation s’impose, qui consiste notamment à transplanter les posidonies et à évacuer les nacres géantes qui peuplent ces fonds sous-marins autrefois d’une grande richesse. Ces travaux préparatoires ont déjà eu lieu, à l’automne 2016, sans émouvoir grand monde tant les Monégasques se moquent comme d’une guigne de la qualité de leurs fonds marins, sur une partie du littoral où près de 90 % des fonds entre 0 et 8 m de profondeur ont d’ores et déjà été détruits, selon un biologiste niçois.

Place désormais aux travaux de génie civil maritime ! Ils ont débuté en avril 2017, pilotés par l’entreprise belge Jean de Nul. La première étape a consisté à déposer 30 000 m3 d’enrochement qui seront stockés, nettoyés puis réutilisés. Le chantier est maintenant entré dans sa deuxième phase qui consiste à draguer les sédiments pollués reposant au fond de l’Anse du Portier, et ceci à l’aide d’une pelle équipée d’un godet étanche de 8 m3 et capable de descendre jusqu’à 32 m de fonds. Cette pelle hors norme ainsi qu’une grue à câble pour les secteurs les plus profonds, sont elles-mêmes installées sur une barge ancrée dans le sol sous-marin via des pieux de 40 m…

Schéma de principe des caissons périphériques (© Valode et Pistre)

Deux barges de transport assurent l’évacuation des sédiments jusqu’à un centre de traitement et de valorisation installé à La Seyne-sur-Mer. D’ici la fin de l’été, une fois les sédiments pollués ainsi retirés, c’est le reste du sable qui va être aspiré jusqu’à atteindre le substratum rocheux. Au total, plus de 400 000 m3 de matériaux devraient ainsi être aspirés puis rejetés en mer à quelques km de la côte, par 200 m de fond. Une fois le sol mis à nu, une assise constituée de 1,6 millions de tonnes de cailloux lavés et concassés, acheminés depuis une carrière de Châteauneuf-les-Martigues, sera mise en place pour servir de support aux 18 caissons en béton armé, de 27 m de hauteur, qui constitueront le corps de la digue périphérique.

La future plateforme et son enceinte étanche constituée de caissons en béton (capture video © Valode et Pistre)

Ces caissons, qui pèsent 10 000 t chacun, seront préfabriqués dans la forme 10 du port de Marseille, à partir du mois de septembre prochain. Il s’agira d’un processus particulièrement complexe puisque le coulage du béton se fera au fur et à mesure de l’immersion du caisson. Une fois les caissons mis en place, le remblaiement de la plateforme pourra commencer, avec du sable prélevé au large de la Sicile et acheminé au moyen de la plus grosse drague du monde, capable d’apporter 40 000 m3 de sable à chaque voyage : une quinzaine de rotations devraient être nécessaire…

C’est en mars 2020 seulement, si tout va bien, que la nouvelle plateforme pourra, après compactage, commencer à recevoir les premières constructions. La livraison des premiers logements est, quant à elle, programmée pour 2022 : avis aux amateurs fortunés qui souhaiteraient y investir leurs deniers !

L.V. 

Marseille, nouveau roi du coffre-fort numérique ?

22 juillet 2017

Longtemps reconnue mondialement pour son rôle de port colonial, puis pour celui de cerveau de la French connexion et pour sa réputation déplorable de violence urbaine, Marseille tente depuis des années de se forger une nouvelle image de port d’accueil pour le tourisme de la croisière de luxe. Mais c’est dans un tout autre domaine que la ville est en train de connaître un développement inattendu : celui des data centers, ces coffres-forts modernes où sont stockées physiquement les milliards de données numériques que l’on a tendance à imaginer évaporées sur un nuage éthéré, le fameux « Cloud »…

Salle blanche pour le stockage des baies informatiques

Car la tendance actuelle en informatique est d’avoir des ordinateurs de plus en plus puissants mais paradoxalement de plus en plus vides, ce qui génère des flux de données croissant et totalement gigantesques à travers la planète entière. Les logiciels et le stockage de données, qui prend de plus en plus de place, sont désormais hébergés sur des serveurs situés on ne sait où, chez un prestataire informatique qui conserve de manière sécurisée nos données personnelles.

Un tel service d’hébergement des données numériques personnelles (nos photos, la vidéo des premiers pas du petit dernier, nos courriels, nos fiches de paies et autres papiers administratifs, nos fichiers numériques, etc.) est même fourni gratuitement par la plupart des fournisseurs d’accès internet, bien trop contents de récupérer ainsi à bon compte toutes nos données personnelles qui seront ensuite valorisées pour développer des sollicitations commerciales adaptées à nos centres d’intérêts personnels. C’est aussi un service payant qu’offrent de plus en plus de prestataires, tels que la Poste ou la Caisse d’Epargne, sous le nom de « coffres-forts numériques ».

Il s’est ainsi créé un nouveau marché très juteux, celui du stockage sécurisé de données numériques. Du fait de l’importance vitale de toutes ces données numériques qu’il convient d’archiver pour de longue durées tout en en conservant une parfaite traçabilité et en étant sûr de pouvoir les retrouver et les exploiter à tout moment, de nombreux prestataires sont ainsi apparus qui proposent de garantir la disponibilité, l’intégrité et la pérennité de ces données, moyennant juste rétribution…

Comme les château-forts d’antan, ces nouveaux coffres-forts numériques que sont les data centers sont conçus avec de multiples barrières de sécurité successives, ainsi que l’explique Fabrice Coquio, président d’Interxion France, un groupe néerlandais fondé en 1988, qui héberge les serveurs informatiques de plus de 200 clients dont Microsoft, Amazon, Facebook, Twitter, Yahoo, etc.

Comme tout château fort qui se respecte, il faut bien entendu une muraille solide, avec plusieurs niveaux de protections successifs : l’enceinte du bâtiment, protégée par barrières infra-rouges et vidéo surveillance avec détection de mouvement et vision nocturne, le bâtiment lui-même, équipé de sas d’accès sous alarmes, d’accès anti-effraction et de vidéo surveillance, les salles de stockage ensuite, protégées par contrôle d’accès et par système biométrique, et enfin les baies qui sont les systèmes informatiques dans lesquels sont stockées les données numériques, elles-mêmes rassemblées au sein de cubes fermés à l’aide d’un code ou d’un système de clé.

Autout du château s’étendent bien entendu, les douves, matérialisées ici par les systèmes de sécurisation des réseaux, sous forme de fibre noire cryptée qui fait transiter les données grâce à des signaux encodés. Quant aux armées qui gardent le château, ce sont les agents de sécurité habilités qui assurent une veille sur site 24h/24. Enfin, le donjon qui est consitué par le poste de pilotage et de commande par lequel transitent toutes les informations nécessaires à la maintenance du bâtiment.

Les bâtiments du premier data center d’Interxion implanté à Marseille depuis 2015 (source © Interxion)

Reste à savoir où implanter ces châteaux-forts de l’ère numérique. Et c’est là que Marseille se révèle, parmi d’autres, comme un emplacement particulièrement favorable. La présence de 13 câbles sous-marins qui arrivent ici en font en effet un point névralgique pour les échanges digitaux et télécoms entre l’Europe, le Moyen-Orient, l’Afrique et l’Asie. Les grands acteurs du Cloud ont bien repéré cette spécificité et l’activité tend donc à se développer.

C’est ainsi que la société Interxion y a ouvert en 2015 son huitième centre français de stockage, dans les locaux d’un ancien site SFR basé à la Joliette. Un investissement de 45 millions d’euros pour une surface utile qui sera portée à terme à 5 700 m² et une puissance électrique installée de 6 MW. Et ce n’est pas fini puisque cette société, numéro 2 mondial, qui exploite désormais 45 data centers à travers l’Europe, compte ouvrir deux nouveaux sites marseillais mitoyens, dans le secteur du cap Janet, à l’Estaque.

La halle Freyssinet du Cap Janet et la base U-boot attenante (photo © Kariyou)

Une maquette du futur centre MRS2 dans la halle Freyssinet rénovée (source © Interxion)

Le premier, dont la première pierre vient d’être posée à l’occasion d’un grand raout officiel en présence de Jean-Claude Gaudin, de Gérard Gazay et de Christine Cabau-Woehrel, présidente du Grand Port maritime de Marseille, se développera dans les locaux désaffectés des anciens ateliers de réparation navale Fouré-Lagadec, inoccupés depuis 1995. Il s’agit d’une vaste halle Freyssinet, c’est à dire conçue sur le modèle du gigantesque hangar à trois nefs surmontées de voûtes cylindriques minces que l’ingénieur Eugène Freyssinet avait conçu et réalisé en 1929 pour abriter les voies de la gare d’Austerlitz. Un ouvrage de référence, inscrit depuis 2012 au titre des monuments historiques, et dont la conception a inspiré un très grand nombre de hangars militaires, aéroportuaires et industriels à travers tout le pays.

Sur ce site, la demande de permis de construire a été déposée en vue d »aménager courant 2017 dans ce bâtiment 4 000 m² de salles blanches destinées au stockage sécurisé de données informatiques, et ceci pour un coût d’investissement évalué à 70 millions d’euros.

Vue aérienne du site de la base de sous-marins après la guerre

Quant au troisième site convoité par Intexion qui souhaite y aménager 10 000 m² de stockage supplémentaire, il s’agit ni plus ni moins que du bâtiment voisin, une ancienne base de sous-marins allemands datant de la seconde guerre mondiale, le « U-bootbunker Martha ». En réalité, cet imposant complexe en béton armé de 208 m de longueur et 45 m de largeur, dont la construction a été lancée en janvier 1943 et qui devait accueillir une vingtaine de sous-marins militaires, n’a jamais servi. Les travaux ont été stoppés en août 1944, suite au débarquement allié en Provence, avant même que le chenal d’accès des sous-marins ne soit creusé. La bâtiment n’a donc jamais été opérationnel, sauf ponctuellement pour y assurer la détention de prisonniers de guerre allemands, dont les fresques dessinées sur les murs peur meubler leur captivité sont encore visibles sur les parois.

Ce bâtiment, resté en l’état depuis sa construction, intéresse a plus haut point l’amateur de châteaux forts qu’est le directeur de la société Interxion. Véritable bunker massif construit sur le modèle des bases de Lorient, Brest et La Rochelle, il est surmonté d’une dalle de toit en béton armé de près de 6 m d’épaisseur, capable de résister à des bombes d’une tonne comme la Royal Air Force en avait fait l’expérience à Lorient. Quant aux murs, leur épaisseur varie entre 90 cm et 2,85 m pour ceux qui sont situés face à la mer et qui étaient susceptibles d’être bombardés depuis le large.

Une structure parfaitement adaptée donc à l’usage envisagé, d’autant que les salles de maintenance prévues par les ingénieurs allemands à l’étage, pourront facilement être aménagées en salles blanches. Une belle opportunité également pour le Grand Port maritime de Marseille qui se demande depuis plus de 70 ans ce qu’il pourrait bien faire de ce vestige historique aussi délabré qu’encombrant et dont la déconstruction coûterait une fortune. Une petite inquiétude néanmoins pour l’approvisionnement en électricité de ce château fort futuriste qui aura besoin en permanence d’une puissance électrique de 8 mégawatts, à comparer aux 50 MW que consomment l’ensemble des serveurs informatiques de Google et aux 100 MW produits par une tranche de réacteur nucléaire. De quoi se rappeler que le numérique commence à prendre une part non négligeable dans notre empreinte carbone globale…

L.V.  

La Terre croule sous des milliards de tonnes de plastique !

20 juillet 2017

C’est une étude scientifique publiée le 19 juillet dans la revue Science Advances qui l’affirme : les matières plastiques fabriquées par l’homme sur l’ensemble de la planète représenteraient la masse globale de 8,3 milliards de tonnes, soit 822 000 fois le poids de la Tour Eiffel ! Et ceci en 75 ans tout au plus puisque la production industrielle de plastique a débuté réellement dans les années 1950, même si les premières polymérisations de matières plastiques datent des années 1930.

Déchets de plastique dans la baie de Manille aux Philippines (photo © Stiv Wilson)

C’est certes moins que le ciment et l’acier qui restent (en poids sinon en volume…) les matériaux que l’homme a produits en plus grande quantité. Sauf que ces derniers matériaux sont utilisés principalement dans la construction, pour des durées relativement longues de 50 à 100 ans, et sont ensuite très majoritairement réutilisés après traitement.

C’est loin d’être le cas pour le plastique dont la durée d’utilisation est très courte, de l’ordre de 4 ans en moyenne et bien moins pour tout ce qui concerne le plastique d’emballage qui constitue une part importante du marché. L’étude des scientifiques américains considère ainsi que 6,3 milliards de tonnes du plastique produit est d’ores et déjà devenu un déchet : la planète Terre est en train de se recouvrir peu à peu d’un océan de déchets plastiques qui envahissent tout !

Il faut dire que le recyclage de ce matériau, souvent complexe car nécessitant de séparer soigneusement chacun des polymères différents, reste très marginal puisqu’il ne concerne que 9 % des quantités de plastique mis au rebut. Une part légèrement supérieure, évaluée à 12 % est incinérée. Tout le reste, soit près de 80 % de nos déchets plastiques est donc tout simplement enfoui ou, le plus souvent, abandonné au hasard des vents qui finissent toujours par les pousser dans les cours d’eau et les océans.

Bouteilles plastiques échouées en mer près d’Abidjan (photo © Issouf Sanogo / AFP)

En 2015, la même équipe de chercheurs avait ainsi estimé que 8 millions de tonnes de déchets plastiques avaient été rejetés dans les différentes mers du globe pour la seule année 2010. La plupart de ces plastiques ne se dégradent que très lentement. Ils se fragmentent peu à peu et finissent souvent ingérés par les poissons et autres animaux aquatiques qui bien souvent en meurent.

On observe ainsi, depuis maintenant des années, de gigantesques amas de déchets plastiques plus ou moins immergés, certains parlent de septième continent, qui flottent à la surface des océans et se concentrent dans certaines zones sous l’effet de courants marins de type vortex. Une masse évaluée globalement à plusieurs centaines de milliers de tonnes mais sans doute davantage au vu des dernières estimations. Plus de 80 % de ces déchets viendrait de pays asiatiques mais des observations récentes effectuées par la goélette Tara dans l’Océan glacial arctique montrent que la quantité de déchets plastique que l’on y trouve et qui viennent plutôt de l’Europe et des Etats-Unis y sont également en quantité inquiétante. La situation de la Méditerranée le confirme d’ailleurs largement.

Recueil de déchets immergés dans le cadre de l’expédition Tara (© S.Bollet / Tara)

Les images spectaculaires des plages de l’île Henderson, un îlot désertique de l’archipel Pitcairn, classé sur la liste du patrimoine mondial par l’UNESCO, perdu dans le Pacifique sud à plus de 5000 km de toute zone habitée et dont les côtes sont jonchées de détritus plastique ont largement été diffusées et laissent pantois. Les amas de briquets et rasoirs jetables, de brosses à dents usagées et autres petits soldats en plastique qui viennent échouer ici après avoir parcouru la moitié de la planète, ballottés au gré des courants marins, viennent nous rappeler à quel point notre Terre est vulnérable à l’activité humaine.

Amas de détritus sur une plage de l’ïle Henderson (extrait video © Jennifer Lavers / Univ. Tasmanie)

Certes, on commence à envisager de limiter l’usage de certains objets en plastique. L’interdiction récente des sacs plastiques jetables aux caisses des supermarchés, instaurée en France en 2016, devrait ainsi permettre d’économiser plus de 80 000 tonnes de plastique chaque année, une paille à l’échelle mondiale mais une bonne nouvelle pour la qualité de nos milieux aquatiques et autres espaces naturels.

Malheureusement, les perspectives ne sont pas très encourageantes à l’échelle planétaire. Alors que la production mondiale de matière plastique ne dépassait pas 1 million de tonnes en 1950, elle s’établissait en 2015 à plus de 380 millions de tonnes et rien ne permet de penser que cette croissance pourrait se ralentir dans les années à venir, même si les marchands de pots de yaourts s’enorgueillissent d’avoir réussi à diviser par deux la quantité de plastique nécessaire à leur fabrication.

Evolution des quantités de déchets plastiques produits (en noir), selon leur destination : rejet ou mise en décharge (courbe rouge), incinération (vert) et recyclage (bleu) – extrapolations à l’horizon 2050 (source : R. Geyer, J. R. Jambeck et K. Lavender Law / Science Advances)

Au rythme actuel, les chercheurs considèrent qu’en 2050 la quantité totale de plastique produit s’élèvera ainsi à 25 milliards de tonnes, soit trois fois plus que tout ce qui a déjà été produit à ce jour. Il devrait en résulter 12 milliards de tonnes de déchets de plastique tout bonnement rejetés dans la nature : des chiffres proprement effrayants et qui laisse mal augurer de l’état de notre planète dans les années à venir !

L.V. 

Stationnement payant : un jackpot en perspective !

14 juillet 2017

A compter du 1er janvier 2018, les 800 communes françaises où le stationnement est payant vont pouvoir en confier la gestion au privé : fini donc les aubergines parisiennes et autres policiers municipaux qui déambulent sur les trottoirs pour vérifier si vous avez bien glissé une pièce dans l’horodateur : ce sont bientôt des dizaines de planches des albums de Gaston Lagaffe qui vont devenir vraiment vintage. L’agent Longtarin va devoir se consacrer désormais à d’autres tâches plus gratifiantes…

L’agent Longtarin, gardien séculaire des parcmètres… (© Franquin / Dargaud ed.)

Cette évolution est une des conséquences de la loi de modernisation de l’action publique territoriale et d’affirmation des métropoles adoptée en janvier 2014 et qui donne donc aux municipalités la totale maîtrise du stationnement, leur permettant de décider désormais en toute liberté de la politique tarifaire adoptée et de la manière de procéder au contrôle et à la sanction éventuelle en cas de fraude. Libre ensuite aux maires de choisir s’ils souhaitent conserver en interne la gestion du contrôle ou le confier au privé.

Nouveaux horodateurs à Metz permettant le paiement par smartphone

Et bien entendu, de nombreux édiles piaffent d’impatience de déléguer au privé la gestion de cette nouvelle compétence, histoire d’en maximiser les profits. C’est le cas notamment à Metz où la ville a déjà confié à l’entreprise Indigo (ex Vinci Park), un des leaders du secteur (avec son concurrent Effia), la gestion complète du stationnement payant sur la voirie. L’ensemble des horodateurs de l’agglomération a déjà été changé en début d’année pour les remplacer par des dispositifs plus sophistiqués permettant le paiement par carte bancaire sans contact au moyen d’applications smartphone qui permettent d’alimenter à distance le parcmètre pour prolonger sa durée de stationnement, et qui fournissent directement le numéro d’immatriculation du véhicule, histoire de faciliter l’envoi du PV en cas de fraude…

Bien entendu, la ville profite de cette petite révolution pour augmenter fortement les tarifs de stationnement dans les zones les plus tendues, afin de dissuader les voitures ventouses. Et les PV vont passer désormais de 17 à 35 €. C’est en effet une des conséquences directes de la dépénalisation du stationnement en voirie, inscrit également dans la loi de 2014. On n’est plus tenu désormais de payer un PV en cas de fraude puisque ce n’est plus un délit. En revanche, il convient dans ce cas de s’acquitter d’un simple « forfait post-stationnement », sur le même principe que l’automobiliste qui a perdu son ticket et qui se voit réclamer, au péage de l’autoroute, le montant maximal puisqu’il n’est pas en mesure de prouver à quelle gare de péage il est entré. De la même manière, l’automobiliste négligent qui dépasse la durée de stationnement autorisé, devra s’acquitter du tarif maximal autorisé.

Et dans ce cas, l’addition risque d’être salée. A Paris, il en coûtera pas moins de 50 € aux étourdis ! Tel est en effet le montant du nouveau forfait maximal de 6 heures que vient fort opportunément d’autoriser la ville de Paris, alors que la durée maximale de stationnement jusque là n’était pas autorisée au-delà de 2 heures. Du coup, c’est un véritable jackpot que devrait toucher la capitale d’ici quelques mois. Jusque là, c’était l’État qui percevait le montant des PV et en reversait une partie aux villes, selon un système de péréquation qui profitait également aux petites communes de moins de 10 000 habitants.

Verbalisation pour stationnement dépassé à Paris (© Le Parisien /Delphine Goldsztejn)

Dorénavant, les grandes agglomérations garderont pour leurs propres besoin la totalité du pactole. A Paris, où la maire Anne Hidalgo avait quelque peu surpris en affirmant que 91 % des automobilistes fraudent, ce sont actuellement près de 6 millions de PV qui sont dressés chaque année pour stationnement interdit, ce qui jusque là rapportait, bon an mal an, la somme de 35 millions à la ville. Avec le nouveau montant de l’amende qui n’en est plus une, ce sont pas moins de 300 millions d’euros de recettes qui devraient désormais alimenter les caisses de la capitale ! Une belle culbute, même si tout laisse penser qu’elle ne sera pas durable car on voit mal les Parisiens continuer à payer de telles sommes sans adapter leurs habitudes…

C’est d’ailleurs ce qui s’est passé à Madrid où le contrôle du stationnement se fait désormais au moyen de scooter et de voitures équipées de caméras qui patrouillent dans les rues en scannant systématiquement les plaques d’immatriculation des véhicules garés des deux côtés de la chaussée. Les données sont transmises instantanément à un système centralisé qui vérifie en temps réel si chacun a bien payé son dû et qui, sinon, alerte les agents chargés de verbaliser.

Véhicules de contrôle du stationnement à Madrid (© Le Parisien /J.-G.B.)

Les numéros de plaques d’immatriculation sont en effet obligatoirement saisis lors du paiement si bien que la base de données centrale sait en permanence, rue par rue, quels sont les véhicules qui ont payé et pour combien de temps. Avec un tel dispositif de flicage instantané, le taux de fraude est tombé très rapidement à moins de 15 % et il devient statistiquement impossible d’échapper à une prune si on reste stationné au moins une heure en centre ville : avis aux amateurs !

Un tel système fait bien évidemment baver d’envie la plupart des maires confrontés au problème de la fraude généralisée et c’est le même dispositif que devrait être mis en place prochainement à Paris, toujours par la société Indigo qui sera chargée de fournir et gérer les nouveaux horodateurs, de procéder aux contrôles avec le même système de véhicules pourvus de dispositifs de « lecture automatisée des plaques d’immatriculation » (LAPI) et d’encaisser les fameux forfaits de post-stationnement. Au vu de l’expérience madrilène, on peut s’attendre à ce qu’une voiture équipée LAPI contrôle en moyenne 1500 véhicules à l’heure (un peu moins pour un scooter), là où une aubergine traditionnelle peine à vérifier 150 véhicules dans le même temps : un gain de productivité qui risque d’être redoutable pour l’automobiliste moyen…

Bien entendu, l’opération ne sera pas indolore. A l’échelle nationale, le GART (Groupement des autorités responsables de transport) a déjà fait ses comptes : alors que les recettes actuelles des horodateurs atteignent péniblement 540 millions d’euros, ce sont pas moins de 1 voire 1,5 milliards d’euros supplémentaires qui devraient ainsi être récupérés, directement de la poche des automobilistes et sans que cette recette supplémentaire pour les collectivités ne soit assimilée à un prélèvement obligatoire : brave vache à lait de conducteur…

L.V.  

6ème extinction massive : l’agonie sera brève…

11 juillet 2017

Nous avons tous en tête cette question lancinante qui nous obsède : comment les dinosaures, maîtres du monde et omniprésent à la surface de la Terre durant des millions d’années ont-ils pu bien pu disparaître du jour au lendemain ou presque et céder ainsi la place à d’autres espèces aussi fragiles que ridicules, qui ne faisaient pas le poids à côté de ces monstres, et qui pourtant ont su occuper toute la place laissée libre par leurs redoutables prédécesseurs ?

Astéroïde géant, supernova tueuse, crise climatique brutale ou éruption volcanique cataclysmique, les hypothèses ne manquent pas pour expliquer ces extinctions massives d’espèces qui se sont produites à de multiples reprises depuis que la Terre existe. Celle qui a eu lieu à la fin du Crétacé, il y a maintenant 65 millions d’années ne serait que la cinquième de ces grandes extinctions massives connues, et encore certains en répertorient même plusieurs dizaines.

Pour ce qui est de la disparition des dinosaures, on soupçonne que la chute d’une météorite de 10 à 20 km de diamètre, tombée malencontreusement dans le Golfe du Mexique, aurait pu provoquer un cataclysme suffisant pour expliquer la disparition de ces reptiles qui avaient pourtant su coloniser la quasi-totalité de la planète. D’autres évoquent l’émission de millions de m3 de laves qui s’épanchaient alors sur le vaste plateau du Deccan en Inde durant une vague d’éruptions qui dura pendant près de 1 million d’années, induisant des changements climatiques majeurs à l’origine de la disparition de 47 % des espèces marines et 18 % des vertébrés terrestres, dont la totalité des dinosaures et des reptiles volants.

Empilement de coulées basaltiques au Deccan (Inde)

Une véritable hécatombe donc, mais qui, bien que reliée sans doute à un (ou plusieurs) événement déclencheur brutal, ne s’est probablement pas faite du jour au lendemain comme on a trop tendance à se le représenter. Cela a sans doute pris plusieurs dizaines voire centaines de milliers d’années ! Les hypothèses les plus récentes (mais toujours controversées) estiment que c’est l’impact de la météorite de Chicxulub qui serait à l’origine d’une disparition rapide de la végétation du fait des perturbations climatiques associées à un tel impact, mais que son effet aurait été aggravé par les émissions volcaniques massives du Deccan, elles-mêmes déclenchées par l’impact, tout en reconnaissant qu’il s’est probablement passé environ 50 000 ans entre les deux événements, une paille !

Ammonites pourchassées par un mosasaure

Le plus probable en tout cas est que c’est la photosynthèse qui a été affectée en priorité par ces événements cataclysmiques, provoquant par contrecoup la disparition des espèces végétariennes qu’elles soient marines (ammonites et autres belemnites notamment, mais aussi les mosasaurus qui s’en nourrissaient) ou terrestres, dont les fameux dinosaures, qui ont néanmoins survécu via leurs descendants que sont les oiseaux. Les mammifères, eux, ont profité de l’occasion pour se diversifier et proliférer.

Car c’est une constante du genre : la durée de vie moyenne d’une espèce animale ou végétale est de l’ordre de 5 à 6 millions d’années. Ensuite, elle disparaît ou elle donne naissance, par mutation, à de nouvelles espèces. La vie sur Terre étant riche de millions d’espèces différentes, cela revient à dire que plusieurs espèces disparaissent chaque année, tandis que de nouvelles surgissent régulièrement. Sauf lors de ces crises exceptionnelles qui voient disparaître au même moment des millions d’espèces. La Nature a besoin ensuite de plusieurs millions d’années pour retrouver un nouvel équilibre.

Présenté ainsi, on pourrait considérer que la perte de biodiversité que nous vivons actuellement et que beaucoup présentent comme La Sixième Extinction (c’est le titre d’un livre de la journaliste Elisabeth Kolbert, publié en 2015 et qui a été couronné par le Prix Pulitzer), n’est donc qu’une péripétie de plus comme la Terre en a connue plusieurs au fil des temps géologiques. Sauf que jamais la disparition des espèces n’a connu un rythme aussi rapide et ceci sans même faire appel à une bonne vieille catastrophe naturelle ou un bombardement cosmique de derrière les fagots.

Le dodo, une espèce décimée par l’homme (crédit photo : Ballista)

Selon une étude publiée en juin 2015 dans Science Advances, le taux actuel de disparition des espèces animales serait d’au moins 100 fois supérieur à ce qu’il n’était avant 1900, soit un rythme d’extinction sans précédent depuis la fin des dinosaures. L’Union internationale pour la conservation de la nature considère ainsi qu’environ 41 % des espèces d’amphibiens et 26 % des espèces de mammifères sont désormais menacées d’extinction. Il suffit de se promener dans la galerie du Museum d’Histoire naturelle à Paris pour retracer l’histoire de ces centaines d’espèces qui ont déjà disparu de la surface du globe, exterminées volontairement ou non par des générations de chasseurs.

Et la situation s’aggrave comme vient encore de le montrer une étude publiée cette semaine dans les Proceedings of the National Academy of Sciences par des chercheurs américains et mexicains. Sur 27 600 espèces de vertébrés terrestres étudiés, les chercheurs ont constaté que 32 % avaient vu leurs populations décliner dangereusement, ce qui est un prélude à leur disparition annoncée. La plupart de ces espèces voit son aire de répartition se réduire drastiquement, ce qui est à l’origine de son déclin. Ainsi, le nombre de lions a chuté de 43 % au cours des 20 dernières années et ils ne sont plus présents en Afrique que sur de minuscules territoires résiduels.

Le chardonneret élégant (source : Nature Alsace)

Les orang outangs à Bornéo ont vu leurs effectifs fondre de 25 % ces 10 dernières années tandis qu’en France le nombre de chardonnerets a diminué de 40 % dans le même temps. Au total, ces chercheurs estiment que le nombre total de vertébrés terrestres aurait ainsi été divisé par deux en 40 ans, ce qui vient confirmer les chiffres alarmistes annoncés en 2016 par le WWF qui estimait que 58 % des population de vertébrés avait disparu entre 1970 et 2012.

Les causes de cette nouvelle extinction massive qui se produit sous nos yeux à un rythme jamais connu sont parfaitement connues et analysées. Elles sont toutes liées directement à l’activité humaine : déforestation, urbanisation, exploitation minière, agriculture intensive, pollution des eaux, réchauffement climatique, transfert d’espèces invasives. La perte de biodiversité qui en résulte est maximale dans les milieux les plus vulnérables que sont notamment les îles, là où l’isolement avait permis le développement d’espèces endémiques qui disparaissent très rapidement lorsque l’activité humaine les met en contact de prédateurs nouveaux. La littérature scientifique regorge de tels exemples, mais l’enjeu est aussi la biodiversité ordinaire, celle des papillons et des abeilles dont les populations sont en train de s’effondrer alors même qu’elles sont vitales pour assurer la pollinisation nécessaire à l’activité agricole et donc à la survie de l’humanité.

Un dessin signé Ahmet Aykanat

C’est finalement la seule bonne nouvelle que l’on pourrait retenir : il ne reste plus beaucoup de temps pour inverser la tendance d’un cycle aussi mortifère et au vu des décisions de certains responsables politiques actuels, tout laisse penser que les choses ne vont aller qu’en s’accélérant. La sixième extinction massive est bien engagée, sera très vraisemblablement fatale à l’espèce humaine et elle devrait être courte : au train où vont les choses, la Planète ne devrait plus avoir à nous supporter pendant très longtemps…

L.V. 

U-864 : une bombe à retardement ?

27 juin 2017

Michel L’Hour, directeur du DRASSM

L’affaire a été de nouveau évoquée à l’occasion d’un colloque sur le trafic d’antiquités en eaux profondes, organisée tout récemment pour célébrer la création du tout nouveau tribunal maritime de Marseille qui couvre désormais 26 départements de la façade sud du pays. Michel L’Hour, directeur du DRASSM, le Département des recherches archéologiques subaquatiques et sous-marines, un service de l’État créé par André Malraux et basé à l’Estaque, y a notamment rappelé que le trafic d’antiquités, actuellement en pleine expansion, est désormais le troisième au monde en importance, derrière celui des stupéfiants et celui des armes.

Et les antiquités présentes dans les nombreuses épaves qui jonchent les fonds marins sont de plus en plus exposées à ces pilleurs modernes redoutablement équipés. Comme l’a évoqué Michel L’Hour, « l’archéologue aux pieds palmés », ainsi qu’il aime se définir lui-même, « la mer est le plus grand musée du monde, ouvert jour et nuit, mais sans aucune sécurité ni vitrines protégées », d’où cette grande vulnérabilité aux pilleurs d’épaves.

Mais Michel L’Hour a aussi évoqué un autre danger qui guette les fonds marins du fait de ces multiples épaves coulées au fil de l’Histoire : le risque de pollution. Des centaines de milliers d’épaves de navires engloutis jouchent les fonds marins : on en recense 9000 uniquement sur les côtes Sud et Est de l’Angleterre ! Plus de 70 % des épaves qui se trouvent dans les eaux européennes datent de la première et seconde Guerre mondiale. Or, la corrosion, menace de libérer leurs contenus : dans la mer, le métal se corrode inéxorablement, perdant chaque année de l’ordre de un dizième de mm d’épaisseur…

Caisses de munitions jetées en mer au large de Singapour après la 2ème guerre mondiale (photo d’archive, Imperial War Museums)

Le pétrole qui se trouve encore dans ces épaves n’est pas le pire des composants qu’ils contiennent. Les anciennes munitions et certains produits chimiques sont autrement plus inquiétant. C’est le cas notamment du fameux gaz moutarde, l’ypérite, largement utilisé lors de la Première guerre mondiale et dont on s’est souvent débarrassé des stocks devenus inutiles en les immergeant en mer. Dans l’eau, ce produit se transforme en une pâte jaunâtre ingérée par les poissons et qui entre ainsi dans notre chaîne alimentaire…

Et parmi ces bombes à retardement qui hantent nos côtes, citons le cas du sous-marin allemand U-864 et de sa cargaison de mercure qui se déverse lentement au large des côtes scandinaves depuis meintant plus d’un demi-siècle…

Torpillé devant Bergen, en Norvège, par les Britanniques le 9 février 1945, avec à bord 73 hommes d’équipage, alors qu’il partait pour le Japon avec les moteurs et les plans du Messerschmitt 262, premier avion à réaction, ce sous-marin allemand transportait aussi à son bord 67 tonnes de mercure conditionné dans des bouteilles en acier de 37 kg. Parti le 5 décembre 1944 de Kiel, il était chargé d’une mission secrète, baptisée « Opération Caesar », destinée à apportée aux alliés japonais les technologies nécessaires pour augmenter leur effort de guerre en cette période décisive. Mais lors d’une escale technique à Bergen, il subit un bombardement car les Britanniques ont percé le code Enigma et identifié l’enjeu de cette mission. Lorsqu’il peut enfin reprendre la mer, une nouvelle avarie machine le contraint à rebrousser chemin vers Bergen et c’est là qu’il est pris en chasse par un sous-marin britannique, le HMS Venturer, qui l’envoie par le fond, au large de l’ïle de Fedge.

L’épave de l’U-864 au fond de la mer (photo © Van Oord)

Au début des années 2000, un pêcheur norvégien remonte dans un de ses filets une pièce de U-Boot et la Marine norvégienne entreprend des recherches qui lui permettent de retrouver, le 22 février 2003, l’épave du sous-marin, coupé en deux, reposant par 150 m de fond, à quelques km des côtes de la petite île norvégienne. Dès lors se pose la question de l’avenir des 1857 flasques en acier contenant les 67 tonnes de mercure liquide, destiné à la fabrication d’amorces de munitions (à base de fulminate de mercure) et désormais éparpillé au fond de l’eau.

En 2005, on observe ainsi qu’une de ces bouteilles s’est ouverte sous l’effet de la corrosion et que tout le mercure s’en est échappé. On en retrouve sur une surface estimée à 3 ha ! Les Norvégiens commencent à redouter une nouvelle catastrophe sanitaire à l’égal de ce qui s’était produit dans la baie de Minamata au Japon, où les rejets de métaux lourds issus de l’industrie pétrochimique avaient occasionné plus de 900 décès entre 1949 et 1965. Des prélèvements sont effectués et on constate que l’acier des flasque, dont l’épaisseur initiale atteignait 5 mm, ne faisait plus qu’1 mm par endroit, du fait de la lente corrosion…

Une des 1857 flasques remplies de mercure et désormais fuyardes

Les études s’enchaînent à partir de 2006, pour tester différentes solutions techniques. Les autorités privilégient plutôt le recouvrement de l’épave par un sarcophage tandis que les populations riveraines, dont les 561 habitants de l’île de Fedge, préfèrent une solution plus durable mais plus coûteuse et techniquement complexe qui consiste à renflouer l’épave. Un bras de fer s’engage et finalement en 2009, le gouvernement norvégien accepte d’engager les travaux de renflouement pour un montant estimé à un milliard de couronnes norvégiennes, mais estime nécessaire d’engager au préalable des études complémentaires…

Quatre ans plus tard, en janvier 2013, Lisbeth Berg-Hansen, ministre des Pêches et Affaires côtières, indique devant le Parlement que les études sont toujours en cours et qu’il n’existe toujours pas de calendrier prévisionnel pour les travaux. D’ailleurs, en mai 2014, un nouveau rapport est publié, préconisant une fois de plus la solution du recouvrement par un sarcophage jugée plus raisonnable. Il a fallu finalement attendre le printemps 2016 pour que les travaux de recouvrement de l’épave soient enfin réalisés, confiés au spécialiste néerlandais du dragage et des opérations offshore Van Oord. Une couche de sable a été déposée sur l’ensemble de l’espace contaminé et l’épave, au moyen d’un diffuseur crée spécialement pour cet usage et été installé sur le robot télé-opéré (ROV) du navire de pose de flexibles Stornes. En tout, près de 30.000 tonnes ont été déposées, formant une couche de 50 cm d’épaisseur. Celle-ci a ensuite été recouverte par 160.000 tonnes de rochers. Pourvu que ça dure…

L.V.  

Fondation Louis Vuitton : merci les contribuables !

24 juin 2017

Jeunes Chinoises accro aux sacs Louis Vuitton…

LVMH : Louis Vuitton Moët Hennessy… Des lettres qui symbolisent le summum du luxe à la française, destiné à tous les snobinards de la planète, du riche émir qatari au parvenu de la mafia russe en passant par tous ces riches touristes asiatiques qui se pressent sur les Champs-Elysées pour acquérir à prix d’or un sac siglé destiné à exposer à tous leur réussite sociale.

Le groupe date de 1987, créé par le rapprochement de la firme Louis Vuitton, spécialisée en maroquinerie de luxe et issue d’une fabrique de malles fondée en 1854, et de la société de spiritueux qui regroupe des marques prestigieuses comme le cognac Hennessy (qui s’exporte depuis 1859 en Chine), mais aussi le champagne Moët et Chandon et la marque de parfums Christian Dior rachetée au groupe Boussac peu auparavant.

Bernard Arnault, PDG du groupe LVMH, en 2015 (photo © Eric Piemont/AFP)

C’est ce dernier fleuron du luxe français qui attise la convoitise du requin de la finance qu’est Bernard Arnault, lequel venait d’acquérir en 1984 ce qui restait de l’empire textile Boussac – Saint Frères. Dès 1989, Bernard Arnault prend ainsi le contrôle de LVMH, via la Financière Agache, et rassemble sous le nom de holding Christian Dior, les activités liées au parfum et à la haute-couture, qui s’enrichissent en 1997 à l’occasion de l’acquisition de Sephora. A l’issue d’une bataille juridico-financière féroce, l’impitoyable Bernard Arnault se débarasse progressivement des autres actionnaires et devient propriétaire principal du groupe LVMH en 1990. Tout le reste de l’histoire de cette société n’est qu’une longue succession d’OPA hostiles et de rachats à la hussarde pour permettre aux groupe de racheter des marques réputées et s’imposer progressivement comme le géant mondial du luxe.

L’affiche du film de François Ruffin, à charge contre Bernard Arnault

Détenu à 46,7 % par Bernard Arnault, son PDG, le groupe LVMH emploie de l’ordre de 125 000 personnes dans le monde, détient près de 4000 magasins disséminés à travers la planète et a engrangé en 2016 un chiffre d’affaire de 37,6 milliards d’euros. Champion de l’optimisation fiscale, LVMH serait le groupe français qui détient le plus de filiales implantées dans des paradis fiscaux, avant même BNP Paribas, pourtant assez fort dans ce domaine. Le groupe s’est également diversifié dans les médias, en rachetant notamment Les Echos et Le Parisien, histoire de manipuler l’opinion publique au gré de ses intérêts, tout en pesant de tout son poids sur les autres médias via le marché publicitaire de ses marques de luxe, LVMH constituant le principal annonceur publicitaire en France…

Epinglé par le journaliste et désormais député La France insoumise, François Ruffin, dans son film satirique « Merci, patron ! », le milliardaire Bernard Arnault se défend mollement en reconnaissant que « le groupe LVMH est l’illustration, l’incarnation de ce que, pour ces observateurs d’extrême gauche, l’économie libérale produit de pire ». Et voila que certains commencent à s’interroger sur les dessous d’une autre affaire qui concerne cette fois la Fondation Louis Vuitton.

Créée en 2006 pour faire contrepoids à la fondation installée dans l’ancienne Bourse du Commerce, à deux pas des Halles qui est dirigée par son rival de toujours, l’autre milliardaire François Pinault, la Fondation Louis Vuitton se présente comme un outil de mécénat artistique, né de la rencontre avec l’architecte Franck Gehry, concepteur du musée Guggenheim à Bilbao. Grâce à son entregent et en moins de 2 mois, le patron de LVMH obtient que la Ville de Paris lui cède gratuitement une parcelle de 1 ha dans le Bois de Boulogne pour une durée de 55 ans. Le permis de construire, qui fera l’objet d’un recours jusque devant le Conseil d’État, mais en vain, est attribué en un temps record et la starchitecte Franck Gehry peut laisser libre court à son imagination délirante pour concevoir ce que les observateurs qualifient selon leur inspiration de « bateau à voile », de « baleine-obus » ou de « nuage ».

Le bâtiment de la Fondation Louis Vuitton (source FLV)

Achevé fin 2013, le bâtiment bénéficie d’une inauguration en grandes pompes le 27 octobre 2014 en présence du chef de l’État, François Hollande, lequel a préféré venir inaugurer cet établissement privé plutôt que le Musée des Confluences à Lyon, comprenne qui pourra… A l’époque, tout le monde s’extasie devant l’originalité de cet écrin, même si les entreprises chargées de sa construction pour le moins atypique reconnaissent que « jamais un bâtiment n’aura été aussi complexe à construire pour satisfaire le génie d’un architecte ». Il faut recourir aux calculateurs de Dassault Aviation pour dimensionner les milliers de pièces à assembler dont 19 000 plaques de béton fibré toutes différentes et les 12 voiles en verre, moulées sur mesure dans un four spécial.

Inauguration du bâtiment par François Hollande vu par le dessinateur Na !

Un travail de titan qui a un coût, maintenu soigneusement caché… On parle à l’époque d’une facture dépassant les 100 millions d’euros. Mais selon l’universitaire Jean-Michel Tobelem, spécialiste du mécénat d’entreprise et dont la tribune publiée dans Le Monde en octobre 2014 sous le titre « Le mécénat d’entreprise sans la générosité » avait fait quelques vagues, le coût est plutôt de l’ordre de 400 à 500 millions, sans commune mesure avec les 75 millions d’euros qu’a coûté par exemple l’aménagement du Centre Pompidou à Metz. Mais à l’époque chacun n’a d’yeux que pour l’extrême générosité du milliardaire : « C’est un cadeau de Bernard Arnault aux Parisiens », comme le répètent en boucle ses thuriféraires.

Un chantier d’une grande complexité technique (source : Fondation Louis Vuitton)

Mais un cadeau de luxe : selon les dernières estimations dévoilées par Emmanuel Lévy dans l’hebdomadaire Marianne, le chantier pharaonique aurait finalement coûté la bagatelle de 775,8 millions d’euros ! Et ceci sans compter les coûts de fonctionnement qui se seraient élevés en 2015 à près de 80 millions d’euros, quasiment la moitié de ceux du Louvre qui reçoit pourtant 10 fois plus de visiteurs. Rapporté au nombre de visiteurs, cela représente quand même 80 € par tête de pipe. On comprend dans ces conditions pourquoi l’entrée est si chère : 14 € par personne, seuls les enfants de moins de 3 ans pouvant y entrer gratuitement. Dans le monde du luxe, il convient d’apprendre très jeune que tout se paye, et cher…

Le pire c’est que ce sont les contribuables français qui payent la plus grande part de ce geste de générosité du délicieux Bernard Arnault. Grâce aux dispositions législatives issues de la loi Aillagon de 2003, les plus généreuses du monde en faveur du mécénat d’entreprise, 60 % des sommes investies sont déduites de l’impôt sur les sociétés. En 2015, LVMH a ainsi siphoné à lui seul 10 % de l’enveloppe affectée.

Le bâtiment de la Fondation Louis Vuitton coloré par Daniel Buren en mai 2016 (photo © Philippe Guignard / Air Images / Fondation Louis Vuitton)

Et ce n’est pas tout puisque le groupe a également adressé à Bercy une demande de remboursement de la totalité de la TVA payée dans le cadre du chantier, soit la bagatelle de 130 millions d’euros supplémentaire. Au final, c’est donc près de 80 % du coût du projet qui sera payé non pas par le richissime propriétaire de LVMH mais bien par le contribuable français, tandis que le groupe de luxe cultive son image de généreux mécène éclairé qui se glorifie d’avoir réalisé « un acte philanthropique majeur vis-à-vis de Paris ». On reste en effet confondu devant un tel savoir faire en matière de communication…

L.V. 

Comment lutter contre les moustiques ?

17 juin 2017

Le moustique tigre, Aedes albopictus

Avec le retour des beaux jours et l’arrivée des cigales, ce sont aussi les moustiques qui s’en donnent à coeur joie, et parmi eux le redoutable moustique tigre, Aedes albopictus, potentiel vecteur de la dengue, du chikungunya et du Zika ! Arrivé en France en 2004, en provenance de l’Asie du sud-est, le moustique tigre est désormais implanté durablement dans une trentaine de départements français et son expansion se poursuit grâce à son excellente adaptation aux milieux urbains et à la capacité de ses œufs à résister aux périodes de froid hivernal.

Pour autant, le moustique tigre n’est que l’une des 3500 espèces de moustiques recensées dans le monde, dont 64 en France métropolitaine (et 238 en Guyane !). Seules environ 200 de ces espèces s’attaquent à l’homme, parmi lesquelles le moustique ordinaire, Culex pipiens, encore très répandu en France mais qui commence à se faire rare à Carnoux où il a été largement supplanté par son cousin asiatique nettement mieux adapté à l’environnement local.

Le classique, Culex pipiens (photo Stephen Doggett, NSW Health Pathology)

La lutte contre les moustiques s’est développée au tout début du XXème siècle, après que le médecin militaire Alphonse Laveran, alors en poste à Alger, a découvert en 1880 que le paludisme était provoqué par un hématozoaire, Plasmodium falciparum, puis a compris le rôle des moustiques de type anophèles dans la transmission de ce parasite. Jusque là, on se contentait de lutter contre la malaria en tentant d’assécher les zones humides. A partir de cette période, les actions sont devenues plus ciblées, et moins impactantes pour ces zones humides qui jouent par ailleurs un rôle majeur pour la biodiversité mais également pour la régulation du cycle de l’eau : diffusion des moustiquaires, introduction massive de gambusies, poissons dont les larves se nourrissent de moustiques et qui se sont révélés particulièrement invasifs, mais aussi campagnes de désinsectisation à coup de produits chimiques peu ragoûtants…

Epandage de DDT sur une plage dans les années 1950

C’est ainsi que dès 1943 et avec l’aide des troupes américaines de débarquement, des campagnes s’organisent pour pulvériser, à l’intérieur même des habitations de certains régions de Corse, un mélange à base de pétrole et de DDT… Dans les années 1960, ce sont les zones côtières du Languedoc qui sont aspergées de DDT par voie aérienne pour les assainir avant d’y développer le tourisme de masse.

La mise en évidence des risques liés à l’utilisation massive de cet insecticide, révélés notamment par le livre de la biologiste américaine Rachel Carson, Printemps silencieux, publié en 1962, mettra progressivement un terme à de telles pratiques. En 1976, la découverte du Bti, Bacillus thuringiensis israelensis, insecticide biologique très sélectif et peu toxique pour les autres espèces, permet de lancer la démoustication dans des zones comme la Camargue qui jusque là avaient été relativement épargnées par ces campagnes du fait de son statut de zone naturelle protégée, et ceci bien qu’elle ait été le théâtre de la dernière épidémie de paludisme connue sur le territoire métropolitain en 1943.

En Camargue, comme sur toute la frange littorale des Pyrénées-Orientales jusqu’aux Bouches-du-Rhône, c’est un établissement public créé en 1958, l’Entente interdépartementale pour la démoustication (IED) qui est chargé de la lutte contre la prolifération des moustiques et principalement des espèces les plus nuisibles pour l’homme que sont Aedes caspius et Aedes detrius, dont les larves se développent en milieu humide. La stratégie adoptée depuis août 2006 en Camargue consiste à identifier les gîtes larvaires qui font l’objet d’une surveillance permettant de déclencher à bon escient les traitements (principalement par voie aérienne) à base du larvicide Bti, qui n’est toxique (par ingestion) que pour les larves de nématodes (dont font partie les moustiques) mais pas pour les autres organismes aquatiques.

Epandage de Bti en Camargue (source Actu environnement)

Ces pratiques sont fortement encadrées et accompagnées d’une démarche de suivi environnemental pour évaluer l’impact de ces interventions sur le milieu naturel. Le Parc naturel de Camargue impose en effet que 10 % de l’enveloppe consacrée à la démoustication soit affectée à un suivi de son impact écologique et sociologique. Or ces études ont mis en évidence que l’effet de ces traitements est loin d’être négligeable et se répercute sur toute la chaîne alimentaire : la destruction des larves de moustiques et de chironomes provoque une diminution de moitié des populations d’odonates (libellules et autres agrions) et de 60 % des araignées, ce qui se traduit déjà par une diminution d’un tiers des passereaux, confirmant s’il en était encore besoin, que tout équilibre écologique est par nature fragile…

Du coup, les recherches s’orientent désormais vers la mise en œuvre de stratégies encore plus ciblées qui visent à réguler les populations de moustiques uniquement là où elles constituent une véritable gêne pour les populations, donc dans les lieux habités. Il s’agit pour cela de mettre en place des pièges à moustiques pour constituer des barrières autour des zones urbanisées.

Schéma de principe d’un piège à moustique artisanal (source : espacebuzz)

L’idée du piège à moustique individuelle est vieille comme le monde et il suffit de regarder sur internet d’excellentes vidéo qui expliquent en détail comment constituer un piège à moustique en coupant en deux une bouteille en plastique au fond de laquelle on dispose un mélange de sucre roux, d’eau et de levure de boulanger, avant de refermer le récipient avec la partie conique renversée : les moustiques attirés par le produit sucré rentrent dans la bouteille mais n’arrivent plus à en ressortir. Le système est efficace mais doit être renouvelé régulièrement.

Les inventeurs de la borne anti-moustiques (source : Qista)

Pour être utilisé à une échelle plus industrielle, d’autres dispositifs existent dont un breveté en 2013 et désormais produit par la société Qista, basée à Aix-en-Provence. Ces BAM, ou bornes anti-moustiques, attirent les moustiques en reproduisant la respiration humaine au repos (par expirations saccadées de gaz carbonique) et en diffusant des composés chimiques à base d’acide lactique proches de la sueur humaine. Les moustiques sont aspirés par un ventilateur dès qu’ils s’approchent du piège et sont retenus dans un filet. Le dispositif a été testé dans un hameau d’Arles en 2015 et s’est avéré particulièrement efficace pour un coût relativement modique tout en se montrant particulièrement sélectif : sur plus de 250 000 insectes capturés, 99,7 % appartiennent à 9 espèces de moustiques ciblées ! En 2016, 15 pièges de ce type ont été mis en place et l’expérience pourrait encore s’étendre.

Piège contre le moustique tigre développé par l’IED (source © France3 Languedoc-Roussillon)

Vis à vis du moustique tigre, des démarches similaires se développent également. La particularité de cette espèce est que les femelles pratiquent une ponte fractionnée en répartissant leurs œufs dans différents endroits jugés propices mais dispersés et peu aisés à détecter. L’idée consiste donc à les attirer dans des gîtes très attractifs mais rendus inaccessibles par une moustiquaire munie d’une chambre de contamination où le moustique s’enduit les pattes d’un peu d’insecticide. Ne réussissant pas à y déposer ses œufs, la femelle ira pondre ailleurs mais en disséminant l’insecticide sur tous ses lieux successifs de ponte, ce qui le rend du coup très opérant sur les futures larves.

Bref, l’ingéniosité humaine dans la lutte contre son ennemi séculaire, le moustique, n’a pas de limite…

L.V.  

La plupart des informations de cet article sont issues du n° 92-93 de l’excellente revue Zones Humides infos publiée par la SNPN (Société nationale de protection de la nature)

La douche écolo qui vous en fait voir de toutes les couleurs

17 mai 2017

Ségolène Royal et Gabriel Della-Monica, le fondateur de Smart & Blue

« L’écologie ne doit pas être punitive » disait Ségolène Royale pour justifier l’abandon totalement injustifiable de l’écotaxe poids lourds. Encore ministre de l’écologie la semaine dernière, comme elle l’était déjà en 1992, l’auteur de cette sentence mémorable serait, aux dernières nouvelles, toujours à la recherche d’un point de chute pour se recaser après que sa candidature à la tête du Programme des Nations Unies pour l’Environnement a été écartée… Pour autant, affirmer que les changements de comportements individuels en faveur d’une meilleure prise en compte des enjeux environnementaux ne passent pas par la contrainte mais par l’adhésion et la conviction, voila assurément une idée qui ne manque pas de bon sens…

Pommeau de douche connecté Hydrao First (photo © Erwan Lecomte / Sciences et Avenir)

C’est ce côté ludique qu’a voulu explorer la jeune entreprise grenobloise Smart & Blue, un nom qui fleure bon le terroir alpin, en développant son dernier produit, elle qui se présente comme le « leader des technologies innovantes et connectées pour une gestion intelligente de l’eau potable », rien que ça ! L’idée, il est vrai ne manque pas d’originalité puisqu’elle consiste ni plus ni moins qu’à prendre sa douche en couleur, grâce à un pommeau intelligent dont les buses sont équipées de LED polychromes qui éclairent l’eau du bain de toutes les couleurs.

L’objectif n’est bien évidemment pas de transformer sa salle de bain en boîte de nuit, mais tout simplement d’inciter à économiser l’eau de la douche. Quand on ouvre le robinet, les LED éclairent l’eau du jet en vert. Jusque là, tout va bien, à condition de ne pas faire couler plus de 10 litres d’eau, un volume normalement largement suffisant pour se laver correctement, comme le savent tout ceux qui ont un jour testé les douches à l’ancienne, constituées d’un simple seau d’eau et d’un récipient adapté, bol en plastique ou calebasse selon les usages locaux.

A partir de ce volume fatidique de 10 l, le jet d’eau passe au bleu. Rien de bien inquiétant encore, mais à partir de 20 l, l’eau de la douche passe au rose, puis au rouge et au-delà de 40 l, le rouge se met à clignoter. Rassurez-vous, il n’arrivera rien de plus grave au-delà, mais après un tel festival de couleur, même le consommateur le plus endurci et le plus rétif aux économies d’eau sera incité à tourner le robinet et à attraper sa serviette pour se sécher. Selon le concepteur du système, le Français moyen n’utilise pas moins de 80 l pour sa douche quotidienne, au point que pour une famille de 4 personnes l’eau de la douche représente près de 40 % de la consommation quotidienne d’eau : l’enjeu n’est donc pas mince !

Répartition de la consommation de l’eau domestique par type d’usage en France (source © Centre d’information sur l’eau)

Bien évidemment, un concept aussi novateur, commercialisé sous le nom d’Hydrao First et déjà récompensé par plusieurs prix  n’a pas besoin d’électricité pour fonctionner car cela rendrait l’empreinte environnementale du dispositif nettement moins séduisante, sans compter le risque d’hydrocution : le système utilise simplement une turbine intégrée qui tourne sous l’effet du jet d’eau et qui fournit l’énergie nécessaire à l’éclairage des lampes. Un dispositif astucieux et par ailleurs totalement branché.

L’appli smart shower

Car bien entendu, un tel bijou de technologie est forcément connecté. Une appli adaptée permet de paramétrer sur son smartphone ses propres seuils de réglage des changements de couleurs mais aussi de suivre l’historique de consommation de ses 200 dernières douches et de comparer sa consommation par rapport à sa douche de référence. De quoi occuper les amateurs de statistiques, et de quoi attiser les conversations familiales car bien entendu l’appli n’est pas en mesure de faire la distinction en fonction de l’utilisateur. Impossible désormais, avec un tel mouchard à la maison, de se prélasser tranquillement sous la ouche sans se faire ensuite vertement remarquer qu’on a sérieusement fait baisser la moyenne familiale et fortement augmenter la facture d’eau et d’électricité.

Suivi de consommation (photo Sciences & Avenir)

Tout se paye en effet et on sait illico en sortant de la salle de bain combien nous ont coûté ces quelques minutes passées sous la douche. Pas autant certes que le pommeau lui-même car ce gadget futuriste est quand même vendu pour près de 90 € et on a intérêt à se doucher souvent pour espérer amortir un jour un tel investissement…

C’est en tout cas une excellente affaire pour son concepteur dont la société vient de recevoir une nouvelle récompense lors d’un salon professionnel qui s’est tenu à Las Vegas en janvier dernier pour ses deux dernières nouveautés Hydrao Drop et Hydrao Loop. Toujours connectée à la même application Smart Shower, cette dernière est un pommeau de douche dont le design très élaboré rappelle vaguement le signe mathématique de l’infini, mais dont les fonctionnalités sont tout à fait comparables à celle du pommeau d’entrée de gamme Hydrao First, avec néanmoins une efficacité accrue en matière d’économie d’eau, pour la modique somme de 169 €.

Hydrao Loop, dernier né de la gamme au look futuriste

On peut bien sûr ironiser sur l’aspect gadget de ces innovations mais on est bien obligé de reconnaitre que son inventeur, l’ingénieur en télécom Gabriel Della-Monica, a su faire d’une idée originale un beau succès commercial. Installée au sein du pôle de haute technologie nano et microélectronique de Grenoble, la société Smart & Blue a mis 2 ans pour développer le produit, disponible à la vente depuis 2015. Deux ans plus tard, la société a déjà embauché plus de 10 salariés et est en plein développement. Quant à la fabrication, elle est sous-traitée à une entreprise industrielle qui favorise l’intégration des travailleurs handicapés : un bel exemple de la French Tech qui réussit en mettant en avant ses valeurs de responsabilité sociale et environnementale. Le cas n’est pas si fréquent et mérite d’être salué !

L.V.