Posts Tagged ‘Techniques’

Canal de Provence : des plans d’eau qui rayonnent…

14 novembre 2017

Le Canal de Provence à Saint Maximin, dans le Var (photo © Camille Moirenc / SCP)

Créée en 1957 sous la forme d’une société anonyme d’aménagement régional, la Société du Canal de Provence, qui vient de fêter ses 60 ans, résulte en réalité d’un pacte passé en 1955 entre la Ville de Marseille et les deux départements des Bouches-du-Rhône et du Var, dans l’objectif de mettre en commun leurs droits d’eau sur la rivière du Verdon. Dès 1963, la société s’est vue confier, par concession d’État, la mission de réaliser et gérer le canal de Provence destiné à acheminer, vers l’agglomération marseillaise et une partie du Var, l’eau du Verdon stockée grâce aux différents barrages de Sainte-Croix, Quinson, Gréoux, Castillon et Chaudanne.

La construction du canal s’est échelonnée entre 1964 et 1986, à partir de la prise de Boutre, à Vinon-sur-Verdon. A Rians, le canal se divise en deux branches, l’une desservant le pays d’Aix et le nord de Marseille, l’autre l’Est marseillais et le Var. Le réseau s’est progressivement étendu, y compris via la construction récente de la liaison Verdon – Saint-Cassien destinée à alimenter le littoral varois jusqu’au golfe de Saint-Tropez. Il comprend désormais près de 70 km de canaux à ciel ouvert, 140 km en galerie souterraine et pas moins de 4500 km de canalisations.

Le barrage de Bimont, près de la Sainte-Victoire, géré par la SCP

La gouvernance a évolué également avec l’arrivée de la Région PACA en 1983, puis celle du département de Vaucluse en 1988, pour le développement de l’irrigation dans la plaine du Sud-Luberon. En 2008, l’ensemble du patrimoine appartenant à l’Etat et concédé à la SCP a été transféré à la Région, renforçant ainsi l’appropriation par les collectivités territoriales de ce patrimoine hydraulique.

Branche nord du canal de Provence (photo © Camille Moirenc / SCP)

De l’ordre de 2 millions de personnes, soit 40 % de la population régionale est désormais alimenté en tout ou partie par de l’eau acheminée par le réseau de la SCP. Une des particularités de ce réseau réside dans son mode de régulation dynamique, géré de manière centralisée depuis le siège de la société basé au Tholonet, et qui permet d’ajuster à tout moment les débits délivrés en fonction de la demande effective des utilisateurs.

C’est ce souci constant de l’innovation technologique qui a poussé la SCP, depuis déjà quelques années et après avoir exploité toutes les potentialités de l’hydroélectricité, à s’intéresser à la production d’énergie solaire sur son propre réseau. Dans une région aussi ensoleillée, un des freins au développement de cette production réside en effet dans le coût du foncier qui réduit les possibilités d’implantation de centrales photovoltaïques. Or, les plans d’eau et les canaux gérés par la SCP constituent de vastes superficies qui peuvent facilement être recouvertes de panneaux solaires.

Panneaux solaires installés dans le cadre du projet Canasol à Rians (source : Actu Environnement)

Qui plus est, une telle couverture présente de multiples intérêts. Les panneaux photovoltaïques protègent les canaux contre les intrusions et les chutes ou les baignades intempestives, ce qui est un des risques récurrents auquel est confrontée la SCP, et en même temps ils protègent l’eau des rayonnements solaires directs, ce qui permet de limiter l’évaporation et de garder à l’eau une certaine fraîcheur tout en évitant la prolifération des végétaux aquatiques, une autre des plaies de l’exploitant.

Et ce n’est pas tout ! En plein été et sous le chaud soleil de Provence, la température grimpe rapidement à la surface des panneaux photovoltaïques. Or, au-delà d’une certaine température (de l’ordre de 70 °C), le rendement des panneaux baisse fortement, perdant jusqu’à 15 % de leur efficacité énergétique. Le fait de les installer juste au-dessus de la surface des canaux présente donc une réelle opportunité puisqu’on peut facilement les arroser pour éviter tout échauffement intempestif.

Site du démonstrateur Canalsol à Rians (photo © Camille Moirenc / SCP)

Pour tester le concept, la SCP s’est alliée avec le pôle de recherche technologique du CEA en 2013, dans le cadre du pôle de compétitivité Capénergie, afin de créer une plateforme expérimentale située à proximité de son centre d’exploitation à Rians. 132 panneaux solaires ont ainsi été déployés et testés pendant plus d’un an à partir de l’automne 2014, pour évaluer l’intérêt du dispositif et comparer différentes orientations et modalités de refroidissement (par aspersion, par circulation direct ou par le seul effet passif de l’eau circulant à 1,20 m sous les panneaux et dont la température moyenne varie entre 15 et 18 °C).

Dispositif d’aspersion des panneaux photovoltaïques du projet Canalsol

Les résultats de ce projet de recherche baptisé Canalsol semblent suffisamment probants pour que la SCP poursuive ses efforts de développement technologique et envisage de passer à une phase très opérationnelle qui consisterait à installer une centrale photovoltaïque flottante sur le vaste réservoir à ciel ouvert du Vallon Dol situé sur les hauteurs de Marseille, au pied du massif de l’Étoile.

La réserve de Vallon Dol, sur les hauteurs de Marseille (photo © Camille Moirenc / SCP)

Ce gigantesque bassin qui s’étend sur 17 hectares contient 3 millions de m3 d’eau acheminée depuis le Verdon (soit plus de deux fois la capacité du Vieux Port !), de quoi assurer pendant une semaine entière l’alimentation en eau de toute la ville de Marseille. Construit en 1973, ce bassin qui peut être alimenté via les deux branches principales du canal de Provence sert de réserve pour l’usine de potabilisation située à proximité et géré par la SEM.

Pour aménager sur ce vaste plan d’eau une centrale solaire dont la puissance visée serait de 10 MW, la SCP vient de lancer une consultation, afin de choisir un partenaire avec lequel la SCP créerait une société de projet en vue de concevoir, financer, réaliser, exploiter, maintenir et vendre la production d’électricité de cette future installation de panneaux photovoltaïques flottants. Un projet ambitieux et innovant dont s’est fait l’écho La Provence et qui pourrait peut-être demain donner des idées à d’autres exploitants : à quand des panneaux photovoltaïques sur le Grand Canal à Venise ?

L.V. 

Publicités

Des algues à la rescousse de la planète

21 octobre 2017

A Paris, la société Suez Environnement vient d’installer une nouvelle sorte de mobilier urbain qui rappelle furieusement les antiques colonnes Morris, lesquelles parsemaient les artères de la capitale au XIXème siècle pour afficher spectacles et informations diverses. Dressée sur la place d’Alésia dans le 14ème arrondissement, au centre d’un carrefour où transitent chaque jour en moyenne pas moins de 72 000 véhicules, cette colonne d »un nouveau style, est en réalité un puits de carbone expérimental, ainsi que l’ont rapporté notamment Le Monde et Les Echos.

Colonne Morris aquarium installée place d’Alésia (photo © Gilles Rolle / REA)

Le principe de fonctionnement est des plus simples. Comme chacun sait, les algues, ainsi que tous les végétaux pourvus de chloroplastes et aptes à la photosynthèse, absorbent en présence de lumière le gaz carbonique dont elles assimilent le carbone et rejettent l’oxygène.

La colonne Morris high tech de 4 m de hauteur installée en juillet 2017 place d’Alésia par Suez en accord avec la Mairie de Paris n’est ni plus ni moins qu’un vaste aquarium de 1 m³ qui contient des microalgues. Un système de ventilation leur permet de s’alimenter avec l’air ambiant chargé en gaz carbonique et en polluants divers dont le dixyde d’azote (NO2) rejeté en grande quantité par les pots d’échappement des véhicules et dont la quantité à cet endroit dépasse régulièrement le seuil réglementaire de 40 µg/m³, selon les données d’Airparif.

Principe de fonctionnement du puits de carbone (source © SUEZ)

Des diodes électroluminescentes fournissent aux algues l’éclairage suffisant pour optimiser les réactions de photosynthèse et l’oxygène ainsi produit est rejeté dans l’air ambiant grâce au système de ventilation : rien de plus simple, il suffisait d’y penser ! A force de se goinfrer ainsi de gaz carbonique, les microalgues vont naturellement croître et se multiplier. Quand il y en aura trop, un coup de chasse d’eau et la biomasse en excès filera via le réseau d’assainissement vers la station d’épuration où elle sera transformée en biogaz. Après traitement, le méthane ainsi récupéré sera ensuite réinjecté dans le réseau de gaz naturel. Un bel exemple d’économie recyclée où l’on est gagnant à chaque étape…

Prototype en cours de test à la station d’épuration de Colombes (source © SUEZ)

Le dispositif, mis au point avec la start-up Fermentalg, basée à Libourne en Gironde et spécialisée dans la production de microalgues destinées à la nutrition humaine et animale, a fait l’objet d’une présentation lors de la COP 21 en décembre 2015. En janvier 2017, un premier test en vraie grandeur a été effectué à l’usine de traitement des eaux usées du SIAAP (Syndicat interdépartemental de l’assainissement de l’agglomération parisienne) à Colombes où un puits de carbone a été mis en place, alimenté par les gaz à effet de serre rejetés par les fumées du four d’incinération des boues de l’usine. Le système a donné entière satisfaction et la durée de vie des algues s’est révélée bien plus longue que prévu grâce à cette source d’alimentation constante en CO2.

Devant le succès de l’opération, la question s’est posée de poursuivre l’expérimentation dans un site urbain où les taux de gaz carbonique varient davantage. Célia Blauel, adjointe en charge de l’environnement à la mairie de Paris, s’est ainsi laissée convaincre et la fameuse colonne Morris a donc été installée place d’Alésia. L’objectif est de fixer une tonne de CO2 par an, soit un effet comparable à une centaine d’arbres, tout en produisant une dizaine de kg de biométhane, un objectif jugé bien modeste par certains au vu du coût de l’investissement, qui n’a pas été communiqué mais qui semble assez élevé. Le système permettra aussi d’absorber une partie des polluants atmosphériques de type oxydes de soufre, mais c’est seulement à l’issue de cette phase expérimentale qu’on pourra déterminer dans quelle proportion.

Bref, le chemin semble encore bien long avant que de telles colonnes épuratoires ne se développent dans les rues de la capitale, mais l’idée est ingénieuse et vient rappeler à quel point les algues peuvent être des auxiliaires précieux de notre vie quotidienne. Les microalgues en particulier, qui sont très abondantes dans de nombreux milieux naturels et peuvent facilement être cultivées sans nécessiter pour cela de vastes surfaces agricoles, ont un potentiel de développement dix à trente fois supérieur aux plantes terrestres, puisqu’elles sont capables de doubler leur biomasse chaque jour dans des conditions optimales.

Réacteurs photo-biologiques pour la culture de micro-algues (source © WebTV de l’Université de Nantes)

Utilisées de longue date comme nutriment, cosmétique, colorant ou complément alimentaire, les microalgues pourraient bien contribuer demain à la production de biocarburants, pour l’instant issu surtout de la transformation de soja mais au prix de l’accaparement de vastes superficies de terres agricoles. Ainsi, des chercheurs chiliens sont parvenus récemment à produire du biodiesel à base de microalgues en essayant de réduire autant que possible la quantité d’énergie nécessaire pour la croissance de ces organismes unicellulaires, mais le procédé reste pour l’instant au stade de la recherche.

Bitume bio obtenu à partir de résidus de microalgues (source © WebTV de l’Université de Nantes)

En attendant, des chercheurs du CNRS et de l’université de Nantes associés avec la société AlgoSource Technologies basée à Saint-Nazaire, sont peut-être en train de mettre au point le bitume algaire de demain, ainsi que l’a rapporté Le Monde. Leurs travaux, issus du projet Algoroute, publiés en avril 2015 dans la revue ACS Sustainable Chemistry & Engineering et qui ont fait l’objet du dépôt d’un brevet, montrent en effet qu’il est possible, en laboratoire, d’obtenir à partir de résidus de microalgues placés dans un bain d’eau chauffée sous pression, une substance visqueuse hydrophobe, qui présente des caractéristiques similaires à celles du bitume pétrolier : même couleur noire, même viscoélasticité qui assure la cohésion des granulats entrant dans la composition des revêtements routiers, et propriétés rhéologiques comparables conférant au matériau résistance et flexibilité sous l’application de charges roulantes.

Voilà en tout cas qui laisse entrevoir, pour un avenir peut-être proche, des possibilités intéressantes de substitution de certains produits dérivés de l’exploitation pétrolière. A défaut de se passer de routes et de voitures, ce sont peut-être les cultures d’algues qui permettront un jour de trouver enfin un équilibre durable entre développement économique et pérennité de notre environnement naturel…

L.V.  

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Au Cameroun, des bouteilles à la mer…

28 septembre 2017

Alors que tous les médias sont focalisés sur les inondations récentes qui se sont produites dans le sud des États-Unis et aux Antilles suite au passage des derniers cyclones Harvey puis Irma, on aurait presque tendance à oublier que bien d’autres régions du monde ont été meurtries récemment par des événements climatiques tout aussi spectaculaires. Fin août 2017, on estime ainsi que plus de 1500 personnes ont péri du fait des inondations consécutives à la mousson en Asie du Sud-Est, principalement en Inde, au Népal, au Bengladesh et au Pakistan.

Inondations à Freetown, Sierra Leone, en août 2017 (photo © Jamie Hitchen / Twitter)

Mais l’Afrique est aussi régulièrement touchée par les inondations. Cet été, c’est notamment le Sierra Leone qui a été cruellement frappé par de terribles inondations qui ont dévasté plusieurs quartiers de la capitale Freetown où un bilan provisoire établi par la Croix-Rouge faisait état, mi-août, d’au moins 312 victimes recensées tandis que de spectaculaires coulées de boues ravageaient tout sur leur passage, éventrant de nombreuses maisons et ensevelissant des dizaines de personnes.

Le Cameroun fait partie de ces pays de l’Afrique subtropicale régulièrement touché par les fortes pluies qui s’abattent en été. Le 14 septembre dernier, le site Cameroon-info, faisait ainsi état de graves inondations qui paralysent la capitale Douala après trois jours de pluies particulièrement intenses tombant sans discontinuer, tandis que le 11 septembre, la ville de Yaoundé avait déjà essuyé des inondations dévastatrices.

C’est à l’occasion d’un tel déluge qu’un jeune étudiant camerounais avait constaté, en 2011, que son quartier pouvait être envahi en moins de 30 minutes, non seulement par des eaux plus ou moins chargées, mais surtout par une véritable marée de bouteilles en plastique ! Jetées partout dans les rues et sur les dépotoirs, les bouteilles en plastique sont en effet remobilisées dès que les flots se déversent dans la ville et viennent s’accumuler dans les points bas.

Face à une telle invasion, le jeune Ismaël Essome s’est lancé le défi de trouver des débouchés à toutes ces bouteilles en plastique indésirables. Une fois obtenu son diplôme d’ingénieur en gestion environnementale, et alors qu’il travaille pour une ONG internationale à la mise en valeur du littoral camerounais, il se met en tête d’essayer de construire des pirogues en assemblant des centaines de bouteilles en plastique.

En 2014, le gouvernement camerounais a pourtant pris la décision courageuse d’interdire les emballages non biodégradables sur l’ensemble du territoire : dorénavant, les producteurs et distributeurs de liquides vendus dans des bouteilles en plastique doivent assurer leur recyclage après usage. Pourtant, force est de constater que, trois ans plus tard, des millions de bouteilles encombrent toujours les villes du pays et s’amassent dans tous les cours d’eau et fossés de drainage.

Démonstration de navigation avec une pirogue (crédit photo © Madiba et Nature)

En août 2016, comme le raconte Le Monde Afrique, et après moult essais, Ismaël Essome réussit à construire une première pirogue constituée d’un millier de bouteilles en plastique de récupération, soigneusement rebouchées, et attachées entre elles par un lien en nylon. Deux planches forment l’ossature de la pirogue et vogue la galère…

Pour piloter ce projet un peu fou, Ismaël a fondé sa propre association, dénommée Madiba et Nature, destinée à promouvoir de manière très pragmatique la préservation de l’environnement et l’économie circulaire. Aidé de son neveu, il sillonne les rues pour collecter les bouteilles usagées et améliore sans cesse la structure de ses pirogues en plastique qu’il teste sur les plages pour démontrer aux pêcheurs professionnels leur efficacité.

Une pirogue ainsi assemblée peut transporter jusqu’à trois personnes et une charge de 90 kg. Elle est plus stable qu’une pirogue en bois traditionnelle, coûte deux à trois fois moins cher et s’avère plus durable car, contrairement au bois, le plastique met très longtemps à se dégrader. Sans compter que leur construction, non seulement ne contribue pas à la déforestation du pays mais participe au contraire à assainir l’environnement de ces déchets qui l’encombrent.

Une fois son prototype au point, le jeune Camerounais a formé une équipe de cinq personnes et fait appel à des volontaires, ce qui lui a permis de construire six pirogues en un an, qu’il utilise pour faire des démonstrations et convaincre les acheteurs potentiels. Il a déjà enregistré une cinquantaine de commandes destinées à la pêche artisanale et à l’écotourisme.

Les pirogues écologiques d’Ismaël Essome sur la plage de Londji, au Cameroun (crédit photo © Josiane Kouagheu)

Ainsi, à Londji, petit village de pêcheurs situé près de Kribi, dans une zone côtière touristique du Sud-Cameroun réputée pour ses plages de sable fin et ses mangroves, le président de la coopérative tente de monter, avec l’aide d’Ismaël Essome, un projet de centre d’accueil pour le moins original : les touristes y seront hébergés dans des cases construites à l’aide de bouteilles en plastique recyclées et ils pourront déguster du poisson pêché avec les pirogues conçues par Madiba et Nature : une vraie success story à la Camerounaise…

L.V. 

Le feu de Carnoux vu de l’espace…

17 septembre 2017

Le 19 août dernier, l’incendie qui a ravagé le versant boisé situé entre Aubagne et Carnoux, menaçant gravement plusieurs maisons situées en limite nord de Carnoux, le long de l’avenue Jean Bart, a laissé de sinistres traces. Plusieurs centaines d’hectares d’espaces boisés et de garrigues sont partis en fumée, laissant un paysage noirci de cendres et d’arbres calcinés qui rappellera pour de longs mois le souvenir de cet événement. Trois semaines plus tard, lorsque les premières grosses pluies de la saison se sont abattues sur Carnoux, la forte odeur de brûlé a brutalement envahi toute la ville, comme un ultime rappel du sinistre qui a bien failli transformer toute la ville en un gigantesque brasier…

Zones brûlées sur les hauteurs de Carnoux (photo prise le 27 août 2017)

Il suffit de se promener sur les hauteurs de Carnoux comme chacun ou presque l’a fait depuis cette date pour observer les ravages du feu. Mais lorsqu’on prend un peu de hauteur, l’effet est d’autant plus saisissant. Un des outils permettant une telle observation est la famille de satellites Sentinel, qui constituent le volet spatial du programme Copernicus initié par l’Union européenne. Le déploiement de cette batterie de satellites européens, commencé il y a maintenant une dizaine d’années, est encore en cours mais plusieurs satellites sont d’ores et déjà opérationnels.

Le premier, Sentinel-1A, avait été lancé de Kourou le 3 avril 2014 et a bien failli exploser en vol avant même de pouvoir déployer ses capteurs, tout ça à cause d’un banal accident de la circulation. Heureusement, les opérateurs de l’agence spatial européenne avaient alors réussi, grâce à un léger coup d’accélérateur bien placé, à éviter de justesse le satellite américain Acrimsat, qui passait malencontreusement par là au mauvais moment. Les routes de l’espace sont plus dangereuses qu’on ne le croit…

Vue du satellite Sentinel 2 (source © ESA/ATG medialab)

Depuis, d’autres satellites ont été déployés : le petit frère, Sentinel-1B, en avril 2016, mais aussi les deux sœurs jumelles Sentinel-2A, lancé le 23 juin 2015 par Véga depuis Kourou et Sentinel-2B, qui vient de s’envoler depuis Baïkonour le 7 mars 2017, propulsé par le lanceur russe Rockot. Ce sont ces deux derniers satellites qui nous intéressent tout particulièrement car ils disposent de 13 bandes spectrales allant du visible au moyen infra-rouge et permettant de prendre des clichés avec une résolution de 10 à 60 m. A eux deux, ils permettent de couvrir la quasi totalité des terres émergées avec des prises de vues espacées de 5 jours seulement, ce qui en fait des mouchards particulièrement efficaces.

Les clichés pris dans l’infra-rouge sont surtout utiles pour analyser l’occupation des sols car cette technique permet notamment de mettre en évidence certaines distinctions qui n’apparaissent pas aussi clairement dans le spectre visible. Elle permet en particulier de détecter des différences de température mais aussi d’humidité des sols, de couvert végétal et bien d’autres éléments très utiles notamment dans l’agriculture et le suivi des catastrophes naturelles.

Vue satellite de l’incendie du 19 août entre Aubagne et Carnoux (7 septembre 2017 – source © Sentinel hub)

Une partie des données issues de ces observations satellitaires étant en libre accès sur l’application Sentinel hub, il est assez aisé de rechercher, via un outil de visualisation ouvert à tous, des images d’archives prises par Sentinel 2. Celle du 7 septembre 2107 ne manque pas d’intérêt puisque prise quelques jours seulement après l’incendie qui est venu lécher la commune de Carnoux. Le cliché est assez spectaculaire car la restitution via l’exploitation de plusieurs canaux infrarouges met parfaitement en évidence les surfaces brûlées. On y décèle clairement le point de départ de l’incendie et sa propagation jusqu’aux portes de Carnoux, ainsi que les coupe-feux qui ont permis aux pompiers d’en stopper la progression.

Les plus curieux (et bien entendu les Varois) seront naturellement enclins à déplacer le curseur vers la droite de la carte, ce qui permet de mettre en évidence les foyers qui se sont déclarés cet été dans le département voisin qui a, cette année, payé un très lourd tribut avec 3 660 hectares de forêts ravagées par le feu en juillet-août 2017.

Vue satellite des deux incendies du 25 juillet et du 2 septembre aux alentours de La Londe-les-Maures, dans le Var (14 septembre 2017 – source © Sentinel hub)

 On y repère notamment les trois plus importants d’entre eux qui ont eu lieu le 24 juillet à la Croix-Valmer (518 ha) et à Artigues (1 704 ha) et le 25 juillet entre La Londe–les-Maures et Bormes-les-Mimosas (1 418 ha), suivi d’un autre qui s’est déclaré le 2 septembre entre Hyères et La Londe (460 ha). On est loin des chiffres de l’année 2003 où près de 19 000 hectares étaient partis en fumée dans le seul département du Var, causant la mort de 3 pompiers et de 4 autres personnes, mais ce nouvel été meurtier vient rappeler, si besoin était, à quel point les espaces méditerranéens sont vulnérables aux feux de forêt.

Vue satellite de l’incendie du 11 août dans le Cap Corse (30 août 2017 – source © Sentinel hub)

Et si l’on prend la peine de se décaler un peu vers le sud-est jusqu’aux rivages corses, la photo satellite met en évidence d’autres zones calcinées, en particulier au droit du cap Corse. Une tâche noirâtre barre entre Pietracorbara et Sisco toute la largeur de ce que certains irrévérencieux ont comparé à un doigt d’honneur tendu vers la métropole : c’est la signature de l’incendie qui s’est déclenché près de Nonza, sur la côte ouest, dans la nuit du 10 au 11 août 2017 et qui a traversé le cap Corse dans toute sa largeur, brûlant au passage plus de 2000 ha de forêts et de maquis, et obligeant à évacuer pas moins d’un millier de personnes.

Un autre incendie est particulièrement visible sur ces images satellite et montre à quel point les habitations situés en lisière de zone boisée peuvent être exposées : il s’agit de celui d’Olmeta-di-Tuda qui a parcouru de l’ordre de 2200 ha entre le 24 et le 29 juillet et a été arrêté in extremis en bordure des lotissements de la zone très urbanisée de Biguglia, au sud de Bastia.

Vue satellite de l’incendie du 24 juillet au sud de Bastia (30 août 2017 – source © Sentinel hub)

De nombreuses autres images tout aussi spectaculaires sont visibles sur ce site, envoyées depuis l’espace par les satellites Sentinel, dont celles des récents cyclones qui ont ravagé les Antilles et le sud des États-Unis, venant opportunément nous rappeler à quel point les aménagements faits par l’Homme sont vulnérables face aux éléments naturels…

L.V.  

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Le futur téléphérique de Marseille

5 septembre 2017

Alors que la Région PACA dépense des millions pour équiper en canons à neige la station de ski de Super Sauze, si chère à son ancien Président Christian Estrosi, et si coûteuse pour ses malheureux électeurs contribuables, voilà que le maire de Marseille, Jean-Claude Gaudin, se prend à rêver d’installer un téléphérique pour monter à la Bonne Mère depuis le Vieux-Port, et ce n’est pas une galéjade…

Un skieur devant la basilique Notre-Dame de la Garde à Marseille le 7 janvier 2009 (Photo Jean-Paul Pélissier / Reuters)

Il est vrai qu’en janvier 2009 les chutes de neige qui avaient paralysé pour quelques heures la capitale phocéenne avaient démontré l’excellente qualité du domaine skiable qui s’étend sur les pentes de la colline de Notre-Dame de la Garde, laquelle culmine tout de même, rappelons-le, à 162 m d’altitude. De quoi donner des envies d’aménager des remontées mécaniques depuis le Vieux-Port situé en contrebas.

Soyons honnête, l’idée de la Ville de Marseille, portée par l’adjoint délégué aux grands projets et par ailleurs vice-président de la Métropole, Gérard Chenoz, n’est pas de développer les sports d’hiver à Marseille. Son objectif est simplement d’installer une liaison par téléphérique pour faciliter la desserte touristique de ce site qui reçoit chaque année 1,8 millions de visiteurs en moyenne. Pour un coût estimé à 15 millions d’euros en première approche, la liaison entre le Vieux Port et la basilique ne prendrait en effet que 6 minutes en survolant allègrement la zone urbanisée.

Les voies d’accès à la basilique étant largement saturées et peu adaptées à la circulation routière, l’idée d’une liaison par câble est en effet séduisante. Elle n’est d’ailleurs pas nouvelle et a même été mise en pratique sous une forme un peu différente il y a plus d’un siècle.

L’ancien ascenseur de Notre-Dame de la Garde, qui a pu transporter jusqu’à 15 000 personnes par jour, avait en effet été mis en service en 1892. Conçu par l’ingénieur Emile Maslin l’ascenseur avait été édifié à l’emplacement d’une ancienne carrière, sur l’autre versant de la colline et permettait de rallier la Bonne Mère via une passerelle métallique de 80 m de longueur, construite par la société Eiffel.

L’ancien ascenseur qui permettait d’accéder à Notre-Dame de la Garde jusqu’en 1967

Le système d’ascenseur lui-même était particulièrement simple et ingénieux puisque constitué de deux cabines en bois guidées par deux rails et une crémaillère équipée d’un câble. Chaque cabine était surmontée d’un réservoir de 6000 l d’eau. Pendant que la cabine du bas se vidait, celle du haut se remplissait à l’aide d’un réservoir situé sur la passerelle, s’alourdissant jusqu’à descendre la rampe de 72 m de dénivelée, freinée dans sa chute par le poids de la cabine ascendante, et ceci sans autre source d’énergie que les pompes permettant de remplir périodiquement le réservoir du haut.

Un dispositif rustique (et particulièrement bruyant !) qui a fonctionné sans encombres pendant 75 ans, jusqu’en 1967, période à laquelle la concurrence de l’automobile, devenue trop rude, finit par l’emporter. Le système sera finalement démonté en 1974, emporté par le vent de modernité qui souffle à cette époque… Et voilà que, comme pour les anciens tramways, on cherche désormais à reconstituer une forme de transport qui prenne à son tour la place de la voiture dont on ne mesure maintenant que trop les désagréments en site urbain dense.

L’idée du téléphérique fait partie des promesses de campagne de Jean-Claude Gaudin et a fait l’objet d’une première étude de faisabilité dès 2014 en vue d’obtenir des financements de la part de l’Etat. Ce dernier a néanmoins fait la sourde oreille et préféré soutenir le projet de prolongement du tramway, également mis à l’étude.

Le tracé provisoire envisagé pour le futur téléphérique (source © Made in Marseille)

Qu’à cela ne tienne, la municipalité revient à la charge avec un projet plus modeste qui se limite à une simple liaison, sur une longueur d’environ 1 km, entre le Fort d’Entrecasteaux et Notre-Dame de la Garde. Le projet a été adopté par le Conseil municipal le 5 décembre 2016, permettant de débloquer une nouvelle enveloppe de 1 million d’euros pour relancer ces études de faisabilité. Un appel d’offre vient ainsi d’être lancé au cours de l’été, afin de sélectionner un assistant à maîtrise d’ouvrage chargé d’épauler la collectivité, d’abord dans le montage administratif, juridique et technique du dossier puis dans la sélection du constructeur et éventuellement dans le suivi des travaux, si d’aventure le projet va jusqu’à son terme, l’objectif visé étant une mise en service en 2020.

Le téléphérique du Mont Faron à Toulon (photo © RB / Var Matin)

A priori, l’idée paraît séduisante et de nombreuses autres villes se sont déjà dotées de ce type de transport urbain particulièrement adapté pour les zones à fort dénivelée. Celui du Mont Faron mis en service à Toulon en 1959, ou encore celui de la Bastille à Grenoble, qui fonctionne depuis 1934, confirment, s’il en était besoin, la fiabilité de ce type d’installation.

Le téléphérique de Brest, inauguré le 19 novembre 2016 par Ségolène Royal et souvent en panne depuis…

Celui qui a été inauguré à Brest en novembre 2016, pour relier les deux rives de la Penfeld et desservir le nouveau quartier des Capucins, a en revanche connu quelques déboires retentissants. L’ouverture intempestif de la porte d’une des cabines et de multiples défaillances de capteurs l’ont obligé à un arrêt technique pendant un mois juste après sa mise en service. Quelques jours seulement après son redémarrage, il a subi une panne informatique puis de nouveau des problèmes liés au déclenchement d’une alarme, de quoi pimenter quelque peu le trajet quotidien de la soixantaine de voyageurs qui peuvent s’entasser dans sa cabine.

La carrière antique de la Corderie, actuellement menacée par les tractopelles de Vinci (photo publiée par la Marseillaise)

Il n’en reste pas moins que le site de Notre-Dame de la Garde n’est pas forcément si simple à équiper et les contraintes sont multiples, à commencer par le Mistral qui rend le dispositif inexploitable lorsque la vitesse des rafales dépasse les 100 km/h, n’en déplaise aux amateurs de sensations fortes. Le survol de zones habitées peut également déplaire aux riverains, bien que la loi en la matière se soit récemment assouplie et qu’il existe désormais des techniques permettant de voiler temporairement les vitrages dans les zones sensibles. Et ceci sans parler des contraintes réglementaires car les 15 hectares de la colline de Notre-Dame de la Garde sont classés depuis 1917, tandis que le Vieux Port l’est depuis 1932 et qu’un arrêté de classement se fait attendre pour la carrière antique de la Corderie.

Pas sûr cependant que tout ceci n’arrête un Jean-Claude Gaudin qui, après s’être accroché pendant plus de 22 ans à son siège de maire, tient désormais fermement à son télésiège vers la Bonne Mère…

L.V.

Un nouveau château en Espagne

28 août 2017

L’architecte américano-canadien Franck Gehry fait assurément partie de ces starchitectes dont l’oeuvre ne laisse pas indifférent. Concepteur notamment du musée Guggenheim à Bilbao, de la Fondation Louis Vuitton à Paris, de la maison dansante à Prague ou encore de la tour de la fondation Luma en cours de construction à Arles, ses œuvres sont tout sauf classiques. Défiant les lois de la pesanteur, les bâtiments qu’il conçoit, parfois en s’inspirant simplement d’une boule de papier froissé, semblent totalement déstructurés, déformés, bancals et pour tout dire complètement loufoques, bousculant tous les principes architecturaux les plus solidement établis.

Vue d’ensemble de la Bodega Marqués de Riscal (source : Hotel Marqués de Riscal)

Parmi ces chantiers, il en est un qui retient particulièrement l’attention. C’est celui de l’hôtel de luxe édifié en 2006 sur une propriété viticole espagnole, Marqués de Riscal. Située à proximité de la ville médiévale d’Elciego, dans la vallée de l’Ebre, à mi-chemin entre Burgos et Pampelune, ce vignoble est aussi ancien que réputé. Fondée en 1860 par Camilo Hurtado de Amézaga, marquis de Riscal, un aristocrate acquis aux idées libérales et empreint de culture française, la maison Herederos del marqués de Riscal est désormais à la tête d’un domaine qui s’étend sur pas moins de 1500 ha avec des vignes en terrasses cultivées de manière extensive et surplombant la vallée de l’Ebre.

La bodega et les vignobles à proximité du village d’Elciego

Une partie des 180000 bouteilles stockées dans les chais

Une partie des caves date de 1858 et leur extension a été réalisée en 1883. Depuis, la marque est devenue un géant du vin espagnol de la Rioja, avec plus de 5 millions de bouteilles vendues annuellement, dont 70 % à l’export, et a même racheté, en 2010, 350 ha de vignobles à l’un de ses concurrents, le Français Pernod Ricard. Ici, on n’est plus dans le monde artisanal des vignerons à l’ancienne…

Mais le génie commercial de cette véritable entreprise viticole qu’est devenu le domaine Marqués de Riscal réside dans l’investissement hôtelier très haut de gamme conçu il y a maintenant plus de 10 ans pour attirer sur la propriété une clientèle aisée autour d’une véritable Cité du vin, vaste lieu d’accueil thématique de quelque 100 000 m2 consacré à l’élaboration, au soin et à l’étude du vin, entouré d’un complexe hôtelier luxueux assorti de salles de réception et de réunions.

Et c’est là que la patte de l’architecte Franck Gehry a su donner toute l’originalité qu’il fallait pour que cet immense complexe hôtelier et touristique perdu au milieu des vignes, dans un cadre enchanteur avec le village médiéval d’Elciego en arrière plan, devienne un site d’attaction proprement extraordinaire du fait de sa conception pour le moins originale. Il faut dire que si le projet date de 1998, il a fallu du temps, et de nombreuses dégustations de Rioja, pour convaincre l’architecte Franck Gehry, de s’engager dans la conception de cette bodega atypique, mais le résultat vaut le détour !

Les rubans en titane (source : Hôtel Marqués de Riscal)

Le bâtiment lui-même évoque vaguement une forme de cep de vigne avec ses piliers évasés vers le ciel qui supportent des éléments de forme cubiques disposés de manière apparemment très anarchique, avec de grandes ouvertures d’orientation variée. Le tout est enveloppé et surmonté de volutes enrubannées métalliques servant de pare-soleil, en acier inoxydable et titane, dans les tons rose, or et argent, sensé évoquer les teintes du vin, des capsules et de la maille dorée qui orne les bouteilles de la propriété. Vu de loin et en fonction des reflets de la lumière, l’effet est saisissant de voir ces rubans métalliques émerger au dessus des rangées de vignes, tels un paquet cadeau abandonné au milieu des ceps…

Des façades qui se marient avec celles des bâtiments anciens (source : Hôtel Marqués de Riscal)

Les façades sont en pierre, taillées dans le grès local, ce qui leur donne une certaine parenté avec celles des bâtiments historiques tout proches. Quant à l’aménagement intérieur, il est à l’avenant, de nombreux éléments ayant été dessinés par l’architecte lui-même. On y compte 43 chambres et suites luxueuses, accessibles pour la somme modique de 310 € la nuit pour les plus modestes d’entre elles, jusqu’à 800 € pour ceux qui ne comptent pas bouder leur plaisir en regardant à la dépense…

Une des 43 chambres de l’établissement (source : Hôtel Marqués de Riscal)

Le lieu, qui accueille désormais 70 000 visiteurs chaque année, dispose de surcroît de deux restaurants dont l’un tenu par un chef étoilé, de nombreuses salles de réunion et de réception, y compris pour ceux qui veulent s’y marier en grandes pompes, et bien entendu d’un spa luxueux où l’on pratique notamment la vinothérapie qui consiste en un bain dans une barrique en bois remplie d’un mélange à base de marc de raisin…

Le spa de l’hôtel (source : Hôtel Marqués de Riscal)

Destiné manifestement à une clientèle huppée et capable de dépenser sans compter, ce type d’établissement ne laisse cependant pas indifférent du fait de son architecture pour le moins originale, dont la conception a nécessité des études numériques poussées en trois dimensions et même des essais en soufflerie pour vérifier que les volutes en titane n’allaient pas s’envoler à la moindre brise. Quant à la réalisation d’une construction aussi biscornue, dont le coût reste tenu secret, on n’ose même pas imaginer le dialogue au jour le jour entre son concepteur et les entreprises en charge de concrétiser sur le chantier un projet aussi audacieux…

L.V.  

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Gardanne valorise ses friches minières

22 août 2017

La ville de Gardanne fait partie de ces terroirs durablement marqués par l’extraction minière. Dès le 18e siècle, de nombreux habitants de la région s’adonnaient à l’exploitation du charbon de terre pour pallier la rareté du bois de chauffage. Au début du 19e siècle, on compte ainsi déjà plus de 80 puits de mines en activité et sans doute 200 déjà abandonnés.

L’arrivée du chemin de fer accélère le mouvement et les années 1880-90 voient à la fois le creusement du premier puits de mine moderne au coeur de la cité minière de Biver, et l’installation de l’usine Péchiney d’alumine, qui profite du lignite de Gardanne et de la bauxite extraite dans le bassin minier varois tout proche. C’est cette même usine qui sera à l’origine des rejets en mer de boues rouges dans les années 1960 et qui défraie toujours la chronique sous son nouveau nom d’Alteo. Après la deuxième guerre mondiale, enfin, est édifiée la centrale thermique de Meyreuil, alimentée par le lignite dont l’extraction bat alors son plein à Gardanne.

Mais tout cycle minier a une fin. L’exploitation du lignite de Gardanne stagne à partir des années 1960. Soutenue artificiellement pour des raisons politiques, la production s’effondre à partir des années 1990 et le dernier puits ferme en 2003. Alors que l’industrie minière employait jusqu’à 6500 personnes au début des années 1950, à une période où le site attirait une forte population de travailleurs immigrés, et encore autour de 2000 après la relance de l’activité impulsée en 1981, il ne restait plus que 600 à 700 mineurs encore employés au moment de la fermeture du dernier site.

Depuis, la ville de Gardanne s’efforce de retrouver un nouveau souffle, à l’image du bassin d’emploi voisin, qui s’étend sur les communes de Peynier, Fuveau et Rousset, où s’est développée depuis les années 1960 une activité industrielle florissante axée sur la micro-électronique. L’histoire de cette zone d’activité est d’ailleurs très intéressante car liée étroitement au déclin de l’extraction minière comme l’a bien analysé Olivier Lambert, professeur à l’université d’Aix-Marseille et spécialiste de l’histoire industrielle locale.

Zone industrielle de Peynier-Rousset vue d’avion (source : Pays d’Aix développement)

Cette zone industrielle de Peynier-Rousset, créée en 1961, est en effet située dans le même bassin minier que Gardanne, situé à une quinzaine de km seulement. Les premiers puits pour l’exploitation du lignite y ont été creusés à partir de 1912 et une usine de production d’alumine y est construite à partir de 1917 par les Norvégiens de la Norsk Aluminium Company qui ont bien repéré l’intérêt des lieux, situés à proximité des futures mines de lignite en cours d’aménagement, de la vallée de l’Arc, source d’eau abondante, et de la voie ferrée Carnoules-Gardanne, pourvoyeuse de la bauxite varoise.

Mais en décembre 1918, alors que le creusement des puits atteint 425 m de profondeur, l’eau de la nappe s’engouffre brusquement dans les travaux miniers et ruine définitivement toute velléité d’exploitation houillère. Echaudés par cet échec industriel, les Norvégiens se retirent également. De nouveaux projets industriels sont bien relancés dans les années 1940 pour valoriser l’usine d’alumine en vue de produire des carburants de synthèse puis du gaz de ville, mais sans succès et en 1949, l’ensemble des terrains et des bâtiments est racheté par les Houillères du bassin de Provence, issues de la nationalisation des mines de charbon décidée à la Libération.

Ce sont donc les Houillères qui seront à l’origine de la création de la zone industrielle de Peynier-Rousset, la première des Bouches-du-Rhône, en 1961, déjà dans une perspective de reconversion pour pallier la baisse d’activité inéluctable de l’extraction du lignite de Gardanne. Fortement aidée à coup de subventions publiques et malgré certaines implantations durables comme celle de Volvic qui y produit son jus de fruit Oasis avec l’eau du puits de l’Arc, la zone industrielle vivote pendant une vingtaine d’années, tenue à bout de bras par les Houillères.

En 1979, la zone industrielle prend enfin son essor avec l’arrivée d’Eurotechnique, issu d’une association entre les Américains de National Semiconductor et le Français Saint-Gobain. La première usine de fabrication de puces électroniques au silicium est construite à Rousset. Elle passera en 1983 dans le giron de Thomson avant de rejoindre en 1987 SGS-Thomson, une nouvelle société franco-italienne de semi-conducteurs qui prendra plus tard son nom actuel de STMicroelectronics.

Effectifs des Houillères et de la zone industrielle de Rousset entre 1945 et 2010 (source : O. Lambert / revue Rives, 2013)

Depuis, ce site est devenu un pôle d’activités prospère tourné vers la microélectronique et les nouvelles technologies, qui employait en 2013 de l’ordre de 7000 personnes, soit davantage que l’industrie minière de Gardanne à son apogée, sans pour autant qu’il s’agisse d’une véritable reconversion industrielle même si le contexte politico-économique mis en place par l’action des Houillères et les nombreuses aides publiques à la reconversion de cet ex-bassin minier ont fortement contribué à ce succès.

Centre Georges Charpak à Gardanne (source : Ville de Gardanne)

Nul doute en tout cas que la ville de Gardanne souhaite manifestement s’inspirer de cet exemple pour assurer l’avenir de ses propres friches minières. L’inauguration en 2008 du centre de microélectronique Georges Charpak, rattaché à l’école des mines de Saint-Étienne, sur un campus de 6 ha, partie prenante du pôle de compétitivité « Solutions communicantes innovantes », illustre bien cette volonté de s’inscrire dans un environnement technologique en pleine évolution.

Centrale thermique de Meyreuil

En parallèle, la centrale thermique à charbon de Meyreuil, d’abord détenue par une filiale de Charbonnage de France, et désormais dans les mains de l’énergéticien allemand Uniper, tente une conversion difficile d’une des deux unités vers une centrale à biomasse. Le projet, lancé en 2103 et pour lequel ont déjà été investis 250 millions d’euros, devrait permettre à terme de brûler 850 000 t de bois chaque année, issus pour moitié de déchets et pour moitié de coupes de bois. C’est cependant ce dernier point qui inquiète fortement les associations locales de défense de l’environnement puisque cela reviendrait à prélever un tiers du gisement forestier disponible dans un rayon de 250 km… Le Tribunal administratif de Marseille a d’ailleurs annulé, le 8 juin dernier, l’autorisation d’exploitation accordée à la centrale !

Quant aux anciennes installations minières elles-mêmes, la ville tente de les valoriser après avoir racheté en 2006 les emprises du puits Morandat et du puits Z. Les puits ont été au préalable mis en sécurité et obturés en tête par des dalles en béton armé très épaisses pour éviter tout risque d’effondrement. La SEMAG (Société mixte d’aménagement de Gardanne) est ainsi à l’oeuvre pour réaménager les 14 ha de la future zone d’activité qui sera développée autour du puits Morandat, avec pour objectif l’implantations d’entreprises innovantes et de PME axées vers l’économie sociale et solidaire, permettant de générer près d’un millier d’emplois selon les prévisions les plus optimistes.

L’ancien hall des mineurs accueille d’ores et déjà une pépinière d’entreprises tandis que le bâtiment du Parc héberge l’unité territoriale après-mine créée par le BRGM et Charbonages de France pour gérer la mise en sécurité des anciennes mines dans le tiers sud-est de la France.

Le chevalement de l’ancien puits Morandat (source : Ville de Gardanne)

Les travaux de viabilisation ont déjà été lancés en vue d »aménager les premières tranches destinées à l’accueil d’entreprises. Il est notamment prévu la fourniture de chaleur via un réseau qui exploite le gisement géothermique des anciennes galeries minières désormais ennoyées. Une société spécifique, dénommée Énergie solidaire, a été créée pour cela, via une association entre la SEMAG et Dalkia EDF. Elle prévoit un investissement de 4 millions d’euros, la moitié de l’électricité nécessaire pour faire fonctionner la station de pompage étant issue de panneaux photovoltaïques.

Le chevalement du puits Morandat pourrait, quant à lui, être reconverti en un restaurant panoramique tandis que l’ancien vestiaire des mineurs devrait accueillir d’ici 2022 un centre de culture scientifique et technique imaginé dans l’esprit de la Cité des sciences de la Villette à Paris. Bref, les projets ne manquent pas à Gardanne pour valoriser ces anciennes friches minières, sans totalement tourner le dos à un passé dont la ville continue à s’enorgueillir.

L.V.  

Monaco gagne (encore) sur la mer…

31 juillet 2017

Dans la principauté de Monaco, minuscule confetti enclavé sur le territoire français pour des raisons historiques, la conquête de l’espace est une préoccupation constante. Avec une superficie totale qui ne dépasse pas 2 km2, (202 hectares très précisément, nettement moins donc que la commune de Carnoux qui s’étend, mine de rien, sur 345 ha !) c’est le deuxième plus petit État indépendant au monde (derrière le Vatican). Sauf que la population qui s’entasse sur cet espace ridicule s’élève à 38 500 habitants au dernier recensement de 2016, soit une des densités les plus fortes du monde avec plus de 18 000 habitants au km2.

Sommet de la Tour Odéon à Monaco

Pas étonnant que dans ces conditions, le prix du foncier atteigne des sommets vertigineux, plaçant Monaco en tête du classement mondial des villes où se loger coûte le plus cher. A Monaco, un bel appartement se négocie autour de 45 000 € le m2. C’est en moyenne 15 % de plus qu’à Hong Kong et 40 % plus cher qu’à Londres, plus du double de Paris où le prix de l’immobilier de luxe oscille autour de 20 000 € le m2, une misère… Achevée en 2015, la double tour Odéon qui s’élève à 170 m de hauteur dans le quartier de l’Annonciade, a vu ses appartements se négocier autour de 55 000 à 70 000 € le m2. Quant au penthouse qui s’étend au sommet de la tour sur 3 300 m2 répartis sur 5 niveaux, avec piscine à toboggan, fitness et vue plongeante sur la mer, il peut s’enorgueillir d’être à ce jour l’appartement le plus cher du monde, vendu pour la modique somme de 300 millions d’euros, soit un prix de revient de 91 000 € le m2.

Dans un tel contexte, chaque mètre carré compte et la solution la plus simple pour ce territoire côtier, à défaut de pouvoir se lancer dans des guerres de colonisation d’un autre âge, est d’empiéter toujours davantage sur le domaine maritime. Dès 1865, un premier remblai a ainsi été réalisé pour y permettre le passage de la voie ferrée, rapidement suivi par la construction du quartier industriel de Fontvielle gagné sur la mer sur une surface de 5,5 ha. Depuis, les Monégasques ne s’arrêtent plus et repoussent sans cesse la ligne de rivage. Ces dernières années, ce sont ainsi plus de 40 hectares qui ont été gagnés sur la mer, permettant d’agrandir toujours plus le terrain disponible pour de nouvelles constructions. Même le stade Louis II de l’AS Monaco a été construit sur la mer…

Photomontage du futur quartier en construction (© Valode et Pistre)

Et ce n’est pas fini puisqu’un nouveau chantier a été lancé fin 2016. Il s’agit cette fois de construire une nouvelle plateforme de 6 hectares gagnée sur l’eau dans l’Anse du Portier, dans le prolongement du Grimaldi forum. Un chantier totalement pharaonique qui coûtera 2 milliards d’euros mais pour lequel le gouvernement de la principauté ne déboursera pas un centime puisque ce sont les entreprises, au premier rang desquelles Bouygues Construction, qui avancent l’argent en espérant bien se faire largement payer en retour par la vente des 60 000 m2 de logements ainsi construits.

Maquette du nouveau quartier d’habitation (capture video © Valode et Pistre)

Bien entendu, il s’agit d’immeubles de haut standing, labellisés écoquartier, avec panneaux solaires et climatisation par pompes à chaleur alimentées à l’eau de mer, disséminés au milieu d’un parc arboré de 1 ha, avec parkings, équipements publics, port de plaisance d’une trentaine d’anneaux, 3 000 m2 de commerces et promenade littorale. Un éden pour milliardaires, dont l’architecture a été conçue par le célèbre architecte Renzo Piano.

Nacre Nobilis, plus grand coquillage de Méditerranée (photo © David Luquet)

Pour bâtir une telle infrastructure dans des fonds marins dont la profondeur atteint jusqu’à 50 m et qui s’étendent entre deux zones naturelles, la réserve du Larvotto et le tombant des Spélugues, une préparation s’impose, qui consiste notamment à transplanter les posidonies et à évacuer les nacres géantes qui peuplent ces fonds sous-marins autrefois d’une grande richesse. Ces travaux préparatoires ont déjà eu lieu, à l’automne 2016, sans émouvoir grand monde tant les Monégasques se moquent comme d’une guigne de la qualité de leurs fonds marins, sur une partie du littoral où près de 90 % des fonds entre 0 et 8 m de profondeur ont d’ores et déjà été détruits, selon un biologiste niçois.

Place désormais aux travaux de génie civil maritime ! Ils ont débuté en avril 2017, pilotés par l’entreprise belge Jean de Nul. La première étape a consisté à déposer 30 000 m3 d’enrochement qui seront stockés, nettoyés puis réutilisés. Le chantier est maintenant entré dans sa deuxième phase qui consiste à draguer les sédiments pollués reposant au fond de l’Anse du Portier, et ceci à l’aide d’une pelle équipée d’un godet étanche de 8 m3 et capable de descendre jusqu’à 32 m de fonds. Cette pelle hors norme ainsi qu’une grue à câble pour les secteurs les plus profonds, sont elles-mêmes installées sur une barge ancrée dans le sol sous-marin via des pieux de 40 m…

Schéma de principe des caissons périphériques (© Valode et Pistre)

Deux barges de transport assurent l’évacuation des sédiments jusqu’à un centre de traitement et de valorisation installé à La Seyne-sur-Mer. D’ici la fin de l’été, une fois les sédiments pollués ainsi retirés, c’est le reste du sable qui va être aspiré jusqu’à atteindre le substratum rocheux. Au total, plus de 400 000 m3 de matériaux devraient ainsi être aspirés puis rejetés en mer à quelques km de la côte, par 200 m de fond. Une fois le sol mis à nu, une assise constituée de 1,6 millions de tonnes de cailloux lavés et concassés, acheminés depuis une carrière de Châteauneuf-les-Martigues, sera mise en place pour servir de support aux 18 caissons en béton armé, de 27 m de hauteur, qui constitueront le corps de la digue périphérique.

La future plateforme et son enceinte étanche constituée de caissons en béton (capture video © Valode et Pistre)

Ces caissons, qui pèsent 10 000 t chacun, seront préfabriqués dans la forme 10 du port de Marseille, à partir du mois de septembre prochain. Il s’agira d’un processus particulièrement complexe puisque le coulage du béton se fera au fur et à mesure de l’immersion du caisson. Une fois les caissons mis en place, le remblaiement de la plateforme pourra commencer, avec du sable prélevé au large de la Sicile et acheminé au moyen de la plus grosse drague du monde, capable d’apporter 40 000 m3 de sable à chaque voyage : une quinzaine de rotations devraient être nécessaire…

C’est en mars 2020 seulement, si tout va bien, que la nouvelle plateforme pourra, après compactage, commencer à recevoir les premières constructions. La livraison des premiers logements est, quant à elle, programmée pour 2022 : avis aux amateurs fortunés qui souhaiteraient y investir leurs deniers !

L.V. 

Marseille, nouveau roi du coffre-fort numérique ?

22 juillet 2017

Longtemps reconnue mondialement pour son rôle de port colonial, puis pour celui de cerveau de la French connexion et pour sa réputation déplorable de violence urbaine, Marseille tente depuis des années de se forger une nouvelle image de port d’accueil pour le tourisme de la croisière de luxe. Mais c’est dans un tout autre domaine que la ville est en train de connaître un développement inattendu : celui des data centers, ces coffres-forts modernes où sont stockées physiquement les milliards de données numériques que l’on a tendance à imaginer évaporées sur un nuage éthéré, le fameux « Cloud »…

Salle blanche pour le stockage des baies informatiques

Car la tendance actuelle en informatique est d’avoir des ordinateurs de plus en plus puissants mais paradoxalement de plus en plus vides, ce qui génère des flux de données croissant et totalement gigantesques à travers la planète entière. Les logiciels et le stockage de données, qui prend de plus en plus de place, sont désormais hébergés sur des serveurs situés on ne sait où, chez un prestataire informatique qui conserve de manière sécurisée nos données personnelles.

Un tel service d’hébergement des données numériques personnelles (nos photos, la vidéo des premiers pas du petit dernier, nos courriels, nos fiches de paies et autres papiers administratifs, nos fichiers numériques, etc.) est même fourni gratuitement par la plupart des fournisseurs d’accès internet, bien trop contents de récupérer ainsi à bon compte toutes nos données personnelles qui seront ensuite valorisées pour développer des sollicitations commerciales adaptées à nos centres d’intérêts personnels. C’est aussi un service payant qu’offrent de plus en plus de prestataires, tels que la Poste ou la Caisse d’Epargne, sous le nom de « coffres-forts numériques ».

Il s’est ainsi créé un nouveau marché très juteux, celui du stockage sécurisé de données numériques. Du fait de l’importance vitale de toutes ces données numériques qu’il convient d’archiver pour de longue durées tout en en conservant une parfaite traçabilité et en étant sûr de pouvoir les retrouver et les exploiter à tout moment, de nombreux prestataires sont ainsi apparus qui proposent de garantir la disponibilité, l’intégrité et la pérennité de ces données, moyennant juste rétribution…

Comme les château-forts d’antan, ces nouveaux coffres-forts numériques que sont les data centers sont conçus avec de multiples barrières de sécurité successives, ainsi que l’explique Fabrice Coquio, président d’Interxion France, un groupe néerlandais fondé en 1988, qui héberge les serveurs informatiques de plus de 200 clients dont Microsoft, Amazon, Facebook, Twitter, Yahoo, etc.

Comme tout château fort qui se respecte, il faut bien entendu une muraille solide, avec plusieurs niveaux de protections successifs : l’enceinte du bâtiment, protégée par barrières infra-rouges et vidéo surveillance avec détection de mouvement et vision nocturne, le bâtiment lui-même, équipé de sas d’accès sous alarmes, d’accès anti-effraction et de vidéo surveillance, les salles de stockage ensuite, protégées par contrôle d’accès et par système biométrique, et enfin les baies qui sont les systèmes informatiques dans lesquels sont stockées les données numériques, elles-mêmes rassemblées au sein de cubes fermés à l’aide d’un code ou d’un système de clé.

Autout du château s’étendent bien entendu, les douves, matérialisées ici par les systèmes de sécurisation des réseaux, sous forme de fibre noire cryptée qui fait transiter les données grâce à des signaux encodés. Quant aux armées qui gardent le château, ce sont les agents de sécurité habilités qui assurent une veille sur site 24h/24. Enfin, le donjon qui est consitué par le poste de pilotage et de commande par lequel transitent toutes les informations nécessaires à la maintenance du bâtiment.

Les bâtiments du premier data center d’Interxion implanté à Marseille depuis 2015 (source © Interxion)

Reste à savoir où implanter ces châteaux-forts de l’ère numérique. Et c’est là que Marseille se révèle, parmi d’autres, comme un emplacement particulièrement favorable. La présence de 13 câbles sous-marins qui arrivent ici en font en effet un point névralgique pour les échanges digitaux et télécoms entre l’Europe, le Moyen-Orient, l’Afrique et l’Asie. Les grands acteurs du Cloud ont bien repéré cette spécificité et l’activité tend donc à se développer.

C’est ainsi que la société Interxion y a ouvert en 2015 son huitième centre français de stockage, dans les locaux d’un ancien site SFR basé à la Joliette. Un investissement de 45 millions d’euros pour une surface utile qui sera portée à terme à 5 700 m² et une puissance électrique installée de 6 MW. Et ce n’est pas fini puisque cette société, numéro 2 mondial, qui exploite désormais 45 data centers à travers l’Europe, compte ouvrir deux nouveaux sites marseillais mitoyens, dans le secteur du cap Janet, à l’Estaque.

La halle Freyssinet du Cap Janet et la base U-boot attenante (photo © Kariyou)

Une maquette du futur centre MRS2 dans la halle Freyssinet rénovée (source © Interxion)

Le premier, dont la première pierre vient d’être posée à l’occasion d’un grand raout officiel en présence de Jean-Claude Gaudin, de Gérard Gazay et de Christine Cabau-Woehrel, présidente du Grand Port maritime de Marseille, se développera dans les locaux désaffectés des anciens ateliers de réparation navale Fouré-Lagadec, inoccupés depuis 1995. Il s’agit d’une vaste halle Freyssinet, c’est à dire conçue sur le modèle du gigantesque hangar à trois nefs surmontées de voûtes cylindriques minces que l’ingénieur Eugène Freyssinet avait conçu et réalisé en 1929 pour abriter les voies de la gare d’Austerlitz. Un ouvrage de référence, inscrit depuis 2012 au titre des monuments historiques, et dont la conception a inspiré un très grand nombre de hangars militaires, aéroportuaires et industriels à travers tout le pays.

Sur ce site, la demande de permis de construire a été déposée en vue d »aménager courant 2017 dans ce bâtiment 4 000 m² de salles blanches destinées au stockage sécurisé de données informatiques, et ceci pour un coût d’investissement évalué à 70 millions d’euros.

Vue aérienne du site de la base de sous-marins après la guerre

Quant au troisième site convoité par Intexion qui souhaite y aménager 10 000 m² de stockage supplémentaire, il s’agit ni plus ni moins que du bâtiment voisin, une ancienne base de sous-marins allemands datant de la seconde guerre mondiale, le « U-bootbunker Martha ». En réalité, cet imposant complexe en béton armé de 208 m de longueur et 45 m de largeur, dont la construction a été lancée en janvier 1943 et qui devait accueillir une vingtaine de sous-marins militaires, n’a jamais servi. Les travaux ont été stoppés en août 1944, suite au débarquement allié en Provence, avant même que le chenal d’accès des sous-marins ne soit creusé. La bâtiment n’a donc jamais été opérationnel, sauf ponctuellement pour y assurer la détention de prisonniers de guerre allemands, dont les fresques dessinées sur les murs peur meubler leur captivité sont encore visibles sur les parois.

Ce bâtiment, resté en l’état depuis sa construction, intéresse a plus haut point l’amateur de châteaux forts qu’est le directeur de la société Interxion. Véritable bunker massif construit sur le modèle des bases de Lorient, Brest et La Rochelle, il est surmonté d’une dalle de toit en béton armé de près de 6 m d’épaisseur, capable de résister à des bombes d’une tonne comme la Royal Air Force en avait fait l’expérience à Lorient. Quant aux murs, leur épaisseur varie entre 90 cm et 2,85 m pour ceux qui sont situés face à la mer et qui étaient susceptibles d’être bombardés depuis le large.

Une structure parfaitement adaptée donc à l’usage envisagé, d’autant que les salles de maintenance prévues par les ingénieurs allemands à l’étage, pourront facilement être aménagées en salles blanches. Une belle opportunité également pour le Grand Port maritime de Marseille qui se demande depuis plus de 70 ans ce qu’il pourrait bien faire de ce vestige historique aussi délabré qu’encombrant et dont la déconstruction coûterait une fortune. Une petite inquiétude néanmoins pour l’approvisionnement en électricité de ce château fort futuriste qui aura besoin en permanence d’une puissance électrique de 8 mégawatts, à comparer aux 50 MW que consomment l’ensemble des serveurs informatiques de Google et aux 100 MW produits par une tranche de réacteur nucléaire. De quoi se rappeler que le numérique commence à prendre une part non négligeable dans notre empreinte carbone globale…

L.V.  

Stationnement payant : un jackpot en perspective !

14 juillet 2017

A compter du 1er janvier 2018, les 800 communes françaises où le stationnement est payant vont pouvoir en confier la gestion au privé : fini donc les aubergines parisiennes et autres policiers municipaux qui déambulent sur les trottoirs pour vérifier si vous avez bien glissé une pièce dans l’horodateur : ce sont bientôt des dizaines de planches des albums de Gaston Lagaffe qui vont devenir vraiment vintage. L’agent Longtarin va devoir se consacrer désormais à d’autres tâches plus gratifiantes…

L’agent Longtarin, gardien séculaire des parcmètres… (© Franquin / Dargaud ed.)

Cette évolution est une des conséquences de la loi de modernisation de l’action publique territoriale et d’affirmation des métropoles adoptée en janvier 2014 et qui donne donc aux municipalités la totale maîtrise du stationnement, leur permettant de décider désormais en toute liberté de la politique tarifaire adoptée et de la manière de procéder au contrôle et à la sanction éventuelle en cas de fraude. Libre ensuite aux maires de choisir s’ils souhaitent conserver en interne la gestion du contrôle ou le confier au privé.

Nouveaux horodateurs à Metz permettant le paiement par smartphone

Et bien entendu, de nombreux édiles piaffent d’impatience de déléguer au privé la gestion de cette nouvelle compétence, histoire d’en maximiser les profits. C’est le cas notamment à Metz où la ville a déjà confié à l’entreprise Indigo (ex Vinci Park), un des leaders du secteur (avec son concurrent Effia), la gestion complète du stationnement payant sur la voirie. L’ensemble des horodateurs de l’agglomération a déjà été changé en début d’année pour les remplacer par des dispositifs plus sophistiqués permettant le paiement par carte bancaire sans contact au moyen d’applications smartphone qui permettent d’alimenter à distance le parcmètre pour prolonger sa durée de stationnement, et qui fournissent directement le numéro d’immatriculation du véhicule, histoire de faciliter l’envoi du PV en cas de fraude…

Bien entendu, la ville profite de cette petite révolution pour augmenter fortement les tarifs de stationnement dans les zones les plus tendues, afin de dissuader les voitures ventouses. Et les PV vont passer désormais de 17 à 35 €. C’est en effet une des conséquences directes de la dépénalisation du stationnement en voirie, inscrit également dans la loi de 2014. On n’est plus tenu désormais de payer un PV en cas de fraude puisque ce n’est plus un délit. En revanche, il convient dans ce cas de s’acquitter d’un simple « forfait post-stationnement », sur le même principe que l’automobiliste qui a perdu son ticket et qui se voit réclamer, au péage de l’autoroute, le montant maximal puisqu’il n’est pas en mesure de prouver à quelle gare de péage il est entré. De la même manière, l’automobiliste négligent qui dépasse la durée de stationnement autorisé, devra s’acquitter du tarif maximal autorisé.

Et dans ce cas, l’addition risque d’être salée. A Paris, il en coûtera pas moins de 50 € aux étourdis ! Tel est en effet le montant du nouveau forfait maximal de 6 heures que vient fort opportunément d’autoriser la ville de Paris, alors que la durée maximale de stationnement jusque là n’était pas autorisée au-delà de 2 heures. Du coup, c’est un véritable jackpot que devrait toucher la capitale d’ici quelques mois. Jusque là, c’était l’État qui percevait le montant des PV et en reversait une partie aux villes, selon un système de péréquation qui profitait également aux petites communes de moins de 10 000 habitants.

Verbalisation pour stationnement dépassé à Paris (© Le Parisien /Delphine Goldsztejn)

Dorénavant, les grandes agglomérations garderont pour leurs propres besoin la totalité du pactole. A Paris, où la maire Anne Hidalgo avait quelque peu surpris en affirmant que 91 % des automobilistes fraudent, ce sont actuellement près de 6 millions de PV qui sont dressés chaque année pour stationnement interdit, ce qui jusque là rapportait, bon an mal an, la somme de 35 millions à la ville. Avec le nouveau montant de l’amende qui n’en est plus une, ce sont pas moins de 300 millions d’euros de recettes qui devraient désormais alimenter les caisses de la capitale ! Une belle culbute, même si tout laisse penser qu’elle ne sera pas durable car on voit mal les Parisiens continuer à payer de telles sommes sans adapter leurs habitudes…

C’est d’ailleurs ce qui s’est passé à Madrid où le contrôle du stationnement se fait désormais au moyen de scooter et de voitures équipées de caméras qui patrouillent dans les rues en scannant systématiquement les plaques d’immatriculation des véhicules garés des deux côtés de la chaussée. Les données sont transmises instantanément à un système centralisé qui vérifie en temps réel si chacun a bien payé son dû et qui, sinon, alerte les agents chargés de verbaliser.

Véhicules de contrôle du stationnement à Madrid (© Le Parisien /J.-G.B.)

Les numéros de plaques d’immatriculation sont en effet obligatoirement saisis lors du paiement si bien que la base de données centrale sait en permanence, rue par rue, quels sont les véhicules qui ont payé et pour combien de temps. Avec un tel dispositif de flicage instantané, le taux de fraude est tombé très rapidement à moins de 15 % et il devient statistiquement impossible d’échapper à une prune si on reste stationné au moins une heure en centre ville : avis aux amateurs !

Un tel système fait bien évidemment baver d’envie la plupart des maires confrontés au problème de la fraude généralisée et c’est le même dispositif que devrait être mis en place prochainement à Paris, toujours par la société Indigo qui sera chargée de fournir et gérer les nouveaux horodateurs, de procéder aux contrôles avec le même système de véhicules pourvus de dispositifs de « lecture automatisée des plaques d’immatriculation » (LAPI) et d’encaisser les fameux forfaits de post-stationnement. Au vu de l’expérience madrilène, on peut s’attendre à ce qu’une voiture équipée LAPI contrôle en moyenne 1500 véhicules à l’heure (un peu moins pour un scooter), là où une aubergine traditionnelle peine à vérifier 150 véhicules dans le même temps : un gain de productivité qui risque d’être redoutable pour l’automobiliste moyen…

Bien entendu, l’opération ne sera pas indolore. A l’échelle nationale, le GART (Groupement des autorités responsables de transport) a déjà fait ses comptes : alors que les recettes actuelles des horodateurs atteignent péniblement 540 millions d’euros, ce sont pas moins de 1 voire 1,5 milliards d’euros supplémentaires qui devraient ainsi être récupérés, directement de la poche des automobilistes et sans que cette recette supplémentaire pour les collectivités ne soit assimilée à un prélèvement obligatoire : brave vache à lait de conducteur…

L.V.  

La douche écolo qui vous en fait voir de toutes les couleurs

17 mai 2017

Ségolène Royal et Gabriel Della-Monica, le fondateur de Smart & Blue

« L’écologie ne doit pas être punitive » disait Ségolène Royale pour justifier l’abandon totalement injustifiable de l’écotaxe poids lourds. Encore ministre de l’écologie la semaine dernière, comme elle l’était déjà en 1992, l’auteur de cette sentence mémorable serait, aux dernières nouvelles, toujours à la recherche d’un point de chute pour se recaser après que sa candidature à la tête du Programme des Nations Unies pour l’Environnement a été écartée… Pour autant, affirmer que les changements de comportements individuels en faveur d’une meilleure prise en compte des enjeux environnementaux ne passent pas par la contrainte mais par l’adhésion et la conviction, voila assurément une idée qui ne manque pas de bon sens…

Pommeau de douche connecté Hydrao First (photo © Erwan Lecomte / Sciences et Avenir)

C’est ce côté ludique qu’a voulu explorer la jeune entreprise grenobloise Smart & Blue, un nom qui fleure bon le terroir alpin, en développant son dernier produit, elle qui se présente comme le « leader des technologies innovantes et connectées pour une gestion intelligente de l’eau potable », rien que ça ! L’idée, il est vrai ne manque pas d’originalité puisqu’elle consiste ni plus ni moins qu’à prendre sa douche en couleur, grâce à un pommeau intelligent dont les buses sont équipées de LED polychromes qui éclairent l’eau du bain de toutes les couleurs.

L’objectif n’est bien évidemment pas de transformer sa salle de bain en boîte de nuit, mais tout simplement d’inciter à économiser l’eau de la douche. Quand on ouvre le robinet, les LED éclairent l’eau du jet en vert. Jusque là, tout va bien, à condition de ne pas faire couler plus de 10 litres d’eau, un volume normalement largement suffisant pour se laver correctement, comme le savent tout ceux qui ont un jour testé les douches à l’ancienne, constituées d’un simple seau d’eau et d’un récipient adapté, bol en plastique ou calebasse selon les usages locaux.

A partir de ce volume fatidique de 10 l, le jet d’eau passe au bleu. Rien de bien inquiétant encore, mais à partir de 20 l, l’eau de la douche passe au rose, puis au rouge et au-delà de 40 l, le rouge se met à clignoter. Rassurez-vous, il n’arrivera rien de plus grave au-delà, mais après un tel festival de couleur, même le consommateur le plus endurci et le plus rétif aux économies d’eau sera incité à tourner le robinet et à attraper sa serviette pour se sécher. Selon le concepteur du système, le Français moyen n’utilise pas moins de 80 l pour sa douche quotidienne, au point que pour une famille de 4 personnes l’eau de la douche représente près de 40 % de la consommation quotidienne d’eau : l’enjeu n’est donc pas mince !

Répartition de la consommation de l’eau domestique par type d’usage en France (source © Centre d’information sur l’eau)

Bien évidemment, un concept aussi novateur, commercialisé sous le nom d’Hydrao First et déjà récompensé par plusieurs prix  n’a pas besoin d’électricité pour fonctionner car cela rendrait l’empreinte environnementale du dispositif nettement moins séduisante, sans compter le risque d’hydrocution : le système utilise simplement une turbine intégrée qui tourne sous l’effet du jet d’eau et qui fournit l’énergie nécessaire à l’éclairage des lampes. Un dispositif astucieux et par ailleurs totalement branché.

L’appli smart shower

Car bien entendu, un tel bijou de technologie est forcément connecté. Une appli adaptée permet de paramétrer sur son smartphone ses propres seuils de réglage des changements de couleurs mais aussi de suivre l’historique de consommation de ses 200 dernières douches et de comparer sa consommation par rapport à sa douche de référence. De quoi occuper les amateurs de statistiques, et de quoi attiser les conversations familiales car bien entendu l’appli n’est pas en mesure de faire la distinction en fonction de l’utilisateur. Impossible désormais, avec un tel mouchard à la maison, de se prélasser tranquillement sous la ouche sans se faire ensuite vertement remarquer qu’on a sérieusement fait baisser la moyenne familiale et fortement augmenter la facture d’eau et d’électricité.

Suivi de consommation (photo Sciences & Avenir)

Tout se paye en effet et on sait illico en sortant de la salle de bain combien nous ont coûté ces quelques minutes passées sous la douche. Pas autant certes que le pommeau lui-même car ce gadget futuriste est quand même vendu pour près de 90 € et on a intérêt à se doucher souvent pour espérer amortir un jour un tel investissement…

C’est en tout cas une excellente affaire pour son concepteur dont la société vient de recevoir une nouvelle récompense lors d’un salon professionnel qui s’est tenu à Las Vegas en janvier dernier pour ses deux dernières nouveautés Hydrao Drop et Hydrao Loop. Toujours connectée à la même application Smart Shower, cette dernière est un pommeau de douche dont le design très élaboré rappelle vaguement le signe mathématique de l’infini, mais dont les fonctionnalités sont tout à fait comparables à celle du pommeau d’entrée de gamme Hydrao First, avec néanmoins une efficacité accrue en matière d’économie d’eau, pour la modique somme de 169 €.

Hydrao Loop, dernier né de la gamme au look futuriste

On peut bien sûr ironiser sur l’aspect gadget de ces innovations mais on est bien obligé de reconnaitre que son inventeur, l’ingénieur en télécom Gabriel Della-Monica, a su faire d’une idée originale un beau succès commercial. Installée au sein du pôle de haute technologie nano et microélectronique de Grenoble, la société Smart & Blue a mis 2 ans pour développer le produit, disponible à la vente depuis 2015. Deux ans plus tard, la société a déjà embauché plus de 10 salariés et est en plein développement. Quant à la fabrication, elle est sous-traitée à une entreprise industrielle qui favorise l’intégration des travailleurs handicapés : un bel exemple de la French Tech qui réussit en mettant en avant ses valeurs de responsabilité sociale et environnementale. Le cas n’est pas si fréquent et mérite d’être salué !

L.V.

Après les eaux usées, Marseille s’attaque au pluvial !

3 mai 2017

Baignade interdite au Prado après un orage (photo © P. Laurenson / AFP)

A Marseille, comme chacun sait, mieux vaut ne pas se baigner sur la plage du Prado après un orage. Rappelons que ce parc balnéaire qui s’étend sur 3,5 km de littoral et couvre près de 26 ha, a été aménagé de manière complètement artificielle à la fin des années 1970, sous la mandature du Gaston Deferre, pour permettre avant tout de se débarrasser à moindre frais des millions de m³ de déblais issus des chantiers de construction des lignes de métro. A l’époque, on ne prenait guère de gants avec l’environnement y compris dans une zone littorale située comme celle-ci à l’embouchure de l’Huveaune, dans un milieu naturel qui a dû jadis être un haut-lieu de la biodiversité…

Plages du Prado avec au centre l’embouchure de l’Huveaune

Il faut dire aussi que, dans les années 1970, l’Huveaune, à son arrivée en mer, n’était qu’un vaste égout malodorant charriant les effluves des nombreuses industries qui bordaient ses berges, et servant d’exutoire en mer aux eaux usées d’une partie de Marseille et des communes de l’amont, dont Carnoux.

Le réseau souterrain servant à canaliser les eaux usées s’était construit progressivement au cours du XIXe siècle, sous forme unitaire au centre ville, sous forme séparative (les eaux pluviales de ruissellement étant collectées à part) dans les quartiers plus récents et les communes voisines.

Vue du Grand émissaire de Marseille (photo © SERAMM)

Mais jusqu’en 1987, tout était rejeté directement en mer, sans le moindre traitement, via un grand émissaire construit en 1896 et aboutissant dans l’anse isolée et peu accessible de Cortiou, en plein coeur du massif des calanques, où un vaste fleuve de déchets boueux se jette dans la mer, en attendant qu’un jour peut-être, la collectivité finisse par le prolonger plus au large pour diminuer l’incidence de ces rejets sur les fonds côtiers les plus fragiles.

Rejet en mer dans la calanque de Cortiou (source)

En 1979, alors que la plage du Prado est aménagée, il n’est plus question d’y déverser les eaux fortement pollués et toxiques de l’Huveaune. Une dérivation est donc créée, qui renvoie ces eaux directement dans l’émissaire de Cortiou où elles sont ensuite rejetées en mer, ni vu ni connu. En période de fortes pluies cependant, lorsque l’émissaire est saturé, un déversoir d’orage permet aux eaux de l’Huveaune en crue de rejoindre leur lit naturel et de se rejeter en mer le long de la plage du Prado, qu’elles polluent alors allègrement en jonchant la plage des multiples déchets qu’elles charrient.

Vue en surface de la station de traitement des eaux usées Géolide

Dans les années 1970, sous la pression de certains naturalistes et des plongeurs qui s’alarment de la disparition des herbiers de posidonies et de l’appauvrissement de la faune marine au large des côtes marseillaises totalement ravagées jusqu’à plus de 40 km du rivage par ce flux incessant d’eaux polluées, la ville se décide enfin à mettre en oeuvre une station d’épuration physico-chimique, destinée au traitement des eaux usées de Marseille et de 15 communes environnantes, dont Carnoux. Le chantier commence en 1984, en bordure de l’Huveaune. La station, enterrée sous le stade Vélodrome, est mise en service en 1987.

Mais le renforcement de la réglementation en matière de traitement des eaux usées, avec notamment l’adoption en 1991 de la directive européenne sur les eaux résiduaires urbaines, rend très vite cette station insuffisante. En 2008, elle est donc complétée par l’adjonction d’un dispositif de traitement biologique, dit Biostyr, installé sous l’esplanade Ganay. La nouvelle station, dénommée Géolide, constitue la plus grande usine enterrée de traitement des eaux usées du monde et traite 70 millions de m³ d’eau usée par an.

Schéma de la station Géolide (source)

L’eau y est injectée dans 34 bassins de 1500 m³ chacun, remplis de billes de polystyrène sur 3,50 m d’épaisseur. Les bactéries fixées à la surface de ces billes fixent une partie de la pollution au passage. Pour éviter le colmatage des billes, celles-ci sont lavées chaque jour et l’eau de lavage subit un traitement physico-chimique par coagulation et floculation, suivi d’une décantation lamellaire afin d’agglomérer, concentrer et piéger les bactéries sous forme de boues. Ces boues sont alors acheminées vers une usine de traitement, située à 6 km de là, dans l’ancienne carrière de la Cayolle qui surplombe la calanque de Sormiou. Les boues y sont épaissies et séchées avant d’être valorisées sous forme de compost qui sert actuellement à réhabiliter l’ancienne décharge d’ordures ménagères d’Entressen.

Vue de la station de traitement de la Cayolle (photo © Lakko Marseille)

Cependant, en cas de forte pluie, le système d’assainissement n’est pas en mesure de traiter l’ensemble des effluents collectés car les eaux de ruissellement viennent alors grossir les flux habituels d’eaux usées, provoquant rapidement la saturation des capacités de traitement. Pour éviter que la ville ne soit noyée sous un flot d’eaux polluées et nauséabondes, tout l’excédent est alors rejeté directement en mer, principalement par l’émissaire de Cortiou mais aussi en partie via l’ancien exutoire de l’Huveaune, donc directement sur la plage du Prado !

Ce problème récurrent commençant à déprécier sérieusement l’attrait touristique de la ville, l’ancienne Communauté urbaine Marseille Provence Métropole s’est engagée en 2010 dans un projet de contrat de baie, désormais opérationnel depuis juin 2015 pour une durée de 6 ans avec, à la clé, un budget de 265 millions d’euros, dont 185 millions engagés via le Contrat d’agglomération de traitement des eaux usées signé l’année d’avant avec l’Agence de l’Eau Rhône-Méditerranée, et 25 millions mobilisés dans le cadre du contrat de rivière de l’Huveaune, signé en octobre 2015 à Aubagne.

Inondations rue de Rome à Marseille en septembre 2000 (photo © Bataillon des marins-pompiers de Marseille)

Une des actions phares de ce contrat de baie consiste précisément à s’attaquer enfin au problème des eaux pluviales qui rendent inopérant le traitement des eaux usées de l’agglomération marseillaise en période de fortes pluies. L’objectif affiché, qui peut paraître modeste, est de réduire de 50 % les rejets d’eaux usées non traitées vers la calanque de Cortiou au cœur du Parc National des Calanques, et ceci en réponse à un arrêté préfectoral de janvier 2004 qui impose à la collectivité de réaliser d’ici fin 2018 une capacité de rétention des eaux usées de 90 000 m³.

Un premier ouvrage a ainsi été réalisé dès 2007 à l’occasion des travaux de requalification de la rue de la République dans le cadre de la prolongation du tramway. Gigantesque cylindre de 49 m de long situé à 15 m sous terre, ce bassin permet de stocker 14 500 m³ collecté en centre ville. Les gros déchets y sont récupérés et la partie claire de l’eau décantée est rejetée en mer une fois l’orage passé, tandis que les eaux polluées sont envoyées à la station de traitement dès que celle-ci est de nouveau en capacité de les traiter. Quatre autres basins sont prévus sur le périmètre de l’agglomération marseillaise : un de 12 000 m³ achevé en septembre 2015 place Jules Guesde à la Porte d’Aix, un de 15 000 m³ dans l’emprise du tunnel ferroviaire désaffecté Lajout près de la nouvelle station de métro boulevard Capitaine Gèze, un autre de même capacité cours Pierre Pujet, et enfin un plus vaste de 33 000 m³ à Saint-Mauront, près des Docks.

Vue intérieure du bassin Ganay lors de son inauguration (photo publiée par GoMet)

Un sixième ouvrage profond de 30 m pour un diamètre de 56 m et une capacité de 50 000 m³, a été construit à partir de 2014 sous le stade Ganay. Désormais achevé et inauguré en avril 2017, ce gigantesque bassin enterré, pour lequel il a fallu mobiliser pas moins de 80 000 tonnes de béton, doit être relié d’une part à la station de traitement Géolide et d’autre part au réseau unitaire. Pour cela, il a notamment fallu creuser une galerie de 3 m de diamètre et 300 m de longueur, à 10 m de profondeur. Un tunnelier a été mobilisé dans ce but, pendant près de 6 mois, jusqu’à ressortir près du boulevard Michelet en décembre 2016, une fois sa tâche accomplie.

Sortie du tunnelier (photo © N. Vallauri pour La Provence)

Vue en coupe du bassin Ganay (source)

En surface, on ne verra du bassin Ganay qu’un modeste bâtiment de service au forme de simple pavillon et il reste encore à reconstruire le nouveau stade Ganay au dessus du réservoir enterré dont les Marseillais seront bien en peine d’imaginer l’existence une fois le chantier achevé. C’est d’ailleurs le risque de ce type de démarche qui consiste à masquer de la vue du citoyen les aménagements pourtant indispensables au fonctionnement de la ville : à force d’oublier que la gestion des eaux fait partie intégrante de la vie urbaine, comment peut-on s’en approprier les enjeux pourtant essentiels ?

L.V.  

Eden, la Méhari écologique du XXIe siècle

18 avril 2017

Tous les fans de Deux-Chevaux, Dyane et Méhari connaissent le 2CV Méhari Club de Cassis (MCC), dont l’aventure a commencé dans les années 1980. Les frères Marquès ont d’abord personnalisé des Méhari en belles voitures de plage avant de lancer un catalogue complet de pièces détachées de toute la gamme des 2CV, Dyane et Méhari.

Devant le succès, Citröen SA leur a confié en 1998 les outillages d’origine du quai de Javel, afin de reproduire les pièces de la Méhari. Le même passage de relais a eu lieu en 2000 pour la 2CV.

Méhari 4 x 4 de 1979 (photo © Citroën)

Aujourd’hui, la famille Marquès a cédé son fond industriel et commercial à une nouvelle organisation financière, épaulée par la Banque Publique d’Investissement. Elle est pilotée par MM Julien V. et Stéphane W. (deux bons camarades de Terminale…), dûment diplômés et expérimentés en industrie auto. Avec courage, ils lancent l’Eden.

L’Eden, c’est à la base l’historique Méhari, lancée en 1968, il y a près de 50 ans, avec sa carrosserie en plastique moulé, fixée sur un châssis et munie d’une suspension et d’une motorisation issus de la mythique 2CV (qui, elle, date de 70 ans !). Mais contrairement à ses aînées, l’Eden est équipée d’une nouvelle motorisation entièrement électrique, alimentée par une batterie ion-lithium de dernière génération.

L’Eden, écologique et tout électrique, entièrement montée à Cassis et partiellement fabriquée à Carnoux…

Il s’agit bien d’une nouvelle voiture, dûment homologuée depuis mars 2016 pour la France et l’Europe, classée véhicule utilitaire à 4 places. Offrant une autonomie de 120 km, la batterie se recharge en moins de 4 h sur une simple prise électrique domestique. La voiture est entièrement montée à Cassis, dans les locaux agrandis du MCC (qui occupent 8 000 m2 sur un terrain de 10 hectares) et, cerise sur le gâteau, plusieurs des pièces, dont le châssis et une sellerie très variée sont fabriqués à Carnoux même.

La E-Méhari de Citroën

La Méhari cassidaine se distingue en tout cas très nettement de sa petite sœur relookée E-Mehari que Citroën vient tout juste de dévoiler, un véhicule électrique également, directement inspiré de la Bluesummer de Bolloré et qui, elle, sera fabriquée à Rennes, avec un objectif de 1000 exemplaires, pour un prix de vente qui devrait revenir à 25 000 €, hors coût de location des batteries (79 € par mois). Même une fois déduit le bonus écologique qui s’élève à 6 000 € pour l’achat d’un véhicule électrique, l’investissement reste élevé pour un véhicule au confort minimaliste !

L’Eden devrait d’ailleurs être proposée à la vente pour un prix assez comparable, mais avec une carrosserie identique à celle d’origine, ce qui devrait plaire aux nostalgiques des années 1960… C’est d’ailleurs là-dessus que compte manifestement le 2CV-Mehari Club de Cassis puisque la présentation officielle de l’Eden s’est faite à l’occasion de la 40e édition du salon Rétromobile, qui s’est tenu Porte de Versailles début février 2016 et que le lancement commercial a eu lieu lors de l’édition suivante du salon, en février 2017.

Présentation du concept-car Eden au salon Rétromobile en février 2016 (photo © G. Pelletier)

Nous ne pouvons donc que nous réjouir de cette belle création industrielle, qui allie avec bonheur la tradition mythique et l’esprit de la 2CV avec la dernière modernité écologique : 10 kW seulement et un entretien quasiment inexistant ! Et de surcroît, une conduite 100 % plaisir, cheveux au vent et selon l’esprit de liberté des belles années.

Bravo, longue vie et prospérité à l’Eden !

Léonide G.

Centrales solaires à tour : une technologie futuriste !

11 avril 2017

C’est probablement le génial Archimède qui a eut le premier l’idée d’utiliser un jeu de miroirs pour concentrer les rayons du soleil de manière industrielle afin d’obtenir des températures élevées, destinées à enflammer la flotte de vaisseaux romains assiégeant la ville de Syracuse. L’histoire est d’ailleurs sans doute exagérée mais on ne prête qu’aux riches…

Le concentrateur solaire de Mouchot en 1878

Toujours est-il que, depuis cette lointaine Antiquité, la technologie a fait son chemin et que les centrales thermiques solaires commencent à se multiplier. C’est d’ailleurs un ingénieur français, un certain Augustin Mouchot, qui en 1866 a inventé le premier moteur solaire constitué d’un réflecteur en forme de parabole qui concentre les rayons du soleil sur une chaudière électrique en verre alimentant une machine à vapeur. Lors de l’exposition de 1878, un appareil de son invention, doté d’une surface réfléchissante de 20 m2 reçoit d’ailleurs une distinction à l’occasion de l’exposition universelle de Paris.

Le four solaire d’Odeillo dans les Pyrénées

Le principe des miroirs paraboliques qui concentrent le rayonnement solaire en leur point focal a été ensuite réutilisé à plus grande échelle, à l’initiative du chimiste français Félix Trombe dont les travaux se sont concrétisés par l’élaboration d’un premier four solaire à Mont-Louis en 1949, puis, à partir de 1962, par la construction d’un prototype semi-industriel, le Grand four solaire d’Odeillo, mis en service en 1970 à Font-Romeu. Une série de miroirs réfléchissants renvoient les rayons du soleil vers d’autres miroirs concentrateurs disposés en parabole qui font converger le rayonnement vers une cible circulaire de 40 cm de diamètre située en haut d’une tour, permettant d’obtenir une température de 3500 °C.

Sur la base de cette expérience, EDF réalise en 1983 sa première centrale solaire Thémis, installée en Cerdagne. Après de nombreux aléas et sous l’impulsion du Conseil général des Pyrénées-Orientales, le site est équipé en 2012 de près de 200 héliostats, des miroirs réfléchissants orientables qui suivent la course du soleil, et concentrent le rayonnement solaire sur un récepteur central situé au sommet d’une tour de 105 m de hauteur, dans lequel circule un fluide caloporteur (à base de sels fondus) permettant de transformer de l’eau en vapeur et d’actionner une turbine pour produire de l’électricité.

La centrale solaire Themis à Targassonne

Ce principe des centrales solaires thermodynamiques à tour est désormais en plein essor dans le monde entier, surtout dans des latitudes où le rayonnement solaire au sol est très supérieur à celui que l’on peut connaître en France. L’Espagne notamment s’est fortement investie dans ce domaine avec notamment la centrale Solar tres, inaugurée en 2011 en Andalousie, d’une puissance d’environ 20 MW avec près de 2500 héliostats et une autonomie de près de 15 heures grâce au stockage d’énergie assuré par l’inertie thermique du fluide caloporteur.

La centrale solaire de Gemasolar, près de Séville en Espagne, avec ses 2650 héliostats

Les États-Unis bien entendu ne sont pas en reste malgré leur exploitation intensive des gaz de schiste, avec en particulier la centrale solaire de Crescent Dunes (dans le désert du Nevada), d’une puissance de 110 MW (à comparer aux 5 MW d’une grande éolienne récente). Entrée en service en 2016, elle est constituée de 10 000 miroirs réfléchissants et d’une tour de 195 m de haut dans laquelle les sels fondus sont portés à 565 °C. Fonctionnant 24 heures sur 24 grâce à l’inertie thermique des sels fondus, cette centrale permet d’alimenter en électricité plus de 75 000 foyers !

Toujours aux États-Unis, la centrale d’Ivanpah dans le désert des Mojave en Californie, à 60 km de Las Vegas, est désormais le plus grand site d’énergie solaire américain avec 3 tours de concentration, 173 500 miroirs et une capacité de production de 392 MW (à comparer aux 900 MW d’un réacteur nucléaire type Fessenheim) qui permet l’alimentation en électricité de 140 000 foyers.

Vue du ciel, les trois champs de miroirs d’Ivanpah (photo G. Mingasson/Getty Images for Bechtel)

Et les projets se multiplient un peu partout. La société américaine BrigthSource Energy qui exploite la centrale d’Ivanpah s’est ainsi associée avec General Electric (qui a racheté la branche énergie d’Alstom, rappelons-le au passage tant l’épisode fut douloureux et inique) pour construire une centrale solaire thermodynamique géante dans le désert du Néguev, en réponse à un appel d’offre lancé par le gouvernement israélien en 2013, pour la modique somme de 660 millions d’euros.

Le champ de miroirs de la centrale Ashalim (photo © J. Guez / AFP)

Cette centrale dénommée Ashalim, qui devrait entrer en fonction fin 2017, sera constituée de 55 000 miroirs réfléchissants répartis sur une superficie de près de 300 hectares, et d’une tour de 24 m de haut encore en cours de construction. Une des particularités de cette installation est que les mouvements permanents des héliostats pour suivre la course du soleil sont réglés par des connections wi-fi pour limiter les coûts d’installation.

D’autres pays suivent la course, dont le Maroc qui est également très intéressé par cette technologie du futur en plein essor. Sa centrale solaire Noor 1, inaugurée en février 2016 près de Ouarzazate, est constituée de miroirs courbes répartis sur 480 ha, et totalise une puissance installée de 160 MW. Et ce n’est qu’un début puisque la deuxième tranche du projet est d’ores et déjà lancée avec, à terme, un objectif affiché de 580 MW de puissance installée !

Vue aérienne de la centrale Noor au Maroc (photo © F. Senna / AFP / Getty images)

N’oublions-pas non plus la centrale solaire de Dubaï qui se construit également par étapes, dans un environnement particulièrement favorable avec 3500 heures d’ensoleillement annuel moyen et des températures au sol de 40 °C en été. L’émirat ambitionne tout simplement de produire un quart de ses besoins en électricité grâce à cette centrale d’ici 2030, soit une puissance installée à cette date de 5 GW, le tout pour un investissement de 12 milliards d’euros…Pour l’instant, la puissance déjà installée est de 100 MW mais pourrait doubler d’ici la fin de l’année 2017 si tout va bien.

Jusque là, le coût de l’électricité produite de cette manière reste supérieur à celui obtenu par d’autres procédés plus classiques mais les choses évoluent rapidement en la matière. De quoi rester (un peu) optimiste quant à la capacité humaine à innover pour développer la production d’énergies renouvelables et limiter progressivement nos émissions de gaz à effet de serre avant qu’il ne soit trop tard…

L.V.

La croisière s’enfume !

5 mars 2017

Alors que nos deux globe-trotters parcourent le monde depuis début janvier à bord du luxueux navire de croisière Queen Elisabeth, voila qu’en France, certains se mettent à tousser au vu de l’impact environnemental de cette industrie touristique en plein essor. C’est ainsi que l’émission Thalassa, dans son édition du 20 janvier 2017, s’efforçait de dévoiler « le prix du rêve » des bateaux de croisière.

blog404_phthalassa

Un petit pavé dans la mare de l’industrie touristique des croisières de luxe à bord de véritables immeubles flottants, alors que cette activité florissante et lucrative est en plein essor. En 2016, ce sont plus de 25 millions de passagers qui ont ainsi sillonné les mers du globe à bord de ces gigantesques usines à touristes, un chiffre qui a doublé en 10 ans et qui ne cesse d’augmenter !

L'épave du Costa Concordia, le 22 janvier 2012 (photo © P. P. Cito  /SIPA/ AP)

L’épave du Costa Concordia, le 22 janvier 2012 (photo © P. P. Cito /SIPA/ AP)

Pourtant, l’envers du décor incite à la réflexion comme le dénonce, non seulement ce documentaire de Thalassa, mais bien d’autres, qui pointent une industrie sans scrupule profitant largement de la captivité de sa clientèle et offrant à son personnel des conditions de travail parfois peu enviables. Même le panache de l’équipage en a pris un coup depuis l’épopée peu glorieuse du capitaine du Costa Concordia qui s’était ridiculisé devant le monde entier après avoir non seulement échoué son paquebot géant le long du littoral toscan mais ensuite pris la fuite alors même que l’évacuation des passagers venait tout juste de commencer, un naufrage spectaculaire qui avait fait 32 morts et fortement terni l’image de la compagnie Costa Croisières.

Mais les critiques les plus vives envers l’industrie des croisières de luxe portent surtout sur leur impact environnemental. Ces énormes usines flottantes chargées de milliers de touristes provoquent en effet sur certains lieux fragiles du globe, et en particulier des archipels isolés et relativement préservés, une pression fortement préjudiciable. Et c’est aussi la pollution atmosphérique provoquée par ces immenses paquebots dans leurs ports d’escale qui est de plus en plus pointée du doigt.blog404_phmarseille

On a vu notamment la journaliste de Thalassa, Sophie Rolland, s’intéresser à la qualité de l’air de Marseille, premier port de croisière en France qui accueille désormais chaque année 500 paquebots et 1,7 millions de croisiériste : une manne pour le commerce local et une source non négligeable de pollution en particules fines. Sur le quai où sont amarés les bateaux de croisière qui laisent tourner en permanence leurs moteurs pour assurer la climatisation à bord, les reporters de Thalassa mesurent ainsi plus de 100 000 particules fines par cm³ d’air, cinq fois plus que devant la gare Saint-Charles qui n’est pourtant pas réputée pour être un havre d’air pur !

blog404_phfootingSur le pont supérieur du navire, là où les passagers restés à bord font leur footing quotidien, la teneur en particules fines s’avère même encore 3 à 4 fois supérieure à celle mesurée sur le quai…

L’affaire n’est pas nouvelle, comme le rappelle un article de Marsactu qui évoque l’alerte lancée en 2015 par l’association France Nature Environnement, affirmant qu’un bateau de croisière pollue autant l’atmosphère qu’un million de voitures ! De fait, une étude menée de 2010 à 2013 sur cinq villes méditerranéennes dont Marseille, dans le cadre du projet européen APICE, avait permis de mieux quantifier l’impact de ces bateaux de croisière sur la qualité de l’air de ces villes. A Marseille, l’organisme en charge de la surveillance de la qualité de l’air, Airpaca, estime que cette contribution est globalement de l’ordre de 5 % mais elle est bien évidemment très supérieure à proximité des installations portuaires.

Système d'alimentation électrique des navires de la Méridionale, quai d'Arenc (photo © : E. Bonibi)

Système d’alimentation électrique des navires de la Méridionale, quai d’Arenc (photo © : E. Bonibi)

Une amélioration importante a pourtant été apportée en 2016 grâce à l’installation de bornes électriques permettant d’alimenter à quai les trois navires de la Compagnie méridionale de navigation lors de leurs quelque 500 escales annuelles en provenance de Corse. Le système est encore en phase de test et il faudra attendre cet été pour vérifier qu’il suffit à assurer les besoins en climatisation pendant la durée des escales…Il ne pourrait en tout cas pas être étendu aux immenses paquebots de croisière tant la consommation de ces derniers est considérable.

D’autant que l‘investissement n’est pas négligeable puisqu’il s’élève à 4,4 millions d’euros dont 1,5 apporté par le Grand port maritime de Marseille et 1,7 millions par des subventions publiques de l’État, de la Région, de l’ADEME et du FEDER. Mais cela devrait permettre d’éviter une pollution atmosphérique équivalente, pour chacun des trois navires, à 3 000 véhicules chaque jour pour ce qui est des particules fines et 65 000 véhicules/jour pour les oxydes d’azote. On respire déjà mieux !

L'Harmony of the seas en escale à Marseille (photo © D. Leriche pour Nice Matin)

L’Harmony of the seas en escale à Marseille (photo © D. Leriche pour Nice Matin)

Il n’en demeure pas moins que les autres navires de croisière monumentaux qui fréquentent quotidiennement le port de Marseille restent de gros pollueurs. Le mastodonte « Harmony of the seas », avec ses 362 m de long et ses 72 m de hauteur (l’équivalent d’un immeuble de 20 étages) brûle ainsi à lui-seul 250 000 litres de fuel lourd chaque jour !

Certaines compagnies commencent déjà à équiper leurs navires de « scrubbers » qui permettent de débarrasser les fumées de leurs émissions sulfurées les plus nocives (oxydes de soufre), ne serait-ce que pour respecter la réglementation européenne qui vient de se durcir, mais il s’agirait d’aller plus loin en s’attaquant également aux particules fines, aux oxydes d’azote et au gaz carbonique émis. En attendant, le port de Marseille lance une étude de faisabilité concernant l’installation éventuelle de « scrubbers mobiles », des sortes de gigantesques hottes aspirantes montées sur barges flottante et qui viendraient se positionner le long des navires à quai pour retraiter leurs fumées et retenir les éléments les plus polluants.

Système mobile de traitement des fumées à Los Angeles (photo © D. R.)

Système mobile de traitement des fumées à Los Angeles (photo © D. R.)

De tels systèmes mobiles sont d’ores et déjà déployés dans le port de Los Angeles et pourraient servir d’exemple. A terme, la solution la plus raisonnable serait cependant que l’ensemble des navires de croisière s’équipent pour fonctionner au gaz naturel liquéfié nettement moins polluant. Cette technologie permet en effet d’éliminer presque entièrement les rejets d’oxydes de soufre et d’azote, tout en réduisant de moitié les émissions de particules fines et d’un tiers celles de CO2. Certaines compagnies commencent à mettre en chantier de tels navires et Marseille se prépare déjà à les accueillir en aménageant une plateforme d’avitaillement grâce au terminal méthanier de Fos-sur-Mer.

Tout indique donc que le port phocéen s’installe durablement comme escale de ces usines flottantes à touristes, même si beaucoup préféreraient envisager un mode de développement un peu moins artificiel. Espérons du moins que la technologie de ces mastodontes des mers évoluera assez vite avant que l’air de la Cannebière ne devienne définitivement irrespirable…

L.V.  lutinvert1small

Google, fou de la petite reine et roi du bobard

30 janvier 2017

A l’heure où le Royaume du Danemark vient de nommer un ambassadeur auprès du géant américain Google, il n’est pas inutile de ressortir cette vidéo époustouflante mise en ligne par la multinationale montrant sa dernière invention en date : un vélo intelligent et autonome, qui tient debout sans l’aide de quiconque, se déplace tout seul dans la circulation et sur lequel on peut tranquillement se laisser porter tout en vaquant à ses occupations ordinaires.

blog387_velogoogle

C’est bien évidemment l’antenne des Pays-Bas de la firme de Mountain View qui a conçu cet engin révolutionnaire, parfaitement adapté au Néerlandais qui parcours en moyenne pas moins de 900 km par an en vélo, au prix tout de même de 350 000 accidents chaque année !

blog387_phcameraLe Google self-driving bike, de son petit nom de baptême, sait se situer dans l’espace et détecter et cartographier son environnement afin de s’adapter à tout événement, tout ceci grâce à une caméra à 360° située à l’avant du vélo, à l’instar de ce qui est proposé sur les Google Car dont le projet s’inspire manifestement.

blog387_phsmartphoneLe vélo peut fonctionner comme un taxi Uber et venir vous chercher là où vous le demandez simplement depuis l’application dédiée. On peut même s’en servir de bureau mobile en installant confortablement son ordinateur sur le guidon évidemment adapté pour cela, et on peut aussi laisser le vélo promener tout seul les enfants bien installés dans leur siège.

blog387_phvelo

Une véritable merveille de la technologie dont Google s’est fait un malin plaisir d’annoncer la naissance le 1er avril 2016. Car bien évidemment, il ne s’agit que d’un poisson d’avril, issu du cerveau imaginatif des ingénieurs de la firme américaine ! Une vidéo explique même en détail, pour les plus crédules, comment ont été réalisés les trucages pour donner l’illusion d’un tel miracle.

blo387_phtrucage

Pourtant, le vélo autonome qui avance tout seul existe bel et bien. Il a été inventé par 13 ingénieurs de l’université indienne de Kharagpur qui ont eu l’idée du projet i-Bike, visant à la base à venir en aide aux personnes souffrant d’un handicap moteur afin de leur permettre de se déplacer malgré tout en vélo.

blog387_phbike

Certes, son look est quelque peu moins futuriste que celui de Google. Les esprits chagrins lui trouveront même un petit air de bricolage avec ses petites roues stabilisatrices à l’arrière et sa propulsion électrique rendue bien visible par une multitude de câbles qui pendouillent de tous les côtés : les propulsions électriques inventées par les tricheurs des courses cyclistes ont au moins le mérite d’être un peu plus discrètes ! Le guidage se ferait par GPS évidemment et pourrait permettre d’envisager que le vélo se rende tout seul à une direction pré-indiquée.

Le concept en tout cas ne manque pas d’intérêt, soit pour permettre à des malvoyants ou des handicapés moteurs de se déplacer à bicyclette, soit dans l’optique d’un système de location de vélos autonomes à direction assistée. Les Allemands plancheraient eux aussi sur un tel vélo du futur dont on peut penser qu’il ressemblera probablement davantage au prototype surréaliste de Google plutôt qu’au bricolage bout-de-ficelle des universitaires indiens…

L.V. lutinvert1small