Archive for the ‘Science et techniques’ Category

Le déluge : mythe ou réalité ?

11 décembre 2017

Chacun a en mémoire le fameux récit biblique du déluge dans lequel il est écrit en substance que Dieu, mécontent de la conduite des hommes, déclencha une formidable inondation qui dura 40 jours et 40 nuits, et noya toute trace de vie sur terre à l’exception du brave Noé et de toute sa famille. Celui-ci avait été chargé de construire une solide arche, aux planches soigneusement calfatées de goudron et dans laquelle il avait mis à l’abri un couple de chacune des espèces animales, ce qui lui permit finalement de repartir sur de nouvelles bases, une fois l’inondation achevée et l’arche échouée.

L’arche de Noé sur le Mont Ararat (tableau de Simon de Myle, peint vers 1570)

Ce récit fondateur qui marque les esprits a longtemps servi de fil conducteur, y compris aux yeux de certains scientifiques qui s’appuyaient sur lui pour expliquer la présence de nombreux coquillages fossiles retrouvés jusque sur les sommets des montagnes alpines. On sait désormais, grâce à la compréhension des mouvements tectoniques et à une meilleure connaissance de la datation des couches sédimentaires, qu’il n’est nul besoin de faire appel à ce récit biblique pour expliquer de telles observations.

Onzième tablette racontant l’épopée de Gilgamesh et le récit du déluge (source © British Museum)

Et pourtant, paradoxalement, les connaissances historiques et géologiques récentes donnent du crédit à ce récit de l’Ancien Testament. L’affaire ne date pas d’hier puisque c’est en 1872 que George Smith, un des premiers à découvrir et à traduire les tablettes d’argile recouvertes d’écritures cunéiformes de Mésopotamie, gravées il y a plus de deux mille ans avant J.-C., a fait connaître au monde entier l’épopée de Gilgamesh.

Dans cette histoire, dont on a désormais retrouvé de nombreuses versions, les plus anciennes remontant à l’époque sumérienne, au 3ème millénaire avant J.-C., le héros Gilgamesh rencontre le supersage Atrahasis qui lui raconte que jadis les dieux en colère, lassés du vacarme incessant des humains, avaient décidé de s’en débarrasser en inondant la terre. Mais le dieu des eaux souterraines, un certain Ea, les trahit, avertit son ami Atrahasis du danger, et lui enjoint de fabriquer sans attendre un solide bateau aux planches calfatées de bitume, et d’y faire entrer un specimen de chaque espèce animale (d’autres versions, plus futuristes, évoquent plutôt « la semence de toutes les créatures vivantes »).

Les tablettes d’argile relatent une inondation plus courte (7 jours seulement) mais l’épilogue, qui consiste à lâcher une colombe pour vérifier si elle aperçoit signe de terre rappelle furieusement l’idée de Noé, même s’il fallut, dans la version sumérienne, doubler la tentative avec le lâcher d’une hirondelle puis d’un corbeau…

Le déluge, frontispice de la bible illustrée par Gustave Doré (1866)

Bref, les nombreuses similitudes entre ces récits indiquent avec une quasi certitude que l’histoire de Noé, probablement écrite vers le VIIe siècle avant J.-C., soit plusieurs millénaires sans doute après les premières versions assyriennes, fixée sur les rouleaux manuscrits de la Mer Morte puis recopiée de génération en génération, s’est très vraisemblablement inspiré du précédent, d’autant que le peuple juif a été longtemps placé sous domination assyrienne.

De nombreux chercheurs ont cherché d’autres filiations de ce type, tant les récits fondateurs qui évoquent des inondations cataclysmiques du même type se retrouvent dans le monde entier, en Inde comme parmi certaines civilisations amérindiennes, et même chez les aborigènes d’Australie où il se raconte l’histoire d’une grenouille qui aurait bu toute l’eau de la Terre, au point que les autres animaux assoiffés n’ont eu d’autre choix que de la faire rire, provoquant de la sorte une formidable inondation…

Certains de ces récits retiennent néanmoins l’attention, dont celui retracé dans les écrits mythologiques du pseudo Apollodore, datés du 1er siècle et qui évoquent un déluge qui aurait mis fin à l’âge du bronze, les seuls survivants étant le fils de Prométhée, un certain Deucalion et son épouse Pyrrha, dont la barque s’échoue sur le sommet des montagnes. Là aussi, les convergences avec le récit biblique sont étonnantes, ce qui tend à affermir l’idée d’une inondation exceptionnelle survenue en des temps très reculés dans cette région et dont la mémoire collective se serait transmise de génération en génération.

Les Américains William Ryan et Walter Pitman, auteurs en 1998 de l’ouvrage Noah’s Flood

Curieusement, plusieurs scientifiques pensent désormais disposer d’hypothèses assez solides qui pourraient expliquer l’origine de tels événements. En 1993, une expédition géologique américano-russe a ainsi en évidence, en analysant des sédiments déposés au fond de la Mer Noire, des indices montrant un passage assez brutal d’eau douce à de l’eau salée. Selon leurs observations, au cours de la dernière glaciation, celle du Würm, qui s’est étalé de -110 000 à -10 000 ans environ, la Mer Noire s’est retrouvée totalement déconnectée de la Méditerranée. Du fait de la glaciation, le niveau des océans avait baissé de plus de 130 m et les détroits du Bosphore et des Dardanelles étaient alors émergés.

Avec le réchauffement progressif, la fonte des glaces sur les plaines ukrainiennes a alimenté en eau la vaste dépression de la Mer Noire qui se transforma en un lac d’eau douce, toujours isolé de la Méditerranée et autour duquel se sont installées de nombreuses populations. Vers 7500 avant J.-C., la brutale remontée du niveau de la Méditerranée se serait traduite par un déversement brutal des eaux de cette dernière dans la Mer Noire dont le niveau se situe 200 m plus bas, provoquant la fuite des populations vers le Mont Ararat, seul point culminant situé à 300 km du rivage mais visible de très loin.

La Mer Noire (source © Google Earth)

Le géologue américain Robert Ballard

En 1999 et 2000, le géologue Robert Ballard, celui-là même qui retrouva l’épave du Titanic, avait également entrepris des investigations dans ce secteur et retrouvé des traces de l’ancien rivage côtier de la Mer Noire avec des vestiges d’érosion qu’il attribue à des flots se déversant sous forme de cataractes depuis la Méditerranée. Autant d’éléments qui accréditeraient cette hypothèse d’une inondation brutale et rapide des riveges de la Mer Noire, provoquant chez les survivants un traumatisme de nature à se transcrire de génération en génération sur un temps long. De nombreux chercheurs attribuent d’ailleurs cette ouverture brutale du détroit du Bosphore à un mouvement sismique de l’extrémité de la faille nord-anatolienne, ce qui aurait en effet pu provoquer un déversement cataclysmique des eaux de la Méditerranée dont le niveau était fortement remonté sous l’effet du réchauffement climatique.

Le chercheur français Guillaume Soulet, auteur d’une thèse intitulée Changements hydrologiques de la mer Noire au cours des 30 derniers millénaires et la dernière déglaciation en Europe centrale, sous la direction d’Edouard Bard et Gilles Lericolais

L’équipe d’Edouard Bard basée au CEREGE s’est également intéressée de près à ce sujet et a montré que la réalité était sans doute beaucoup plus complexe que ne l’avaient imaginé en 1997 les Américains Bill Ryan et Walt Pitman, dont l’ouvrage paru en 1998 sous le nom de Noah’s Flood avait eu alors une énorme retentissement. D’après Guillaume Soulet, qui a soutenu en 2011 une thèse sur le sujet, la connexion de la Mer Noire via le Bosphore est plus ancienne et daterait plutôt de 8 300 avant J.-C. Et il s’agirait plus vraisemblablement d’un phénomène se produisant par a-coups, suite à des épisodes de réchauffement successifs, étalés sur de longues périodes, ce qui laisse penser que les mouvements de population des rives de la Mer Noire vers les plaines plus fertiles de la Mésopotamie, survenus vers 7500 avant J.-C., pourraient avoir été induites au moins davantage par une évolution démographique inéluctable que par un phénomène d’inondation brutale.

Un scénario qui demande sans doute à être confirmé et vraisemblablement affiné mais qui laisse songeur quand à ce qui peut nous attendre du fait du réchauffement climatique actuellement à l’oeuvre et qui lui est d’une rapidité jamais rencontrée dans l’histoire de la Terre. Quand on sait que la fin de cette glaciation, qui s’est traduite par une élévation du niveau des mers d’environ 130 m, ne résulte finalement que d’une augmentation moyenne de 4 °C de la température du globe, soit une valeur tout à fait comparable à ce que prédisent les scénarios du GIEC pour les décennies à venir, voila qui ne devrait pas manquer de nous inquiéter…

L.V.  

Publicités

Vous reprendrez bien un peu de glyphosate ?

30 novembre 2017

« L’homme est un animal doué de raison », disait le philosophe Aristote. C’est parfois à se demander. Prenons l’affaire du glyphosate. Voilà un produit miracle, mis sous le marché en 1974 sous le doux nom de Roundup et qui a fait la fortune de la firme Monsanto, devenant en quelques années le pesticide le plus vendu au monde : pas moins de 800 000 tonnes par an dont plus de 10 000 tonnes rien qu’en France. Le brevet est tombé dans le domaine public en 2000 mais il continue à rapporter la bagatelle de 5 milliards de dollars chaque année à la firme Monsanto, désormais tombée dans l’escarcelle du géant allemand Bayer.

Les agriculteurs affiliés à la FNSEA ne jurent que par lui et considèrent qu’il est désormais impossible à l’agriculture française de se passer du glyphosate. Comme l’a affirmé Eric Thirouin, secrétaire général de la FNSEA à un journaliste du Monde, interdire l’utilisation de cet herbicide, reviendrait « à poser un boulet à l’agriculture française » et coûterait pas moins de 2 milliards d’euros à une filière nationale déjà bien mal en point. La raison d’un tel surcoût : il faudrait que les céréaliers en reviennent à la charrue et se remettent à labourer leurs terres, ce qui les obligerait « à augmenter leur consommation de gas oil et leurs émissions de CO2 ».

Un véritable scénario catastrophe qui laisse pantois. Certes, nous voilà partiellement rassurés, nos agriculteurs ne seront pas obligés d’en revenir pour autant à l’araire tirée par des bœufs, voire à la daba. Mais tout de même, de là à prétendre que le glyphosate est la meilleure arme qu’on ait trouvée pour protéger l’environnement et combattre le réchauffement climatique, voilà qui paraît un peu fort de café.

Pour labourer profond, il faut ce qu’il faut… (source : Massey-Fergusson)

On en vient même à se demander, lorsqu’on voit le nombre de tracteurs dernier cri, avec cabine insonorisée équipée de GPS, en train de tracer leurs sillons dans les plaines céréalières de la Beauce ou de la Brie, si certains ne seraient pas en train de pousser un peu loin le bouchon en voulant nous faire croire qu’on a arrêté depuis belle lurette de retourner les champs et que, grâce au glyphosate, tout la profession s’est convertie à la permaculture…

Voilà en tout cas une situation bien peu rationnelle en apparence. Alors qu’en Europe et singulièrement en France, la demande en produits issus de l’agriculture biologique explose, au point qu’on est obligé d’importer massivement pour y faire face, la majorité active (ou du moins la plus bruyante) de la profession agricole se bat pour conserver le droit d’utiliser des produits phytosanitaires dont l’effet sur les sols et sur l’environnement est catastrophique, avec pour principal argument que c’est le seul moyen pour produire à bas coût et répondre ainsi aux diktats de la grande distribution.

La filière agricole et le ministre de l’agriculture en tête, se sont ainsi bruyamment félicités de la décision honteuse prise le 27 novembre 2017 par les États membres de l’Union européenne à une large majorité de prolonger de 5 ans la licence d’exploitation du glyphosate malgré tous les risques qu’il représente non seulement pour l’environnement mais aussi pour la santé humaine puisqu’il est désormais considéré comme « cancérogène probable » suite à une étude publiée en mars 2015 par le Centre international de recherche contre le cancer qui dépend de l’OMS.

Un dessin de Deligne (source : Urtikan)

La déclassification en mars 2017 des fameux « Monsanto papers » indique d’ailleurs que la firme américaine a découvert ce pouvoir mutagène du glyphosate dès 1999 et a tout fait depuis, grâce à son réseau d’influence auprès d’experts internationaux reconnus, pour semer le doute à ce sujet et publier nombre de résultats d’études qui tendent à prouver le contraire pour renforcer sa position.

Voilà en tout cas qui montre, une fois de plus, à quel point il est difficile, sur des dossiers aussi complexes et qui comportent de tels enjeux économiques, de prendre des décisions qui seraient conformes à l’intérêt général. Difficile d’ailleurs de ne pas faire le parallèle avec le cas de l’amiante dont on connait les dangers depuis les années 1890 mais pour laquelle il a fallu attendre 1997 pour que son utilisation soit enfin interdite en France.

Monument dédié aux victimes de l’amiante à Condé-sur-Noireau

Les propriétés de ce matériau étaient telles qu’il a été massivement utilisé dans l’industrie et la construction, sous forme d’amiante-ciment, en renforcement des enrobés routiers, comme isolant thermique ou encore dans les garnitures de freins. Pendant des décennies, des générations entières d’ouvriers ont été exposées à l’inhalation de fibres d’amiante dont l’accumulation dans les poumons est la cause de cancer. Rien qu’en France, 6 500 cas de maladie professionnelle liée à l’amiante ont ainsi été reconnus pour la seule année 2005 et on considérait en 2015 que chaque année de l’ordre de 2 200 personnes développent un cancer du fait de l’amiante et que 1 700 personnes en meurent.

C’est en 1899 qu’a été constaté le premier décès imputé directement à l’amiante et en 1906 déjà un inspecteur du travail s’alarmait des nombreuses pathologies des ouvriers dans une filature de Condé-sur-Noireau, là même où en 1972 Ferrodo installera une usine de garnitures de frein dans laquelle plusieurs centaines d’ouvriers seront victimes d’exposition grave aux fibres d’amiante.

Bâtiments de l’ancienne mine d’amiante de Canari en Corse (photo © Gérard Baldocchi, Corse Matin)

Mais pendant très longtemps, les syndicats de travailleurs ont milité aux côté du lobby des entreprises de l’amiante pour lutter contre toute limitation de l’utilisation de ce produit considéré lui-aussi comme indispensable, de même que les Corses se sont battus pour conserver leur mine d’amiante à Canari ou que les élus locaux un peu partout se sont démenés pour maintenir en activité les usines Eternit comme à Port-de-Bouc où le site est désormais ornée d’un monument aux morts dédié aux victimes de l’amiante.

Travaux de désamiantage dans les locaux de l’université de Jussieu (source : EPAURIF)

Il a fallu pour que l’on cesse enfin d’utiliser ce produit nocif que l’on se rende compte que ce n’était pas seulement les professionnels qui étaient touchés mais la société toute entière. Alors qu’en 1994 six enseignants exposés à l’amiante dans un lycée de Gérarmer décèdent et qu’apparaissent les premières victimes sur le site de la faculté de Jussieu, l’inénarrable Claude Allègre, toujours aussi lucide, en est encore à railler, en 1996, « un phénomène de psychose collective ». C’est sans doute ce qu’il dirait aujourd’hui de la phobie du glyphosate, s’il avait conservé un minimum de crédibilité pour qu’on lui tende encore un micro…

En 2005, un rapport parlementaire faisait état de 35 000 morts dus à l’exposition à l’amiante en France entre 1965 et 1995 et de plusieurs milliers de décès supplémentaires attendus entre 2005 et 2030. Notons également que le Fonds d’indemnisation des victimes de l’amiante a déjà déboursé plus de 2 milliards d’euros en une dizaine d’années et que le désamiantage de la seule université de Jussieu a déjà coûté de l’ordre de 2 milliards d’euros également. De quoi largement relativiser les arguments de la FNSEA qui voudrait nous faire croire que, pour le glyphosate comme pour d’autres dossiers, la meilleure solution est encore de foncer dans le mur en fermant les yeux…

L.V. 

Ordures ménagères : faut-il vraiment trier ses déchets ?

28 novembre 2017

Ordures ménagères dans les rues de Marseille (photo © Robert Poulain, source Destimed)

Le traitement des ordures ménagères fait partie de ces dossiers complexes que les collectivités ont bien du mal à gérer. Leur volume ne cesse d’augmenter : chaque Français jette plus d’1 kg de déchet chaque jour, soit 573 kg par an, et cette quantité a doublé au cours des 40 dernières années ! Et les solutions techniques pour les traiter sont de plus en plus coûteuses.

Le simple enfouissement des ordures pose de sérieux problèmes environnementaux et tend à disparaître, sauf pour les déchets ultimes, dans des conditions très contrôlés, d’autant que plus personne n’accepte l’ouverture d’une décharge à côté de chez lui. Mais on enfouit encore près de 30 % de nos déchets, ce qui montre à quel point le recyclage reste largement à développer.

L’incinération, qui concerne désormais de l’ordre d’un tiers du traitement des déchets, crée également de sérieuses réticences de la part du voisinage et n’est rentable que pour de gros volumes. Le coût moyen de traitement des ordures par incinération, comme cela est pratiqué pour l’agglomération marseillaise, est évalué par l’ADEME à 121 € la tonne (en 2013) mais les coûts augmentent rapidement lorsque les volumes à traiter sont faibles, du fait des charges fixes élevées. Il existe actuellement en France plus de 125 unités d’incinération, dont la plupart (moins de 70 % en réalité) valorisent l’énergie produite (en alimentant des réseaux de chaleur).

Incinérateur d’ordures ménagères à Fos-sur-Mer (photo © Pierre Ratcliffe)

En France, on estime le volume global de déchets produits annuellement à 355 millions de tonnes dont l’essentiel provient des chantiers de construction (estimé à 250 Mt) et, dans une moindre part (6Mt environ) de l’activité économique industrielle. La part des ordures ménagères proprement dite représente de l’ordre de 17 Mt, à laquelle s’ajoute à peu près autant de déchets issus des artisans et commerçants et qui sont généralement collectés en même temps, ainsi que 4 Mt produits par les collectivités elles-mêmes, soit environ 38 millions de tonnes de déchets à traiter chaque année par les collectivités.

Décharge sauvage d’ordures ménagères sur le littoral méditerranéen (source © Ecologie Nature)

Voilà qui fait un volume considérable et qui coûte très cher à la société : de l’ordre de 10 milliards d’euros chaque année (dont la motié payée directement par les ménages via la taxe d’enlèvement des ordures ménagères) alors que ce montant n’était que de 3,5 milliards en 1990, à une période où les déchets étaient moins nombreux, plus facilement dégradables et surtout où l’on se contentait encore bien souvent de les entasser dans la nature dans de simples décharges, ce qui limitait les coûts à la collecte et au transport…

Une partie de ces déchets, déposés en déchetterie ou collectés en porte à porte via les poubelles jaunes peut être recyclée via différentes filières, pour l’essentiel largement subventionées car encore peu rentables économiquement. Mais près de la moitié de ce volume est constituée d’ordures ménagères et assimilées qui s’entassent dans nos poubelles grises et ne peut être facilement valorisée. Malgré toutes les campagnes de sensibilisation et d’information qui se multiplient depuis des années, le tri individuel des déchets n’est pas partout entré dans les mœurs et l’agglomération marseillaise fait partie des mauvais élèves.

On observe bien une amélioration globale du taux de recyclage qui dépasse désormais la barre des 60 % pour les emballages du programme Eco-emballage (mais plafonne encore en dessous de 45 % pour les emballages industriels…). Tous les immeubles collectifs sont loin d’être équipés pour la collecte sélective et les erreurs de tri sont telles que bien des containers collectés de la sorte s’avèrent inutilisables, d’autant que les règles de tri sont évolutives, plus complexes qu’il n’y paraît, et varient d’une collectivité à l’autre. En gros, seule une petite moitié des déchets recyclables fait l’objet d’un tri effectif à la source, via les dispositifs d’apport volontaire ou via la collecte sélective en porte à porte.

Plaquette pédagogique pour le tri des déchets, éditée par la société Eaux de Marseille

Face à ce constat, certains ont eu l’idée de mieux valoriser le tout venant issu de nos poubelles grises en procédant à leur tri de manière automatique. C’est le processus qu’a mis au point la société Vacher et qui est à l’œuvre depuis mi-2014 dans l’écopôle Altriom en Haute-Loire. A l’origine de cette initiative, un appel d’offre de la communauté d’agglomération du Puy-en-Velay, alliée avec la communauté de communes du Pays de Saugues et deux syndicats intercommunaux voisins de collecte et de traitement des ordures ménagères, celui des Monts du Forez et celui d’Emblavez-Meygal.

Ces colectivités se heurtaient depuis des années à l’impossibilité d’ouvrir un nouveau centre d’enfouissement des déchets. La solution proposée par le groupement consiste à trier les ordures ménagères en séparant de manière automatisée la matière organique d’une part (valorisée par compostage), et les emballages plastiques et métalliques ainsi que les papiers-cartons d’autre part, qui pourront ainsi être recyclés. Le reste, considéré pour l’essentiel comme combustible solide de récupération, est incinéré dans des fours de cimenteries locales, à l’exception d’une part de refus qui correspond grosso modo à 10 % du volume initial et qui, lui, doit effectivement être envoyé dans un centre d’enfouissement pour déchets ultimes. Tout le système repose sur un dispositif breveté très sophistiqué capable d’ouvrir les sacs de déchets et de traiter 20 tonnes par heure à raison de 21 heures par jour, avec plusieurs flux de valorisation, un bel outil technologique, pour un coût tout à fait compétitif puisqu’il est estimé entre 60 et 100 € la tonne !

Vue de l’usine Altriom au Puy-en-Velay (source Altriom)

Bien entendu, les concepteurs d’un tel système, pompeusement dénommé 3Wayste, le présentent comme révolutionnaire puisqu’il permettrait de valoriser 90 % des ordures ménagères entrantes alors que le système de collecte sélective en porte à porte, au Puy-en-Velay comme à Carnoux-en-Provence, ne dépasse guère les 16 %… A se demander d’ailleurs s’il est bien raisonnable de poursuivre cet effort de tri sélectif volontaire à la source auquel les Français semblent totalement rétifs quand on en voit les piètres résultats alors qu’il est en vigueur depuis des années et devrait désormais être entré dans les habitudes au vu de tous les efforts pédagogiques entrepris, y compris en milieu scolaire depuis le plus jeune âge

C’est d’ailleurs ce que préconise le directeur du centre Altriom qui envisage désormais de supprimer carrément la collecte sélective dans le centre-ville du Puy. Un choix statégique qui serait certainement vécu comme une incroyable reculade de la part de tous ceux qui se battent depuis des années pour que chaque citoyen prenne conscience qu’il doit être acteur de la gestion de son environnement et que réduire ses déchets en triant tout ce qui peut-être valorisé fait partie des gestes qui lui incombent en toute responsabilité… D’autant qu’en réalité le système revient à envoyer entre 38 et 46 % de ses flux de déchets entrants directement dans les fours de cimenterie.

Voilà en tout cas un beau débat de société en perspective !

L.V.  

Échangeur routier ou casse-tête chinois ?

24 novembre 2017

Vue aérienne du centre de la paisible bourgade de Chongqing

Située dans la zone montagneuse du Sichuan, en bordure du Yangzi Jiang, un peu en amont du barrage des Trois-Gorges, la ville chinoise de Chongqing, dont l’agglomération regroupe quelque 12 millions d’habitants, à un ou deux millions près, fait partie de ces zones urbaines en pleine expansion.

En 2010, le gouvernement y a lancé la construction d’une zone économique de 1200 km² qui s’étend entre le fleuve Yangzi Jiang et la rivière Jialing. Les capacités d’accueil de l’aéroport ont été multipliées par cinq et le linéaire des lignes de métro par six. Huit ponts supplémentaires ont été construits pour traverser les deux voies navigables qui drainent de la ville. En Chine, quand on parle d’aménagement du territoire, on ne fait pas les choses à moitié…

Quelques-uns des ponts construits sur le Yangzi Jiang à Chongqing

Et bien entendu, le réseau routier destiné à desservir une telle conurbation tentaculaire, surnommée « ville brouillard » en raison de sa pollution chronique légendaire, s’est considérablement développé. En 2009 a ainsi été entrepris la construction d’un gigantesque échangeur routier situé au croisement d’une multitude de voies qui desservent globalement huit directions, parmi lesquelles l’île de Guangyang, l’aéroport international de Chongqing Jiangbei, le pont du Grand Temple du Bouddha, le pont Chaotianmen, Danzishi, Sigongli et la zone du jardin du thé.

L’échangeur routier de Huangjuewan

Il a fallu pas moins de huit années de travaux pour mener à bien un chantier aussi titanesque et l’ouvrage qui en résulte, finalement mis en service le 29 mai 2017, est pour le moins effrayant ! Cet échangeur, au nom imprononçable de Huangjuewan, qui rassemble au total 15 bretelles différentes, superpose en effet pas moins de cinq voies de circulation dont la plus haute culmine à 37 mètres au dessus du sol. Une vidéo diffusée par l’Express permet de se faire une petite idée de l’ouvrage.

Un véritable entrelacs de routes qui se croisent dans tous les sens comme un plat de spaghettis géants et qui a de quoi faire peur à l’automobiliste le plus aguerri. Un vrai cauchemar en tout cas pour les GPS les plus sophistiqués qui risquent d’avoir bien du mal à se repérer dans cette superposition de voies en tous sens…

Mais pas de panique : il paraît que si on se trompe de sortie il est possible de revenir au point de départ en moins de 10 mn. Voilà qui devrait rassurer les automobilistes de passage pas encore totalement familiarisés avec ce drôle d’échangeur quelque peu intimidant…

L.V.  

Les derniers rebuts de Thulé

18 novembre 2017

Au printemps 1948, à l’issue de ses études à l’Institut de Géographie de l’Université de Paris, le jeune Jean Malaurie, embarque à 26 ans pour participer à la première expédition polaire conduite par Paul-Emile Victor au Groenland. Il renouvellera l’expérience l’année suivante mais se détourne très vite de ce programme d’exploration scientifique qui ne s’intéresse nullement à la vie des habitants du cru, les Inuits.

Jean Malaurie en avril 1951 (photo © Collection personnelle Jean Malaurie)

En juillet 1950, Jean Malaurie repart donc seul au Groenland pour y conduire, pour le compte du CNRS, la première expédition polaire française à visée à la fois géographique et ethnographique. Il ne s’intéresse pas seulement à la géomorphologie des terres arctiques qui sera le sujet de sa thèse, mais aussi et surtout aux hommes qui y vivent. Il établit ainsi des liens d’amitiés avec le groupe de chasseurs de phoques de Thulé avec qui il passe un hiver entier, dressant pour la première fois et sur quatre générations, l’arbre généalogique de la petite communauté isolée dans des conditions extrèmes.

Avec l’Inuit Kutsikitsoq et deux traineaux à chiens, sans radio ni boussole (inexploitable à ces latitudes), ils seront ainsi les deux premiers hommes au monde à atteindre le pôle nord magnétique, le 29 mai 1951.

Le 16 juin 1951, il découvre fortuitement à Thulé, une base militaire américaine construite secrètement pour accueillir des bombardiers nucléaires. Il observe avec consternation, de ses yeux d’ethnologue, le choc culturel auquel sont confrontés les Inuits dont la civilisation relève alors quasiment de l’âge de la pierre, et qui se retrouvent brutalement face à une débauche de moyens matériels déversés par la puissance militaire américaine. Le choc est brutal et Jean Malaurie saisit rapidement les enjeux culturels et politiques de cette rencontre, au point qu’il décide de prendre publiquement position contre l’implantation de cette base.

C’est cette découverte qui sera une des principales motivations de la publication de son livre intitulé Les derniers rois de Thulé, un best seller qui paraît en 1955 aux éditions Plon, et qui inaugure une nouvelle collection, baptisée Terre humaine, que dirigera désormais Jean Malaurie, une collection prestigieuse qui éditera notamment Tristes Tropiques de Claude Lévi-Strauss, Le cheval d’orgueil de Pierre Jakez Hélias, ou encore Pour l’Afrique, j’accuse de René Dumont. Élu en 1957, sur recommandation de Fernand Braudel et de Claude Lévi-Strauss, à la première chaire de géographie polaire de l’histoire de l’Université française, créée pour l’occasion à l’École pratique des hautes études, Jean Malaurie fonde en 1958 le Centre d’études arctiques, et lance, en 1960, Inter-Nord, la grande revue arctique du CNRS.

Cette base militaire américaine de Thulé, dont les premières installations datent de 1941, a subi une importante extension en 1951, avec l’accord des autorités danoises et dans le cadre de l’OTAN, mais sans la moindre consultation des populations autochtones. Pire, en 1953, les 187 Inuits qui vivaient à proximité ont été purement et simplement expulsés et contraints en quelques jours seulement d’abandonner leurs campements et leurs territoires de pêche et de chasse qu’ils occupaient depuis des millénaires, pour s’exiler 150 km plus au nord, à Qaanaaq. Il leur faudra attendre 1999 pour qu’ils reçoivent enfin un dédommagement pour cet exil forcé !

Inuits déménagés à Qaanaaq après la construction de la base de Thulé (photo de presse source Yonder)

Avion de chasse américain à Thulé en 1960 (source © United States Air Force)

C’est que la base américaine de Thulé est devenue hautement stratégique puisqu’elle accueille dans le plus grand secret des bombardiers stratégiques et un personnel militaire pléthorique allant jusqu’à 10 000 personnes. C’est depuis cette base que durant l’hiver 1956-57, en pleine guerre froide, des Boeing B-47 Stratojet effectuèrent des vols de reconnaissance pour aller inspecter les défenses soviétiques. En 1954, l’armée US y procède à l’édification de la Globecom Tower, un mât radio d’une hauteur de 378 mètres qui, lors de sa construction, constituait la troisième plus haute construction humaine sur terre…

Vue aérienne de la base de Thulé

Le 21 janvier 1968, alors que l’activité de la base a connu un certain ralentissement mais abrite encore près de 4 000 agents, un bombardier B-52 Stratofortress s’abîme dans l’océan Arctique, près du Groenland. Ce bombardier transportait quatre bombes nucléaires, dont trois ont été pluvérisées sur la banquise et en mer, la quatrième n’ayant jamais pu été repêchée. De nombreux Inuits, réquisitionnés pour participer aux opérations de nettoyage après la catastrophe, ont développé des maladies du fait des radiations auxquelles ils ont été exposés et ont eu toutes les peines du monde à obtenir des indemnisations après des années de combat juridique.

En 1959, c’est depuis la base de Thulé qu’a été entreprise, toujours dans le plus grand secret, la construction d’une autre base militaire, dénommée Camp Century et située au nord du Groenland, à 240 km de la côte. Il s’agissait officiellement d’une simple base de recherche, constituée de tunnels creusés sous la calotte glaciaire, de laboratoires scientifiques et d’un hôpital alimenté en électricité par un petit réacteur nucléaire acheminé sur place en pièces détachées et mis en service en octobre 1960. C’est d’ailleurs depuis cette base qu’ont été extraites les carottes de glace à partir desquelles le géophysicien danois Willi Dansgaard a réalisé les premières études sur l’évolution du climat depuis 100 000 ans.

Tunnel en construction à Camp Century (source © Frank J. Leskovitz)

Mais Camp Century abritait aussi une base militaire top secret construite dans le cadre du projet Iceworm (« ver de glacier ») et dont l’objectif était d’installer 600 missiles balistiques capable de frapper l’URSS. Pas moins de 21 tunnels ont ainsi été creusés sous la glace et jusqu’à 200 personnes travaillaient sur place en période estivale. Mais en 1964, les mouvements de la banquise se sont révélés tels qu’il a bien fallu se rendre à l’évidence et abandonner le projet. Le réacteur nucléaire a été démantelé et la base est tombée à l’abandon. Faute d’entretien, les tunnels se sont effondrés les uns après les autres et la base a été peu à peu ensevelie. Il a d’ailleurs fallu attendre janvier 1997 pour que le projet soit rendu public, lorsque l’Institut danois de la politique étrangère publia un rapport, à la demande du Parlement danois, concernant l’histoire des armes nucléaires au Groenland. Ce rapport provoqua un véritable scandale, puisqu’il montrait qu’à l’époque le gouvernement danois avait autorisé tacitement le transport d’armes nucléaires au Groenland, en violation avec la déclaration officielle du Premier ministre, Hans Christian Hansen, qui affirmait en 1957 que le Danemark était une zone totalement exempte d’armes nucléaires.

Etat de la base lors d’une inspection en 1969 (source © Frank J. Leskovitz)

Le problème est que, 50 ans après l’abandon du projet, le réchauffement climatique qui touche particulièrement les hautes latitudes terrestres et provoque désormais des feux de brousse jusqu’au Groenland, menace la stabilité de ces vestiges qui à l’époque étaient enfouis sous 30 m de neige et qui s’étendent sur 55 hectares. Si la fonte de la glace se poursuit au rythme actuel, elle ne sera bientôt plus compensée par les chutes de neige, et les vestiges enterrés vont peu à peu être exhumés. Or il reste encore sur place plus de 200 000 l de fuel stocké dans des cuves sans doute percées depuis belle lurette par la rouille, ainsi de 20 000 l de produits chimiques divers et variés, 240 000 l d’eaux usées jamais traitées et 9 200 t de déchets de nature diverses, ainsi que des générateurs et transformateurs contenant des PCB, sans compter l’enceinte de confinement du réacteur nucléaire, toujours radioactive…

Voilà, s’il en était besoin, un exemple supplémentaire des conséquences potentielles de certaines des idées géniales qui ont germé un jour dans l’esprit de nos dirigeants et de nos élites militaires empreintes de la plus grande confiance dans leur toute puissance technologique, mais peu regardantes sur les risques que leurs élucubrations hasardeuses pouvaient faire courir aux générations futures…

L.V.  

Canal de Provence : des plans d’eau qui rayonnent…

14 novembre 2017

Le Canal de Provence à Saint Maximin, dans le Var (photo © Camille Moirenc / SCP)

Créée en 1957 sous la forme d’une société anonyme d’aménagement régional, la Société du Canal de Provence, qui vient de fêter ses 60 ans, résulte en réalité d’un pacte passé en 1955 entre la Ville de Marseille et les deux départements des Bouches-du-Rhône et du Var, dans l’objectif de mettre en commun leurs droits d’eau sur la rivière du Verdon. Dès 1963, la société s’est vue confier, par concession d’État, la mission de réaliser et gérer le canal de Provence destiné à acheminer, vers l’agglomération marseillaise et une partie du Var, l’eau du Verdon stockée grâce aux différents barrages de Sainte-Croix, Quinson, Gréoux, Castillon et Chaudanne.

La construction du canal s’est échelonnée entre 1964 et 1986, à partir de la prise de Boutre, à Vinon-sur-Verdon. A Rians, le canal se divise en deux branches, l’une desservant le pays d’Aix et le nord de Marseille, l’autre l’Est marseillais et le Var. Le réseau s’est progressivement étendu, y compris via la construction récente de la liaison Verdon – Saint-Cassien destinée à alimenter le littoral varois jusqu’au golfe de Saint-Tropez. Il comprend désormais près de 70 km de canaux à ciel ouvert, 140 km en galerie souterraine et pas moins de 4500 km de canalisations.

Le barrage de Bimont, près de la Sainte-Victoire, géré par la SCP

La gouvernance a évolué également avec l’arrivée de la Région PACA en 1983, puis celle du département de Vaucluse en 1988, pour le développement de l’irrigation dans la plaine du Sud-Luberon. En 2008, l’ensemble du patrimoine appartenant à l’Etat et concédé à la SCP a été transféré à la Région, renforçant ainsi l’appropriation par les collectivités territoriales de ce patrimoine hydraulique.

Branche nord du canal de Provence (photo © Camille Moirenc / SCP)

De l’ordre de 2 millions de personnes, soit 40 % de la population régionale est désormais alimenté en tout ou partie par de l’eau acheminée par le réseau de la SCP. Une des particularités de ce réseau réside dans son mode de régulation dynamique, géré de manière centralisée depuis le siège de la société basé au Tholonet, et qui permet d’ajuster à tout moment les débits délivrés en fonction de la demande effective des utilisateurs.

C’est ce souci constant de l’innovation technologique qui a poussé la SCP, depuis déjà quelques années et après avoir exploité toutes les potentialités de l’hydroélectricité, à s’intéresser à la production d’énergie solaire sur son propre réseau. Dans une région aussi ensoleillée, un des freins au développement de cette production réside en effet dans le coût du foncier qui réduit les possibilités d’implantation de centrales photovoltaïques. Or, les plans d’eau et les canaux gérés par la SCP constituent de vastes superficies qui peuvent facilement être recouvertes de panneaux solaires.

Panneaux solaires installés dans le cadre du projet Canasol à Rians (source : Actu Environnement)

Qui plus est, une telle couverture présente de multiples intérêts. Les panneaux photovoltaïques protègent les canaux contre les intrusions et les chutes ou les baignades intempestives, ce qui est un des risques récurrents auquel est confrontée la SCP, et en même temps ils protègent l’eau des rayonnements solaires directs, ce qui permet de limiter l’évaporation et de garder à l’eau une certaine fraîcheur tout en évitant la prolifération des végétaux aquatiques, une autre des plaies de l’exploitant.

Et ce n’est pas tout ! En plein été et sous le chaud soleil de Provence, la température grimpe rapidement à la surface des panneaux photovoltaïques. Or, au-delà d’une certaine température (de l’ordre de 70 °C), le rendement des panneaux baisse fortement, perdant jusqu’à 15 % de leur efficacité énergétique. Le fait de les installer juste au-dessus de la surface des canaux présente donc une réelle opportunité puisqu’on peut facilement les arroser pour éviter tout échauffement intempestif.

Site du démonstrateur Canalsol à Rians (photo © Camille Moirenc / SCP)

Pour tester le concept, la SCP s’est alliée avec le pôle de recherche technologique du CEA en 2013, dans le cadre du pôle de compétitivité Capénergie, afin de créer une plateforme expérimentale située à proximité de son centre d’exploitation à Rians. 132 panneaux solaires ont ainsi été déployés et testés pendant plus d’un an à partir de l’automne 2014, pour évaluer l’intérêt du dispositif et comparer différentes orientations et modalités de refroidissement (par aspersion, par circulation direct ou par le seul effet passif de l’eau circulant à 1,20 m sous les panneaux et dont la température moyenne varie entre 15 et 18 °C).

Dispositif d’aspersion des panneaux photovoltaïques du projet Canalsol

Les résultats de ce projet de recherche baptisé Canalsol semblent suffisamment probants pour que la SCP poursuive ses efforts de développement technologique et envisage de passer à une phase très opérationnelle qui consisterait à installer une centrale photovoltaïque flottante sur le vaste réservoir à ciel ouvert du Vallon Dol situé sur les hauteurs de Marseille, au pied du massif de l’Étoile.

La réserve de Vallon Dol, sur les hauteurs de Marseille (photo © Camille Moirenc / SCP)

Ce gigantesque bassin qui s’étend sur 17 hectares contient 3 millions de m3 d’eau acheminée depuis le Verdon (soit plus de deux fois la capacité du Vieux Port !), de quoi assurer pendant une semaine entière l’alimentation en eau de toute la ville de Marseille. Construit en 1973, ce bassin qui peut être alimenté via les deux branches principales du canal de Provence sert de réserve pour l’usine de potabilisation située à proximité et géré par la SEM.

Pour aménager sur ce vaste plan d’eau une centrale solaire dont la puissance visée serait de 10 MW, la SCP vient de lancer une consultation, afin de choisir un partenaire avec lequel la SCP créerait une société de projet en vue de concevoir, financer, réaliser, exploiter, maintenir et vendre la production d’électricité de cette future installation de panneaux photovoltaïques flottants. Un projet ambitieux et innovant dont s’est fait l’écho La Provence et qui pourrait peut-être demain donner des idées à d’autres exploitants : à quand des panneaux photovoltaïques sur le Grand Canal à Venise ?

L.V. 

Des algues à la rescousse de la planète

21 octobre 2017

A Paris, la société Suez Environnement vient d’installer une nouvelle sorte de mobilier urbain qui rappelle furieusement les antiques colonnes Morris, lesquelles parsemaient les artères de la capitale au XIXème siècle pour afficher spectacles et informations diverses. Dressée sur la place d’Alésia dans le 14ème arrondissement, au centre d’un carrefour où transitent chaque jour en moyenne pas moins de 72 000 véhicules, cette colonne d »un nouveau style, est en réalité un puits de carbone expérimental, ainsi que l’ont rapporté notamment Le Monde et Les Echos.

Colonne Morris aquarium installée place d’Alésia (photo © Gilles Rolle / REA)

Le principe de fonctionnement est des plus simples. Comme chacun sait, les algues, ainsi que tous les végétaux pourvus de chloroplastes et aptes à la photosynthèse, absorbent en présence de lumière le gaz carbonique dont elles assimilent le carbone et rejettent l’oxygène.

La colonne Morris high tech de 4 m de hauteur installée en juillet 2017 place d’Alésia par Suez en accord avec la Mairie de Paris n’est ni plus ni moins qu’un vaste aquarium de 1 m³ qui contient des microalgues. Un système de ventilation leur permet de s’alimenter avec l’air ambiant chargé en gaz carbonique et en polluants divers dont le dixyde d’azote (NO2) rejeté en grande quantité par les pots d’échappement des véhicules et dont la quantité à cet endroit dépasse régulièrement le seuil réglementaire de 40 µg/m³, selon les données d’Airparif.

Principe de fonctionnement du puits de carbone (source © SUEZ)

Des diodes électroluminescentes fournissent aux algues l’éclairage suffisant pour optimiser les réactions de photosynthèse et l’oxygène ainsi produit est rejeté dans l’air ambiant grâce au système de ventilation : rien de plus simple, il suffisait d’y penser ! A force de se goinfrer ainsi de gaz carbonique, les microalgues vont naturellement croître et se multiplier. Quand il y en aura trop, un coup de chasse d’eau et la biomasse en excès filera via le réseau d’assainissement vers la station d’épuration où elle sera transformée en biogaz. Après traitement, le méthane ainsi récupéré sera ensuite réinjecté dans le réseau de gaz naturel. Un bel exemple d’économie recyclée où l’on est gagnant à chaque étape…

Prototype en cours de test à la station d’épuration de Colombes (source © SUEZ)

Le dispositif, mis au point avec la start-up Fermentalg, basée à Libourne en Gironde et spécialisée dans la production de microalgues destinées à la nutrition humaine et animale, a fait l’objet d’une présentation lors de la COP 21 en décembre 2015. En janvier 2017, un premier test en vraie grandeur a été effectué à l’usine de traitement des eaux usées du SIAAP (Syndicat interdépartemental de l’assainissement de l’agglomération parisienne) à Colombes où un puits de carbone a été mis en place, alimenté par les gaz à effet de serre rejetés par les fumées du four d’incinération des boues de l’usine. Le système a donné entière satisfaction et la durée de vie des algues s’est révélée bien plus longue que prévu grâce à cette source d’alimentation constante en CO2.

Devant le succès de l’opération, la question s’est posée de poursuivre l’expérimentation dans un site urbain où les taux de gaz carbonique varient davantage. Célia Blauel, adjointe en charge de l’environnement à la mairie de Paris, s’est ainsi laissée convaincre et la fameuse colonne Morris a donc été installée place d’Alésia. L’objectif est de fixer une tonne de CO2 par an, soit un effet comparable à une centaine d’arbres, tout en produisant une dizaine de kg de biométhane, un objectif jugé bien modeste par certains au vu du coût de l’investissement, qui n’a pas été communiqué mais qui semble assez élevé. Le système permettra aussi d’absorber une partie des polluants atmosphériques de type oxydes de soufre, mais c’est seulement à l’issue de cette phase expérimentale qu’on pourra déterminer dans quelle proportion.

Bref, le chemin semble encore bien long avant que de telles colonnes épuratoires ne se développent dans les rues de la capitale, mais l’idée est ingénieuse et vient rappeler à quel point les algues peuvent être des auxiliaires précieux de notre vie quotidienne. Les microalgues en particulier, qui sont très abondantes dans de nombreux milieux naturels et peuvent facilement être cultivées sans nécessiter pour cela de vastes surfaces agricoles, ont un potentiel de développement dix à trente fois supérieur aux plantes terrestres, puisqu’elles sont capables de doubler leur biomasse chaque jour dans des conditions optimales.

Réacteurs photo-biologiques pour la culture de micro-algues (source © WebTV de l’Université de Nantes)

Utilisées de longue date comme nutriment, cosmétique, colorant ou complément alimentaire, les microalgues pourraient bien contribuer demain à la production de biocarburants, pour l’instant issu surtout de la transformation de soja mais au prix de l’accaparement de vastes superficies de terres agricoles. Ainsi, des chercheurs chiliens sont parvenus récemment à produire du biodiesel à base de microalgues en essayant de réduire autant que possible la quantité d’énergie nécessaire pour la croissance de ces organismes unicellulaires, mais le procédé reste pour l’instant au stade de la recherche.

Bitume bio obtenu à partir de résidus de microalgues (source © WebTV de l’Université de Nantes)

En attendant, des chercheurs du CNRS et de l’université de Nantes associés avec la société AlgoSource Technologies basée à Saint-Nazaire, sont peut-être en train de mettre au point le bitume algaire de demain, ainsi que l’a rapporté Le Monde. Leurs travaux, issus du projet Algoroute, publiés en avril 2015 dans la revue ACS Sustainable Chemistry & Engineering et qui ont fait l’objet du dépôt d’un brevet, montrent en effet qu’il est possible, en laboratoire, d’obtenir à partir de résidus de microalgues placés dans un bain d’eau chauffée sous pression, une substance visqueuse hydrophobe, qui présente des caractéristiques similaires à celles du bitume pétrolier : même couleur noire, même viscoélasticité qui assure la cohésion des granulats entrant dans la composition des revêtements routiers, et propriétés rhéologiques comparables conférant au matériau résistance et flexibilité sous l’application de charges roulantes.

Voilà en tout cas qui laisse entrevoir, pour un avenir peut-être proche, des possibilités intéressantes de substitution de certains produits dérivés de l’exploitation pétrolière. A défaut de se passer de routes et de voitures, ce sont peut-être les cultures d’algues qui permettront un jour de trouver enfin un équilibre durable entre développement économique et pérennité de notre environnement naturel…

L.V.  

Marseille enterre son passé celto-ligure

14 octobre 2017

Jean-Claude Gaudin en colère face à un journaliste d’Envoyé Spécial (source : capture écran © France2)

A Marseille, il est temps de faire table rase du passé. L’inamovible Jean-Claude Gaudin, 77 ans au compteur, vient enfin de se résoudre à quitter son poste de sénateur qu’il occupait depuis 24 ans, et ceci après avoir piqué une énorme colère face à un journaliste d’Envoyé Spécial venu l’interroger sur les petits chèques de 5000 € qu’il a touchés chaque trimestre pendant au moins 4 ans dans le cadre d’un système très organisé de détournement de fonds publics mis en place par une structure associative dénommée Union républicaine du Sénat. Finies donc les distributions trimestrielles de « chocolats » puisque la loi ne lui permet plus de cumuler cette sinécure sénatoriale avec ses fonctions de maire de la cité phocéenne et de président de la métropole Aix-Marseille-Provence.

Mais la ville s’apprête aussi à enterrer, au sens propre cette fois, certains vestiges de son illustre passé, en l’occurrence un ancien oppidum celto-ligure situé dans le quartier de Verduron, en limite nord de la ville, près de Saint-Antoine. Découvert fortuitement en 1905 par le sculpteur Sébastrien Clastrier qui est tombé sur un amoncellement de grosses pierres et de tessons de poteries en défrichant la propriété qu’il venait d’acquérir, ce site est classé monument historique depuis 2004 et a bénéficié de plusieurs campagnes de fouilles archéologiques entre 2000 et 2005.

Vestiges de l’oppidum de Verduron, sur les hauteurs de Marseille (source : Marsactu)

L’oppidum, qui daterait de la fin du IIIème siècle avant J.-C., est implanté sur un éperon rocheux qui culmine à 195 m d’altitude et domine la route menant de Marseille à la plaine de Marignane en passant par l’Estaque. Le site est ceinturé par un fossé et un mur d’enceinte bati en pierres, dont l’épaisseur à la base atteint 80 cm à 1 m. On pénétrait dans l’enceinte via une porte fortifiée située au sud-est, en partie basse, et le site lui même était traversé par une rue principale desservant 36 cases d’habitation dont on a retrouvé les vestiges. Au sommet se trouvent les restes d’un édifice carré divisé en quatre parties.

Cet habitat fortifié d’origine celto-ligure ne semble pas avoir été occupé pendant une très longue période et il a manifestement subi une destruction violente occasionnée par un siège militaire avec utilisation de catapultes, sans qu’on sache très bien si les agresseurs étaient des Grecs ou des Romains. Toujours est-il que l’édifice continue à se dégrader même longtemps après le départ de ceux qui l’ont jadis assiégé, si bien qu’en 2009 une étude scientifique avait préconisé d’en recouvrir les parties les plus vulnérables par une couche de sable afin de les protéger de l’érosion atmosphérique et du vandalisme.

Après réflexion, la Ville de Marseille a finalement annoncé, par la voix de l’adjoint au maire en charge du patrimoine, André Malrait, au cours d’une conférence de presse dont Marsactu s’est fait l’écho, que le site allait être entièrement recouvert et disparaîtrait ainsi des regards. Exit donc l’ex-oppidum de Verduron, en espérant que certains ne l’oublient pas totalement au point d’aller y construire un lotissement, ni vu ni connu, sur ce promontoire à la vue imprenable… Voilà au moins un monument historique dont les urbanistes marseillais n’auront plus à subir le poids des contraintes réglementaires induites !

Il existe certes de multiples autres oppidum de ce type dans toute la région, y compris tout près de Carnoux, sur la commune de Roquefort-La Bédoule, sans oublier naturellement celui d’Entremont, en limite sud du plateau de Puyricard, au nord d’Aix-en-Provence, là où se situait probablement l’ancienne capitale de la confédération des Celto-Ligures, prise en 123 avant J.-C. par les troupes du futur consul de Rome Caius Sextius Calvinus qui fondera au pied du plateau la ville d’Aquae Sextiae, la future Aix-en-Provence.

Vue partielle du site de l’oppidum d’Entremont (source © Archeopterre)

Les nombreux vestiges retrouvés sur ce site et visibles au musée Granet nous en apprennent un peu plus sur les mœurs de nos ancêtres locaux, ces Salyens de l’arrière-pays marseillais qui au IVème siècle avant J.-C. étaient en pleine expansion et avaient chassé les Grecs massaliotes de leur comptoir rhodanien qu’ils rebaptisent Arelate et qui deviendra la future Arles.

Mur d’enceinte du Baou de Saint-Marcel

Un autre site très réputé est celui du Baou de Saint-Marcel, situé dans ce quartier marseillais, au droit d’un rétrécissement de la vallée de l’Huveaune. Cet habitat protohistorique, qui s’étend sur 3 ha environ, présente à l’ouest une falaise rocheuse abrupte constituant une défense naturelle utilisée épisodiquement comme abri au Paléolithique alors que les autres versants en pente douce sont protégés par une enceinte en pierres, construite dès le deuxième quart du VIème siècle av. J.-C. Ce site montre des traces d’occupation quasi continue jusqu’à la deuxième moitié du IIème siècle avant J.-C. et de nombreux restes de poteries provenant principalement de Grèce et d’Etrurie y ont été découverts.

Citons aussi pour faire bonne mesure l’oppidum de La Cloche, situé sur la commune des Pennes-Mirabeau, en haut d’un promontoire rocheux offrant une vue imprenable sur les pistes de l’aéroport de Marignane et l’étang de Berre. On accédait jadis à ce site perché via une voie marqué de profondes ornières encore bien visible et qui passe désormais au dessus du tunnel ferroviaire du Rove dont le tracé est marqué par les cheminées d’aération.

Vue aérienne de l’oppidum de La Cloche (source : © Service régional de l’Archéologie DRAC-PACA)

La porte d’entrée qui permettait de pénétrer à l’intérieur du mur d’enceinte était surmonté d’une poutre à laquelle étaient cloués quelques crânes de guerriers ennemis, en guise de marque d’accueil. Edifié dans la première moitié du premier siècle avant notre ère et probablement détruit en 49 avant J.-C. par les armées romaines du général Trebonius, l’oppidum ressemble à un véritable village perché avec ses nombreuses maisons d’habitation serrées les unes contre les autres et étagées selon la topographie du promontoire rocheux.

Bien d’autres sites archéologiques datant de cette époque salyenne d’avant la conquête romaine pourraient être évoqués ici, qui témoignent s’il en était besoin de la richesse de l’histoire ancienne de cette région. Certains pourraient en être fiers et chercher à mettre en valeur ce patrimoine protohistorique singulier. D’autres préfèrent tout simplement les enterrer à jamais…

L.V.  

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Au Cameroun, des bouteilles à la mer…

28 septembre 2017

Alors que tous les médias sont focalisés sur les inondations récentes qui se sont produites dans le sud des États-Unis et aux Antilles suite au passage des derniers cyclones Harvey puis Irma, on aurait presque tendance à oublier que bien d’autres régions du monde ont été meurtries récemment par des événements climatiques tout aussi spectaculaires. Fin août 2017, on estime ainsi que plus de 1500 personnes ont péri du fait des inondations consécutives à la mousson en Asie du Sud-Est, principalement en Inde, au Népal, au Bengladesh et au Pakistan.

Inondations à Freetown, Sierra Leone, en août 2017 (photo © Jamie Hitchen / Twitter)

Mais l’Afrique est aussi régulièrement touchée par les inondations. Cet été, c’est notamment le Sierra Leone qui a été cruellement frappé par de terribles inondations qui ont dévasté plusieurs quartiers de la capitale Freetown où un bilan provisoire établi par la Croix-Rouge faisait état, mi-août, d’au moins 312 victimes recensées tandis que de spectaculaires coulées de boues ravageaient tout sur leur passage, éventrant de nombreuses maisons et ensevelissant des dizaines de personnes.

Le Cameroun fait partie de ces pays de l’Afrique subtropicale régulièrement touché par les fortes pluies qui s’abattent en été. Le 14 septembre dernier, le site Cameroon-info, faisait ainsi état de graves inondations qui paralysent la capitale Douala après trois jours de pluies particulièrement intenses tombant sans discontinuer, tandis que le 11 septembre, la ville de Yaoundé avait déjà essuyé des inondations dévastatrices.

C’est à l’occasion d’un tel déluge qu’un jeune étudiant camerounais avait constaté, en 2011, que son quartier pouvait être envahi en moins de 30 minutes, non seulement par des eaux plus ou moins chargées, mais surtout par une véritable marée de bouteilles en plastique ! Jetées partout dans les rues et sur les dépotoirs, les bouteilles en plastique sont en effet remobilisées dès que les flots se déversent dans la ville et viennent s’accumuler dans les points bas.

Face à une telle invasion, le jeune Ismaël Essome s’est lancé le défi de trouver des débouchés à toutes ces bouteilles en plastique indésirables. Une fois obtenu son diplôme d’ingénieur en gestion environnementale, et alors qu’il travaille pour une ONG internationale à la mise en valeur du littoral camerounais, il se met en tête d’essayer de construire des pirogues en assemblant des centaines de bouteilles en plastique.

En 2014, le gouvernement camerounais a pourtant pris la décision courageuse d’interdire les emballages non biodégradables sur l’ensemble du territoire : dorénavant, les producteurs et distributeurs de liquides vendus dans des bouteilles en plastique doivent assurer leur recyclage après usage. Pourtant, force est de constater que, trois ans plus tard, des millions de bouteilles encombrent toujours les villes du pays et s’amassent dans tous les cours d’eau et fossés de drainage.

Démonstration de navigation avec une pirogue (crédit photo © Madiba et Nature)

En août 2016, comme le raconte Le Monde Afrique, et après moult essais, Ismaël Essome réussit à construire une première pirogue constituée d’un millier de bouteilles en plastique de récupération, soigneusement rebouchées, et attachées entre elles par un lien en nylon. Deux planches forment l’ossature de la pirogue et vogue la galère…

Pour piloter ce projet un peu fou, Ismaël a fondé sa propre association, dénommée Madiba et Nature, destinée à promouvoir de manière très pragmatique la préservation de l’environnement et l’économie circulaire. Aidé de son neveu, il sillonne les rues pour collecter les bouteilles usagées et améliore sans cesse la structure de ses pirogues en plastique qu’il teste sur les plages pour démontrer aux pêcheurs professionnels leur efficacité.

Une pirogue ainsi assemblée peut transporter jusqu’à trois personnes et une charge de 90 kg. Elle est plus stable qu’une pirogue en bois traditionnelle, coûte deux à trois fois moins cher et s’avère plus durable car, contrairement au bois, le plastique met très longtemps à se dégrader. Sans compter que leur construction, non seulement ne contribue pas à la déforestation du pays mais participe au contraire à assainir l’environnement de ces déchets qui l’encombrent.

Une fois son prototype au point, le jeune Camerounais a formé une équipe de cinq personnes et fait appel à des volontaires, ce qui lui a permis de construire six pirogues en un an, qu’il utilise pour faire des démonstrations et convaincre les acheteurs potentiels. Il a déjà enregistré une cinquantaine de commandes destinées à la pêche artisanale et à l’écotourisme.

Les pirogues écologiques d’Ismaël Essome sur la plage de Londji, au Cameroun (crédit photo © Josiane Kouagheu)

Ainsi, à Londji, petit village de pêcheurs situé près de Kribi, dans une zone côtière touristique du Sud-Cameroun réputée pour ses plages de sable fin et ses mangroves, le président de la coopérative tente de monter, avec l’aide d’Ismaël Essome, un projet de centre d’accueil pour le moins original : les touristes y seront hébergés dans des cases construites à l’aide de bouteilles en plastique recyclées et ils pourront déguster du poisson pêché avec les pirogues conçues par Madiba et Nature : une vraie success story à la Camerounaise…

L.V. 

Le feu de Carnoux vu de l’espace…

17 septembre 2017

Le 19 août dernier, l’incendie qui a ravagé le versant boisé situé entre Aubagne et Carnoux, menaçant gravement plusieurs maisons situées en limite nord de Carnoux, le long de l’avenue Jean Bart, a laissé de sinistres traces. Plusieurs centaines d’hectares d’espaces boisés et de garrigues sont partis en fumée, laissant un paysage noirci de cendres et d’arbres calcinés qui rappellera pour de longs mois le souvenir de cet événement. Trois semaines plus tard, lorsque les premières grosses pluies de la saison se sont abattues sur Carnoux, la forte odeur de brûlé a brutalement envahi toute la ville, comme un ultime rappel du sinistre qui a bien failli transformer toute la ville en un gigantesque brasier…

Zones brûlées sur les hauteurs de Carnoux (photo prise le 27 août 2017)

Il suffit de se promener sur les hauteurs de Carnoux comme chacun ou presque l’a fait depuis cette date pour observer les ravages du feu. Mais lorsqu’on prend un peu de hauteur, l’effet est d’autant plus saisissant. Un des outils permettant une telle observation est la famille de satellites Sentinel, qui constituent le volet spatial du programme Copernicus initié par l’Union européenne. Le déploiement de cette batterie de satellites européens, commencé il y a maintenant une dizaine d’années, est encore en cours mais plusieurs satellites sont d’ores et déjà opérationnels.

Le premier, Sentinel-1A, avait été lancé de Kourou le 3 avril 2014 et a bien failli exploser en vol avant même de pouvoir déployer ses capteurs, tout ça à cause d’un banal accident de la circulation. Heureusement, les opérateurs de l’agence spatial européenne avaient alors réussi, grâce à un léger coup d’accélérateur bien placé, à éviter de justesse le satellite américain Acrimsat, qui passait malencontreusement par là au mauvais moment. Les routes de l’espace sont plus dangereuses qu’on ne le croit…

Vue du satellite Sentinel 2 (source © ESA/ATG medialab)

Depuis, d’autres satellites ont été déployés : le petit frère, Sentinel-1B, en avril 2016, mais aussi les deux sœurs jumelles Sentinel-2A, lancé le 23 juin 2015 par Véga depuis Kourou et Sentinel-2B, qui vient de s’envoler depuis Baïkonour le 7 mars 2017, propulsé par le lanceur russe Rockot. Ce sont ces deux derniers satellites qui nous intéressent tout particulièrement car ils disposent de 13 bandes spectrales allant du visible au moyen infra-rouge et permettant de prendre des clichés avec une résolution de 10 à 60 m. A eux deux, ils permettent de couvrir la quasi totalité des terres émergées avec des prises de vues espacées de 5 jours seulement, ce qui en fait des mouchards particulièrement efficaces.

Les clichés pris dans l’infra-rouge sont surtout utiles pour analyser l’occupation des sols car cette technique permet notamment de mettre en évidence certaines distinctions qui n’apparaissent pas aussi clairement dans le spectre visible. Elle permet en particulier de détecter des différences de température mais aussi d’humidité des sols, de couvert végétal et bien d’autres éléments très utiles notamment dans l’agriculture et le suivi des catastrophes naturelles.

Vue satellite de l’incendie du 19 août entre Aubagne et Carnoux (7 septembre 2017 – source © Sentinel hub)

Une partie des données issues de ces observations satellitaires étant en libre accès sur l’application Sentinel hub, il est assez aisé de rechercher, via un outil de visualisation ouvert à tous, des images d’archives prises par Sentinel 2. Celle du 7 septembre 2107 ne manque pas d’intérêt puisque prise quelques jours seulement après l’incendie qui est venu lécher la commune de Carnoux. Le cliché est assez spectaculaire car la restitution via l’exploitation de plusieurs canaux infrarouges met parfaitement en évidence les surfaces brûlées. On y décèle clairement le point de départ de l’incendie et sa propagation jusqu’aux portes de Carnoux, ainsi que les coupe-feux qui ont permis aux pompiers d’en stopper la progression.

Les plus curieux (et bien entendu les Varois) seront naturellement enclins à déplacer le curseur vers la droite de la carte, ce qui permet de mettre en évidence les foyers qui se sont déclarés cet été dans le département voisin qui a, cette année, payé un très lourd tribut avec 3 660 hectares de forêts ravagées par le feu en juillet-août 2017.

Vue satellite des deux incendies du 25 juillet et du 2 septembre aux alentours de La Londe-les-Maures, dans le Var (14 septembre 2017 – source © Sentinel hub)

 On y repère notamment les trois plus importants d’entre eux qui ont eu lieu le 24 juillet à la Croix-Valmer (518 ha) et à Artigues (1 704 ha) et le 25 juillet entre La Londe–les-Maures et Bormes-les-Mimosas (1 418 ha), suivi d’un autre qui s’est déclaré le 2 septembre entre Hyères et La Londe (460 ha). On est loin des chiffres de l’année 2003 où près de 19 000 hectares étaient partis en fumée dans le seul département du Var, causant la mort de 3 pompiers et de 4 autres personnes, mais ce nouvel été meurtier vient rappeler, si besoin était, à quel point les espaces méditerranéens sont vulnérables aux feux de forêt.

Vue satellite de l’incendie du 11 août dans le Cap Corse (30 août 2017 – source © Sentinel hub)

Et si l’on prend la peine de se décaler un peu vers le sud-est jusqu’aux rivages corses, la photo satellite met en évidence d’autres zones calcinées, en particulier au droit du cap Corse. Une tâche noirâtre barre entre Pietracorbara et Sisco toute la largeur de ce que certains irrévérencieux ont comparé à un doigt d’honneur tendu vers la métropole : c’est la signature de l’incendie qui s’est déclenché près de Nonza, sur la côte ouest, dans la nuit du 10 au 11 août 2017 et qui a traversé le cap Corse dans toute sa largeur, brûlant au passage plus de 2000 ha de forêts et de maquis, et obligeant à évacuer pas moins d’un millier de personnes.

Un autre incendie est particulièrement visible sur ces images satellite et montre à quel point les habitations situés en lisière de zone boisée peuvent être exposées : il s’agit de celui d’Olmeta-di-Tuda qui a parcouru de l’ordre de 2200 ha entre le 24 et le 29 juillet et a été arrêté in extremis en bordure des lotissements de la zone très urbanisée de Biguglia, au sud de Bastia.

Vue satellite de l’incendie du 24 juillet au sud de Bastia (30 août 2017 – source © Sentinel hub)

De nombreuses autres images tout aussi spectaculaires sont visibles sur ce site, envoyées depuis l’espace par les satellites Sentinel, dont celles des récents cyclones qui ont ravagé les Antilles et le sud des États-Unis, venant opportunément nous rappeler à quel point les aménagements faits par l’Homme sont vulnérables face aux éléments naturels…

L.V.  

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Le futur téléphérique de Marseille

5 septembre 2017

Alors que la Région PACA dépense des millions pour équiper en canons à neige la station de ski de Super Sauze, si chère à son ancien Président Christian Estrosi, et si coûteuse pour ses malheureux électeurs contribuables, voilà que le maire de Marseille, Jean-Claude Gaudin, se prend à rêver d’installer un téléphérique pour monter à la Bonne Mère depuis le Vieux-Port, et ce n’est pas une galéjade…

Un skieur devant la basilique Notre-Dame de la Garde à Marseille le 7 janvier 2009 (Photo Jean-Paul Pélissier / Reuters)

Il est vrai qu’en janvier 2009 les chutes de neige qui avaient paralysé pour quelques heures la capitale phocéenne avaient démontré l’excellente qualité du domaine skiable qui s’étend sur les pentes de la colline de Notre-Dame de la Garde, laquelle culmine tout de même, rappelons-le, à 162 m d’altitude. De quoi donner des envies d’aménager des remontées mécaniques depuis le Vieux-Port situé en contrebas.

Soyons honnête, l’idée de la Ville de Marseille, portée par l’adjoint délégué aux grands projets et par ailleurs vice-président de la Métropole, Gérard Chenoz, n’est pas de développer les sports d’hiver à Marseille. Son objectif est simplement d’installer une liaison par téléphérique pour faciliter la desserte touristique de ce site qui reçoit chaque année 1,8 millions de visiteurs en moyenne. Pour un coût estimé à 15 millions d’euros en première approche, la liaison entre le Vieux Port et la basilique ne prendrait en effet que 6 minutes en survolant allègrement la zone urbanisée.

Les voies d’accès à la basilique étant largement saturées et peu adaptées à la circulation routière, l’idée d’une liaison par câble est en effet séduisante. Elle n’est d’ailleurs pas nouvelle et a même été mise en pratique sous une forme un peu différente il y a plus d’un siècle.

L’ancien ascenseur de Notre-Dame de la Garde, qui a pu transporter jusqu’à 15 000 personnes par jour, avait en effet été mis en service en 1892. Conçu par l’ingénieur Emile Maslin l’ascenseur avait été édifié à l’emplacement d’une ancienne carrière, sur l’autre versant de la colline et permettait de rallier la Bonne Mère via une passerelle métallique de 80 m de longueur, construite par la société Eiffel.

L’ancien ascenseur qui permettait d’accéder à Notre-Dame de la Garde jusqu’en 1967

Le système d’ascenseur lui-même était particulièrement simple et ingénieux puisque constitué de deux cabines en bois guidées par deux rails et une crémaillère équipée d’un câble. Chaque cabine était surmontée d’un réservoir de 6000 l d’eau. Pendant que la cabine du bas se vidait, celle du haut se remplissait à l’aide d’un réservoir situé sur la passerelle, s’alourdissant jusqu’à descendre la rampe de 72 m de dénivelée, freinée dans sa chute par le poids de la cabine ascendante, et ceci sans autre source d’énergie que les pompes permettant de remplir périodiquement le réservoir du haut.

Un dispositif rustique (et particulièrement bruyant !) qui a fonctionné sans encombres pendant 75 ans, jusqu’en 1967, période à laquelle la concurrence de l’automobile, devenue trop rude, finit par l’emporter. Le système sera finalement démonté en 1974, emporté par le vent de modernité qui souffle à cette époque… Et voilà que, comme pour les anciens tramways, on cherche désormais à reconstituer une forme de transport qui prenne à son tour la place de la voiture dont on ne mesure maintenant que trop les désagréments en site urbain dense.

L’idée du téléphérique fait partie des promesses de campagne de Jean-Claude Gaudin et a fait l’objet d’une première étude de faisabilité dès 2014 en vue d’obtenir des financements de la part de l’Etat. Ce dernier a néanmoins fait la sourde oreille et préféré soutenir le projet de prolongement du tramway, également mis à l’étude.

Le tracé provisoire envisagé pour le futur téléphérique (source © Made in Marseille)

Qu’à cela ne tienne, la municipalité revient à la charge avec un projet plus modeste qui se limite à une simple liaison, sur une longueur d’environ 1 km, entre le Fort d’Entrecasteaux et Notre-Dame de la Garde. Le projet a été adopté par le Conseil municipal le 5 décembre 2016, permettant de débloquer une nouvelle enveloppe de 1 million d’euros pour relancer ces études de faisabilité. Un appel d’offre vient ainsi d’être lancé au cours de l’été, afin de sélectionner un assistant à maîtrise d’ouvrage chargé d’épauler la collectivité, d’abord dans le montage administratif, juridique et technique du dossier puis dans la sélection du constructeur et éventuellement dans le suivi des travaux, si d’aventure le projet va jusqu’à son terme, l’objectif visé étant une mise en service en 2020.

Le téléphérique du Mont Faron à Toulon (photo © RB / Var Matin)

A priori, l’idée paraît séduisante et de nombreuses autres villes se sont déjà dotées de ce type de transport urbain particulièrement adapté pour les zones à fort dénivelée. Celui du Mont Faron mis en service à Toulon en 1959, ou encore celui de la Bastille à Grenoble, qui fonctionne depuis 1934, confirment, s’il en était besoin, la fiabilité de ce type d’installation.

Le téléphérique de Brest, inauguré le 19 novembre 2016 par Ségolène Royal et souvent en panne depuis…

Celui qui a été inauguré à Brest en novembre 2016, pour relier les deux rives de la Penfeld et desservir le nouveau quartier des Capucins, a en revanche connu quelques déboires retentissants. L’ouverture intempestif de la porte d’une des cabines et de multiples défaillances de capteurs l’ont obligé à un arrêt technique pendant un mois juste après sa mise en service. Quelques jours seulement après son redémarrage, il a subi une panne informatique puis de nouveau des problèmes liés au déclenchement d’une alarme, de quoi pimenter quelque peu le trajet quotidien de la soixantaine de voyageurs qui peuvent s’entasser dans sa cabine.

La carrière antique de la Corderie, actuellement menacée par les tractopelles de Vinci (photo publiée par la Marseillaise)

Il n’en reste pas moins que le site de Notre-Dame de la Garde n’est pas forcément si simple à équiper et les contraintes sont multiples, à commencer par le Mistral qui rend le dispositif inexploitable lorsque la vitesse des rafales dépasse les 100 km/h, n’en déplaise aux amateurs de sensations fortes. Le survol de zones habitées peut également déplaire aux riverains, bien que la loi en la matière se soit récemment assouplie et qu’il existe désormais des techniques permettant de voiler temporairement les vitrages dans les zones sensibles. Et ceci sans parler des contraintes réglementaires car les 15 hectares de la colline de Notre-Dame de la Garde sont classés depuis 1917, tandis que le Vieux Port l’est depuis 1932 et qu’un arrêté de classement se fait attendre pour la carrière antique de la Corderie.

Pas sûr cependant que tout ceci n’arrête un Jean-Claude Gaudin qui, après s’être accroché pendant plus de 22 ans à son siège de maire, tient désormais fermement à son télésiège vers la Bonne Mère…

L.V.

Un nouveau château en Espagne

28 août 2017

L’architecte américano-canadien Franck Gehry fait assurément partie de ces starchitectes dont l’oeuvre ne laisse pas indifférent. Concepteur notamment du musée Guggenheim à Bilbao, de la Fondation Louis Vuitton à Paris, de la maison dansante à Prague ou encore de la tour de la fondation Luma en cours de construction à Arles, ses œuvres sont tout sauf classiques. Défiant les lois de la pesanteur, les bâtiments qu’il conçoit, parfois en s’inspirant simplement d’une boule de papier froissé, semblent totalement déstructurés, déformés, bancals et pour tout dire complètement loufoques, bousculant tous les principes architecturaux les plus solidement établis.

Vue d’ensemble de la Bodega Marqués de Riscal (source : Hotel Marqués de Riscal)

Parmi ces chantiers, il en est un qui retient particulièrement l’attention. C’est celui de l’hôtel de luxe édifié en 2006 sur une propriété viticole espagnole, Marqués de Riscal. Située à proximité de la ville médiévale d’Elciego, dans la vallée de l’Ebre, à mi-chemin entre Burgos et Pampelune, ce vignoble est aussi ancien que réputé. Fondée en 1860 par Camilo Hurtado de Amézaga, marquis de Riscal, un aristocrate acquis aux idées libérales et empreint de culture française, la maison Herederos del marqués de Riscal est désormais à la tête d’un domaine qui s’étend sur pas moins de 1500 ha avec des vignes en terrasses cultivées de manière extensive et surplombant la vallée de l’Ebre.

La bodega et les vignobles à proximité du village d’Elciego

Une partie des 180000 bouteilles stockées dans les chais

Une partie des caves date de 1858 et leur extension a été réalisée en 1883. Depuis, la marque est devenue un géant du vin espagnol de la Rioja, avec plus de 5 millions de bouteilles vendues annuellement, dont 70 % à l’export, et a même racheté, en 2010, 350 ha de vignobles à l’un de ses concurrents, le Français Pernod Ricard. Ici, on n’est plus dans le monde artisanal des vignerons à l’ancienne…

Mais le génie commercial de cette véritable entreprise viticole qu’est devenu le domaine Marqués de Riscal réside dans l’investissement hôtelier très haut de gamme conçu il y a maintenant plus de 10 ans pour attirer sur la propriété une clientèle aisée autour d’une véritable Cité du vin, vaste lieu d’accueil thématique de quelque 100 000 m2 consacré à l’élaboration, au soin et à l’étude du vin, entouré d’un complexe hôtelier luxueux assorti de salles de réception et de réunions.

Et c’est là que la patte de l’architecte Franck Gehry a su donner toute l’originalité qu’il fallait pour que cet immense complexe hôtelier et touristique perdu au milieu des vignes, dans un cadre enchanteur avec le village médiéval d’Elciego en arrière plan, devienne un site d’attaction proprement extraordinaire du fait de sa conception pour le moins originale. Il faut dire que si le projet date de 1998, il a fallu du temps, et de nombreuses dégustations de Rioja, pour convaincre l’architecte Franck Gehry, de s’engager dans la conception de cette bodega atypique, mais le résultat vaut le détour !

Les rubans en titane (source : Hôtel Marqués de Riscal)

Le bâtiment lui-même évoque vaguement une forme de cep de vigne avec ses piliers évasés vers le ciel qui supportent des éléments de forme cubiques disposés de manière apparemment très anarchique, avec de grandes ouvertures d’orientation variée. Le tout est enveloppé et surmonté de volutes enrubannées métalliques servant de pare-soleil, en acier inoxydable et titane, dans les tons rose, or et argent, sensé évoquer les teintes du vin, des capsules et de la maille dorée qui orne les bouteilles de la propriété. Vu de loin et en fonction des reflets de la lumière, l’effet est saisissant de voir ces rubans métalliques émerger au dessus des rangées de vignes, tels un paquet cadeau abandonné au milieu des ceps…

Des façades qui se marient avec celles des bâtiments anciens (source : Hôtel Marqués de Riscal)

Les façades sont en pierre, taillées dans le grès local, ce qui leur donne une certaine parenté avec celles des bâtiments historiques tout proches. Quant à l’aménagement intérieur, il est à l’avenant, de nombreux éléments ayant été dessinés par l’architecte lui-même. On y compte 43 chambres et suites luxueuses, accessibles pour la somme modique de 310 € la nuit pour les plus modestes d’entre elles, jusqu’à 800 € pour ceux qui ne comptent pas bouder leur plaisir en regardant à la dépense…

Une des 43 chambres de l’établissement (source : Hôtel Marqués de Riscal)

Le lieu, qui accueille désormais 70 000 visiteurs chaque année, dispose de surcroît de deux restaurants dont l’un tenu par un chef étoilé, de nombreuses salles de réunion et de réception, y compris pour ceux qui veulent s’y marier en grandes pompes, et bien entendu d’un spa luxueux où l’on pratique notamment la vinothérapie qui consiste en un bain dans une barrique en bois remplie d’un mélange à base de marc de raisin…

Le spa de l’hôtel (source : Hôtel Marqués de Riscal)

Destiné manifestement à une clientèle huppée et capable de dépenser sans compter, ce type d’établissement ne laisse cependant pas indifférent du fait de son architecture pour le moins originale, dont la conception a nécessité des études numériques poussées en trois dimensions et même des essais en soufflerie pour vérifier que les volutes en titane n’allaient pas s’envoler à la moindre brise. Quant à la réalisation d’une construction aussi biscornue, dont le coût reste tenu secret, on n’ose même pas imaginer le dialogue au jour le jour entre son concepteur et les entreprises en charge de concrétiser sur le chantier un projet aussi audacieux…

L.V.  

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Gardanne valorise ses friches minières

22 août 2017

La ville de Gardanne fait partie de ces terroirs durablement marqués par l’extraction minière. Dès le 18e siècle, de nombreux habitants de la région s’adonnaient à l’exploitation du charbon de terre pour pallier la rareté du bois de chauffage. Au début du 19e siècle, on compte ainsi déjà plus de 80 puits de mines en activité et sans doute 200 déjà abandonnés.

L’arrivée du chemin de fer accélère le mouvement et les années 1880-90 voient à la fois le creusement du premier puits de mine moderne au coeur de la cité minière de Biver, et l’installation de l’usine Péchiney d’alumine, qui profite du lignite de Gardanne et de la bauxite extraite dans le bassin minier varois tout proche. C’est cette même usine qui sera à l’origine des rejets en mer de boues rouges dans les années 1960 et qui défraie toujours la chronique sous son nouveau nom d’Alteo. Après la deuxième guerre mondiale, enfin, est édifiée la centrale thermique de Meyreuil, alimentée par le lignite dont l’extraction bat alors son plein à Gardanne.

Mais tout cycle minier a une fin. L’exploitation du lignite de Gardanne stagne à partir des années 1960. Soutenue artificiellement pour des raisons politiques, la production s’effondre à partir des années 1990 et le dernier puits ferme en 2003. Alors que l’industrie minière employait jusqu’à 6500 personnes au début des années 1950, à une période où le site attirait une forte population de travailleurs immigrés, et encore autour de 2000 après la relance de l’activité impulsée en 1981, il ne restait plus que 600 à 700 mineurs encore employés au moment de la fermeture du dernier site.

Depuis, la ville de Gardanne s’efforce de retrouver un nouveau souffle, à l’image du bassin d’emploi voisin, qui s’étend sur les communes de Peynier, Fuveau et Rousset, où s’est développée depuis les années 1960 une activité industrielle florissante axée sur la micro-électronique. L’histoire de cette zone d’activité est d’ailleurs très intéressante car liée étroitement au déclin de l’extraction minière comme l’a bien analysé Olivier Lambert, professeur à l’université d’Aix-Marseille et spécialiste de l’histoire industrielle locale.

Zone industrielle de Peynier-Rousset vue d’avion (source : Pays d’Aix développement)

Cette zone industrielle de Peynier-Rousset, créée en 1961, est en effet située dans le même bassin minier que Gardanne, situé à une quinzaine de km seulement. Les premiers puits pour l’exploitation du lignite y ont été creusés à partir de 1912 et une usine de production d’alumine y est construite à partir de 1917 par les Norvégiens de la Norsk Aluminium Company qui ont bien repéré l’intérêt des lieux, situés à proximité des futures mines de lignite en cours d’aménagement, de la vallée de l’Arc, source d’eau abondante, et de la voie ferrée Carnoules-Gardanne, pourvoyeuse de la bauxite varoise.

Mais en décembre 1918, alors que le creusement des puits atteint 425 m de profondeur, l’eau de la nappe s’engouffre brusquement dans les travaux miniers et ruine définitivement toute velléité d’exploitation houillère. Echaudés par cet échec industriel, les Norvégiens se retirent également. De nouveaux projets industriels sont bien relancés dans les années 1940 pour valoriser l’usine d’alumine en vue de produire des carburants de synthèse puis du gaz de ville, mais sans succès et en 1949, l’ensemble des terrains et des bâtiments est racheté par les Houillères du bassin de Provence, issues de la nationalisation des mines de charbon décidée à la Libération.

Ce sont donc les Houillères qui seront à l’origine de la création de la zone industrielle de Peynier-Rousset, la première des Bouches-du-Rhône, en 1961, déjà dans une perspective de reconversion pour pallier la baisse d’activité inéluctable de l’extraction du lignite de Gardanne. Fortement aidée à coup de subventions publiques et malgré certaines implantations durables comme celle de Volvic qui y produit son jus de fruit Oasis avec l’eau du puits de l’Arc, la zone industrielle vivote pendant une vingtaine d’années, tenue à bout de bras par les Houillères.

En 1979, la zone industrielle prend enfin son essor avec l’arrivée d’Eurotechnique, issu d’une association entre les Américains de National Semiconductor et le Français Saint-Gobain. La première usine de fabrication de puces électroniques au silicium est construite à Rousset. Elle passera en 1983 dans le giron de Thomson avant de rejoindre en 1987 SGS-Thomson, une nouvelle société franco-italienne de semi-conducteurs qui prendra plus tard son nom actuel de STMicroelectronics.

Effectifs des Houillères et de la zone industrielle de Rousset entre 1945 et 2010 (source : O. Lambert / revue Rives, 2013)

Depuis, ce site est devenu un pôle d’activités prospère tourné vers la microélectronique et les nouvelles technologies, qui employait en 2013 de l’ordre de 7000 personnes, soit davantage que l’industrie minière de Gardanne à son apogée, sans pour autant qu’il s’agisse d’une véritable reconversion industrielle même si le contexte politico-économique mis en place par l’action des Houillères et les nombreuses aides publiques à la reconversion de cet ex-bassin minier ont fortement contribué à ce succès.

Centre Georges Charpak à Gardanne (source : Ville de Gardanne)

Nul doute en tout cas que la ville de Gardanne souhaite manifestement s’inspirer de cet exemple pour assurer l’avenir de ses propres friches minières. L’inauguration en 2008 du centre de microélectronique Georges Charpak, rattaché à l’école des mines de Saint-Étienne, sur un campus de 6 ha, partie prenante du pôle de compétitivité « Solutions communicantes innovantes », illustre bien cette volonté de s’inscrire dans un environnement technologique en pleine évolution.

Centrale thermique de Meyreuil

En parallèle, la centrale thermique à charbon de Meyreuil, d’abord détenue par une filiale de Charbonnage de France, et désormais dans les mains de l’énergéticien allemand Uniper, tente une conversion difficile d’une des deux unités vers une centrale à biomasse. Le projet, lancé en 2103 et pour lequel ont déjà été investis 250 millions d’euros, devrait permettre à terme de brûler 850 000 t de bois chaque année, issus pour moitié de déchets et pour moitié de coupes de bois. C’est cependant ce dernier point qui inquiète fortement les associations locales de défense de l’environnement puisque cela reviendrait à prélever un tiers du gisement forestier disponible dans un rayon de 250 km… Le Tribunal administratif de Marseille a d’ailleurs annulé, le 8 juin dernier, l’autorisation d’exploitation accordée à la centrale !

Quant aux anciennes installations minières elles-mêmes, la ville tente de les valoriser après avoir racheté en 2006 les emprises du puits Morandat et du puits Z. Les puits ont été au préalable mis en sécurité et obturés en tête par des dalles en béton armé très épaisses pour éviter tout risque d’effondrement. La SEMAG (Société mixte d’aménagement de Gardanne) est ainsi à l’oeuvre pour réaménager les 14 ha de la future zone d’activité qui sera développée autour du puits Morandat, avec pour objectif l’implantations d’entreprises innovantes et de PME axées vers l’économie sociale et solidaire, permettant de générer près d’un millier d’emplois selon les prévisions les plus optimistes.

L’ancien hall des mineurs accueille d’ores et déjà une pépinière d’entreprises tandis que le bâtiment du Parc héberge l’unité territoriale après-mine créée par le BRGM et Charbonages de France pour gérer la mise en sécurité des anciennes mines dans le tiers sud-est de la France.

Le chevalement de l’ancien puits Morandat (source : Ville de Gardanne)

Les travaux de viabilisation ont déjà été lancés en vue d »aménager les premières tranches destinées à l’accueil d’entreprises. Il est notamment prévu la fourniture de chaleur via un réseau qui exploite le gisement géothermique des anciennes galeries minières désormais ennoyées. Une société spécifique, dénommée Énergie solidaire, a été créée pour cela, via une association entre la SEMAG et Dalkia EDF. Elle prévoit un investissement de 4 millions d’euros, la moitié de l’électricité nécessaire pour faire fonctionner la station de pompage étant issue de panneaux photovoltaïques.

Le chevalement du puits Morandat pourrait, quant à lui, être reconverti en un restaurant panoramique tandis que l’ancien vestiaire des mineurs devrait accueillir d’ici 2022 un centre de culture scientifique et technique imaginé dans l’esprit de la Cité des sciences de la Villette à Paris. Bref, les projets ne manquent pas à Gardanne pour valoriser ces anciennes friches minières, sans totalement tourner le dos à un passé dont la ville continue à s’enorgueillir.

L.V.  

Monaco gagne (encore) sur la mer…

31 juillet 2017

Dans la principauté de Monaco, minuscule confetti enclavé sur le territoire français pour des raisons historiques, la conquête de l’espace est une préoccupation constante. Avec une superficie totale qui ne dépasse pas 2 km2, (202 hectares très précisément, nettement moins donc que la commune de Carnoux qui s’étend, mine de rien, sur 345 ha !) c’est le deuxième plus petit État indépendant au monde (derrière le Vatican). Sauf que la population qui s’entasse sur cet espace ridicule s’élève à 38 500 habitants au dernier recensement de 2016, soit une des densités les plus fortes du monde avec plus de 18 000 habitants au km2.

Sommet de la Tour Odéon à Monaco

Pas étonnant que dans ces conditions, le prix du foncier atteigne des sommets vertigineux, plaçant Monaco en tête du classement mondial des villes où se loger coûte le plus cher. A Monaco, un bel appartement se négocie autour de 45 000 € le m2. C’est en moyenne 15 % de plus qu’à Hong Kong et 40 % plus cher qu’à Londres, plus du double de Paris où le prix de l’immobilier de luxe oscille autour de 20 000 € le m2, une misère… Achevée en 2015, la double tour Odéon qui s’élève à 170 m de hauteur dans le quartier de l’Annonciade, a vu ses appartements se négocier autour de 55 000 à 70 000 € le m2. Quant au penthouse qui s’étend au sommet de la tour sur 3 300 m2 répartis sur 5 niveaux, avec piscine à toboggan, fitness et vue plongeante sur la mer, il peut s’enorgueillir d’être à ce jour l’appartement le plus cher du monde, vendu pour la modique somme de 300 millions d’euros, soit un prix de revient de 91 000 € le m2.

Dans un tel contexte, chaque mètre carré compte et la solution la plus simple pour ce territoire côtier, à défaut de pouvoir se lancer dans des guerres de colonisation d’un autre âge, est d’empiéter toujours davantage sur le domaine maritime. Dès 1865, un premier remblai a ainsi été réalisé pour y permettre le passage de la voie ferrée, rapidement suivi par la construction du quartier industriel de Fontvielle gagné sur la mer sur une surface de 5,5 ha. Depuis, les Monégasques ne s’arrêtent plus et repoussent sans cesse la ligne de rivage. Ces dernières années, ce sont ainsi plus de 40 hectares qui ont été gagnés sur la mer, permettant d’agrandir toujours plus le terrain disponible pour de nouvelles constructions. Même le stade Louis II de l’AS Monaco a été construit sur la mer…

Photomontage du futur quartier en construction (© Valode et Pistre)

Et ce n’est pas fini puisqu’un nouveau chantier a été lancé fin 2016. Il s’agit cette fois de construire une nouvelle plateforme de 6 hectares gagnée sur l’eau dans l’Anse du Portier, dans le prolongement du Grimaldi forum. Un chantier totalement pharaonique qui coûtera 2 milliards d’euros mais pour lequel le gouvernement de la principauté ne déboursera pas un centime puisque ce sont les entreprises, au premier rang desquelles Bouygues Construction, qui avancent l’argent en espérant bien se faire largement payer en retour par la vente des 60 000 m2 de logements ainsi construits.

Maquette du nouveau quartier d’habitation (capture video © Valode et Pistre)

Bien entendu, il s’agit d’immeubles de haut standing, labellisés écoquartier, avec panneaux solaires et climatisation par pompes à chaleur alimentées à l’eau de mer, disséminés au milieu d’un parc arboré de 1 ha, avec parkings, équipements publics, port de plaisance d’une trentaine d’anneaux, 3 000 m2 de commerces et promenade littorale. Un éden pour milliardaires, dont l’architecture a été conçue par le célèbre architecte Renzo Piano.

Nacre Nobilis, plus grand coquillage de Méditerranée (photo © David Luquet)

Pour bâtir une telle infrastructure dans des fonds marins dont la profondeur atteint jusqu’à 50 m et qui s’étendent entre deux zones naturelles, la réserve du Larvotto et le tombant des Spélugues, une préparation s’impose, qui consiste notamment à transplanter les posidonies et à évacuer les nacres géantes qui peuplent ces fonds sous-marins autrefois d’une grande richesse. Ces travaux préparatoires ont déjà eu lieu, à l’automne 2016, sans émouvoir grand monde tant les Monégasques se moquent comme d’une guigne de la qualité de leurs fonds marins, sur une partie du littoral où près de 90 % des fonds entre 0 et 8 m de profondeur ont d’ores et déjà été détruits, selon un biologiste niçois.

Place désormais aux travaux de génie civil maritime ! Ils ont débuté en avril 2017, pilotés par l’entreprise belge Jean de Nul. La première étape a consisté à déposer 30 000 m3 d’enrochement qui seront stockés, nettoyés puis réutilisés. Le chantier est maintenant entré dans sa deuxième phase qui consiste à draguer les sédiments pollués reposant au fond de l’Anse du Portier, et ceci à l’aide d’une pelle équipée d’un godet étanche de 8 m3 et capable de descendre jusqu’à 32 m de fonds. Cette pelle hors norme ainsi qu’une grue à câble pour les secteurs les plus profonds, sont elles-mêmes installées sur une barge ancrée dans le sol sous-marin via des pieux de 40 m…

Schéma de principe des caissons périphériques (© Valode et Pistre)

Deux barges de transport assurent l’évacuation des sédiments jusqu’à un centre de traitement et de valorisation installé à La Seyne-sur-Mer. D’ici la fin de l’été, une fois les sédiments pollués ainsi retirés, c’est le reste du sable qui va être aspiré jusqu’à atteindre le substratum rocheux. Au total, plus de 400 000 m3 de matériaux devraient ainsi être aspirés puis rejetés en mer à quelques km de la côte, par 200 m de fond. Une fois le sol mis à nu, une assise constituée de 1,6 millions de tonnes de cailloux lavés et concassés, acheminés depuis une carrière de Châteauneuf-les-Martigues, sera mise en place pour servir de support aux 18 caissons en béton armé, de 27 m de hauteur, qui constitueront le corps de la digue périphérique.

La future plateforme et son enceinte étanche constituée de caissons en béton (capture video © Valode et Pistre)

Ces caissons, qui pèsent 10 000 t chacun, seront préfabriqués dans la forme 10 du port de Marseille, à partir du mois de septembre prochain. Il s’agira d’un processus particulièrement complexe puisque le coulage du béton se fera au fur et à mesure de l’immersion du caisson. Une fois les caissons mis en place, le remblaiement de la plateforme pourra commencer, avec du sable prélevé au large de la Sicile et acheminé au moyen de la plus grosse drague du monde, capable d’apporter 40 000 m3 de sable à chaque voyage : une quinzaine de rotations devraient être nécessaire…

C’est en mars 2020 seulement, si tout va bien, que la nouvelle plateforme pourra, après compactage, commencer à recevoir les premières constructions. La livraison des premiers logements est, quant à elle, programmée pour 2022 : avis aux amateurs fortunés qui souhaiteraient y investir leurs deniers !

L.V. 

Marseille, nouveau roi du coffre-fort numérique ?

22 juillet 2017

Longtemps reconnue mondialement pour son rôle de port colonial, puis pour celui de cerveau de la French connexion et pour sa réputation déplorable de violence urbaine, Marseille tente depuis des années de se forger une nouvelle image de port d’accueil pour le tourisme de la croisière de luxe. Mais c’est dans un tout autre domaine que la ville est en train de connaître un développement inattendu : celui des data centers, ces coffres-forts modernes où sont stockées physiquement les milliards de données numériques que l’on a tendance à imaginer évaporées sur un nuage éthéré, le fameux « Cloud »…

Salle blanche pour le stockage des baies informatiques

Car la tendance actuelle en informatique est d’avoir des ordinateurs de plus en plus puissants mais paradoxalement de plus en plus vides, ce qui génère des flux de données croissant et totalement gigantesques à travers la planète entière. Les logiciels et le stockage de données, qui prend de plus en plus de place, sont désormais hébergés sur des serveurs situés on ne sait où, chez un prestataire informatique qui conserve de manière sécurisée nos données personnelles.

Un tel service d’hébergement des données numériques personnelles (nos photos, la vidéo des premiers pas du petit dernier, nos courriels, nos fiches de paies et autres papiers administratifs, nos fichiers numériques, etc.) est même fourni gratuitement par la plupart des fournisseurs d’accès internet, bien trop contents de récupérer ainsi à bon compte toutes nos données personnelles qui seront ensuite valorisées pour développer des sollicitations commerciales adaptées à nos centres d’intérêts personnels. C’est aussi un service payant qu’offrent de plus en plus de prestataires, tels que la Poste ou la Caisse d’Epargne, sous le nom de « coffres-forts numériques ».

Il s’est ainsi créé un nouveau marché très juteux, celui du stockage sécurisé de données numériques. Du fait de l’importance vitale de toutes ces données numériques qu’il convient d’archiver pour de longue durées tout en en conservant une parfaite traçabilité et en étant sûr de pouvoir les retrouver et les exploiter à tout moment, de nombreux prestataires sont ainsi apparus qui proposent de garantir la disponibilité, l’intégrité et la pérennité de ces données, moyennant juste rétribution…

Comme les château-forts d’antan, ces nouveaux coffres-forts numériques que sont les data centers sont conçus avec de multiples barrières de sécurité successives, ainsi que l’explique Fabrice Coquio, président d’Interxion France, un groupe néerlandais fondé en 1988, qui héberge les serveurs informatiques de plus de 200 clients dont Microsoft, Amazon, Facebook, Twitter, Yahoo, etc.

Comme tout château fort qui se respecte, il faut bien entendu une muraille solide, avec plusieurs niveaux de protections successifs : l’enceinte du bâtiment, protégée par barrières infra-rouges et vidéo surveillance avec détection de mouvement et vision nocturne, le bâtiment lui-même, équipé de sas d’accès sous alarmes, d’accès anti-effraction et de vidéo surveillance, les salles de stockage ensuite, protégées par contrôle d’accès et par système biométrique, et enfin les baies qui sont les systèmes informatiques dans lesquels sont stockées les données numériques, elles-mêmes rassemblées au sein de cubes fermés à l’aide d’un code ou d’un système de clé.

Autout du château s’étendent bien entendu, les douves, matérialisées ici par les systèmes de sécurisation des réseaux, sous forme de fibre noire cryptée qui fait transiter les données grâce à des signaux encodés. Quant aux armées qui gardent le château, ce sont les agents de sécurité habilités qui assurent une veille sur site 24h/24. Enfin, le donjon qui est consitué par le poste de pilotage et de commande par lequel transitent toutes les informations nécessaires à la maintenance du bâtiment.

Les bâtiments du premier data center d’Interxion implanté à Marseille depuis 2015 (source © Interxion)

Reste à savoir où implanter ces châteaux-forts de l’ère numérique. Et c’est là que Marseille se révèle, parmi d’autres, comme un emplacement particulièrement favorable. La présence de 13 câbles sous-marins qui arrivent ici en font en effet un point névralgique pour les échanges digitaux et télécoms entre l’Europe, le Moyen-Orient, l’Afrique et l’Asie. Les grands acteurs du Cloud ont bien repéré cette spécificité et l’activité tend donc à se développer.

C’est ainsi que la société Interxion y a ouvert en 2015 son huitième centre français de stockage, dans les locaux d’un ancien site SFR basé à la Joliette. Un investissement de 45 millions d’euros pour une surface utile qui sera portée à terme à 5 700 m² et une puissance électrique installée de 6 MW. Et ce n’est pas fini puisque cette société, numéro 2 mondial, qui exploite désormais 45 data centers à travers l’Europe, compte ouvrir deux nouveaux sites marseillais mitoyens, dans le secteur du cap Janet, à l’Estaque.

La halle Freyssinet du Cap Janet et la base U-boot attenante (photo © Kariyou)

Une maquette du futur centre MRS2 dans la halle Freyssinet rénovée (source © Interxion)

Le premier, dont la première pierre vient d’être posée à l’occasion d’un grand raout officiel en présence de Jean-Claude Gaudin, de Gérard Gazay et de Christine Cabau-Woehrel, présidente du Grand Port maritime de Marseille, se développera dans les locaux désaffectés des anciens ateliers de réparation navale Fouré-Lagadec, inoccupés depuis 1995. Il s’agit d’une vaste halle Freyssinet, c’est à dire conçue sur le modèle du gigantesque hangar à trois nefs surmontées de voûtes cylindriques minces que l’ingénieur Eugène Freyssinet avait conçu et réalisé en 1929 pour abriter les voies de la gare d’Austerlitz. Un ouvrage de référence, inscrit depuis 2012 au titre des monuments historiques, et dont la conception a inspiré un très grand nombre de hangars militaires, aéroportuaires et industriels à travers tout le pays.

Sur ce site, la demande de permis de construire a été déposée en vue d »aménager courant 2017 dans ce bâtiment 4 000 m² de salles blanches destinées au stockage sécurisé de données informatiques, et ceci pour un coût d’investissement évalué à 70 millions d’euros.

Vue aérienne du site de la base de sous-marins après la guerre

Quant au troisième site convoité par Intexion qui souhaite y aménager 10 000 m² de stockage supplémentaire, il s’agit ni plus ni moins que du bâtiment voisin, une ancienne base de sous-marins allemands datant de la seconde guerre mondiale, le « U-bootbunker Martha ». En réalité, cet imposant complexe en béton armé de 208 m de longueur et 45 m de largeur, dont la construction a été lancée en janvier 1943 et qui devait accueillir une vingtaine de sous-marins militaires, n’a jamais servi. Les travaux ont été stoppés en août 1944, suite au débarquement allié en Provence, avant même que le chenal d’accès des sous-marins ne soit creusé. La bâtiment n’a donc jamais été opérationnel, sauf ponctuellement pour y assurer la détention de prisonniers de guerre allemands, dont les fresques dessinées sur les murs peur meubler leur captivité sont encore visibles sur les parois.

Ce bâtiment, resté en l’état depuis sa construction, intéresse a plus haut point l’amateur de châteaux forts qu’est le directeur de la société Interxion. Véritable bunker massif construit sur le modèle des bases de Lorient, Brest et La Rochelle, il est surmonté d’une dalle de toit en béton armé de près de 6 m d’épaisseur, capable de résister à des bombes d’une tonne comme la Royal Air Force en avait fait l’expérience à Lorient. Quant aux murs, leur épaisseur varie entre 90 cm et 2,85 m pour ceux qui sont situés face à la mer et qui étaient susceptibles d’être bombardés depuis le large.

Une structure parfaitement adaptée donc à l’usage envisagé, d’autant que les salles de maintenance prévues par les ingénieurs allemands à l’étage, pourront facilement être aménagées en salles blanches. Une belle opportunité également pour le Grand Port maritime de Marseille qui se demande depuis plus de 70 ans ce qu’il pourrait bien faire de ce vestige historique aussi délabré qu’encombrant et dont la déconstruction coûterait une fortune. Une petite inquiétude néanmoins pour l’approvisionnement en électricité de ce château fort futuriste qui aura besoin en permanence d’une puissance électrique de 8 mégawatts, à comparer aux 50 MW que consomment l’ensemble des serveurs informatiques de Google et aux 100 MW produits par une tranche de réacteur nucléaire. De quoi se rappeler que le numérique commence à prendre une part non négligeable dans notre empreinte carbone globale…

L.V.  

La Terre croule sous des milliards de tonnes de plastique !

20 juillet 2017

C’est une étude scientifique publiée le 19 juillet dans la revue Science Advances qui l’affirme : les matières plastiques fabriquées par l’homme sur l’ensemble de la planète représenteraient la masse globale de 8,3 milliards de tonnes, soit 822 000 fois le poids de la Tour Eiffel ! Et ceci en 75 ans tout au plus puisque la production industrielle de plastique a débuté réellement dans les années 1950, même si les premières polymérisations de matières plastiques datent des années 1930.

Déchets de plastique dans la baie de Manille aux Philippines (photo © Stiv Wilson)

C’est certes moins que le ciment et l’acier qui restent (en poids sinon en volume…) les matériaux que l’homme a produits en plus grande quantité. Sauf que ces derniers matériaux sont utilisés principalement dans la construction, pour des durées relativement longues de 50 à 100 ans, et sont ensuite très majoritairement réutilisés après traitement.

C’est loin d’être le cas pour le plastique dont la durée d’utilisation est très courte, de l’ordre de 4 ans en moyenne et bien moins pour tout ce qui concerne le plastique d’emballage qui constitue une part importante du marché. L’étude des scientifiques américains considère ainsi que 6,3 milliards de tonnes du plastique produit est d’ores et déjà devenu un déchet : la planète Terre est en train de se recouvrir peu à peu d’un océan de déchets plastiques qui envahissent tout !

Il faut dire que le recyclage de ce matériau, souvent complexe car nécessitant de séparer soigneusement chacun des polymères différents, reste très marginal puisqu’il ne concerne que 9 % des quantités de plastique mis au rebut. Une part légèrement supérieure, évaluée à 12 % est incinérée. Tout le reste, soit près de 80 % de nos déchets plastiques est donc tout simplement enfoui ou, le plus souvent, abandonné au hasard des vents qui finissent toujours par les pousser dans les cours d’eau et les océans.

Bouteilles plastiques échouées en mer près d’Abidjan (photo © Issouf Sanogo / AFP)

En 2015, la même équipe de chercheurs avait ainsi estimé que 8 millions de tonnes de déchets plastiques avaient été rejetés dans les différentes mers du globe pour la seule année 2010. La plupart de ces plastiques ne se dégradent que très lentement. Ils se fragmentent peu à peu et finissent souvent ingérés par les poissons et autres animaux aquatiques qui bien souvent en meurent.

On observe ainsi, depuis maintenant des années, de gigantesques amas de déchets plastiques plus ou moins immergés, certains parlent de septième continent, qui flottent à la surface des océans et se concentrent dans certaines zones sous l’effet de courants marins de type vortex. Une masse évaluée globalement à plusieurs centaines de milliers de tonnes mais sans doute davantage au vu des dernières estimations. Plus de 80 % de ces déchets viendrait de pays asiatiques mais des observations récentes effectuées par la goélette Tara dans l’Océan glacial arctique montrent que la quantité de déchets plastique que l’on y trouve et qui viennent plutôt de l’Europe et des Etats-Unis y sont également en quantité inquiétante. La situation de la Méditerranée le confirme d’ailleurs largement.

Recueil de déchets immergés dans le cadre de l’expédition Tara (© S.Bollet / Tara)

Les images spectaculaires des plages de l’île Henderson, un îlot désertique de l’archipel Pitcairn, classé sur la liste du patrimoine mondial par l’UNESCO, perdu dans le Pacifique sud à plus de 5000 km de toute zone habitée et dont les côtes sont jonchées de détritus plastique ont largement été diffusées et laissent pantois. Les amas de briquets et rasoirs jetables, de brosses à dents usagées et autres petits soldats en plastique qui viennent échouer ici après avoir parcouru la moitié de la planète, ballottés au gré des courants marins, viennent nous rappeler à quel point notre Terre est vulnérable à l’activité humaine.

Amas de détritus sur une plage de l’ïle Henderson (extrait video © Jennifer Lavers / Univ. Tasmanie)

Certes, on commence à envisager de limiter l’usage de certains objets en plastique. L’interdiction récente des sacs plastiques jetables aux caisses des supermarchés, instaurée en France en 2016, devrait ainsi permettre d’économiser plus de 80 000 tonnes de plastique chaque année, une paille à l’échelle mondiale mais une bonne nouvelle pour la qualité de nos milieux aquatiques et autres espaces naturels.

Malheureusement, les perspectives ne sont pas très encourageantes à l’échelle planétaire. Alors que la production mondiale de matière plastique ne dépassait pas 1 million de tonnes en 1950, elle s’établissait en 2015 à plus de 380 millions de tonnes et rien ne permet de penser que cette croissance pourrait se ralentir dans les années à venir, même si les marchands de pots de yaourts s’enorgueillissent d’avoir réussi à diviser par deux la quantité de plastique nécessaire à leur fabrication.

Evolution des quantités de déchets plastiques produits (en noir), selon leur destination : rejet ou mise en décharge (courbe rouge), incinération (vert) et recyclage (bleu) – extrapolations à l’horizon 2050 (source : R. Geyer, J. R. Jambeck et K. Lavender Law / Science Advances)

Au rythme actuel, les chercheurs considèrent qu’en 2050 la quantité totale de plastique produit s’élèvera ainsi à 25 milliards de tonnes, soit trois fois plus que tout ce qui a déjà été produit à ce jour. Il devrait en résulter 12 milliards de tonnes de déchets de plastique tout bonnement rejetés dans la nature : des chiffres proprement effrayants et qui laisse mal augurer de l’état de notre planète dans les années à venir !

L.V.