Posts Tagged ‘Techniques’

Le feu de Carnoux vu de l’espace…

17 septembre 2017

Le 19 août dernier, l’incendie qui a ravagé le versant boisé situé entre Aubagne et Carnoux, menaçant gravement plusieurs maisons situées en limite nord de Carnoux, le long de l’avenue Jean Bart, a laissé de sinistres traces. Plusieurs centaines d’hectares d’espaces boisés et de garrigues sont partis en fumée, laissant un paysage noirci de cendres et d’arbres calcinés qui rappellera pour de longs mois le souvenir de cet événement. Trois semaines plus tard, lorsque les premières grosses pluies de la saison se sont abattues sur Carnoux, la forte odeur de brûlé a brutalement envahi toute la ville, comme un ultime rappel du sinistre qui a bien failli transformer toute la ville en un gigantesque brasier…

Zones brûlées sur les hauteurs de Carnoux (photo prise le 27 août 2017)

Il suffit de se promener sur les hauteurs de Carnoux comme chacun ou presque l’a fait depuis cette date pour observer les ravages du feu. Mais lorsqu’on prend un peu de hauteur, l’effet est d’autant plus saisissant. Un des outils permettant une telle observation est la famille de satellites Sentinel, qui constituent le volet spatial du programme Copernicus initié par l’Union européenne. Le déploiement de cette batterie de satellites européens, commencé il y a maintenant une dizaine d’années, est encore en cours mais plusieurs satellites sont d’ores et déjà opérationnels.

Le premier, Sentinel-1A, avait été lancé de Kourou le 3 avril 2014 et a bien failli exploser en vol avant même de pouvoir déployer ses capteurs, tout ça à cause d’un banal accident de la circulation. Heureusement, les opérateurs de l’agence spatial européenne avaient alors réussi, grâce à un léger coup d’accélérateur bien placé, à éviter de justesse le satellite américain Acrimsat, qui passait malencontreusement par là au mauvais moment. Les routes de l’espace sont plus dangereuses qu’on ne le croit…

Vue du satellite Sentinel 2 (source © ESA/ATG medialab)

Depuis, d’autres satellites ont été déployés : le petit frère, Sentinel-1B, en avril 2016, mais aussi les deux sœurs jumelles Sentinel-2A, lancé le 23 juin 2015 par Véga depuis Kourou et Sentinel-2B, qui vient de s’envoler depuis Baïkonour le 7 mars 2017, propulsé par le lanceur russe Rockot. Ce sont ces deux derniers satellites qui nous intéressent tout particulièrement car ils disposent de 13 bandes spectrales allant du visible au moyen infra-rouge et permettant de prendre des clichés avec une résolution de 10 à 60 m. A eux deux, ils permettent de couvrir la quasi totalité des terres émergées avec des prises de vues espacées de 5 jours seulement, ce qui en fait des mouchards particulièrement efficaces.

Les clichés pris dans l’infra-rouge sont surtout utiles pour analyser l’occupation des sols car cette technique permet notamment de mettre en évidence certaines distinctions qui n’apparaissent pas aussi clairement dans le spectre visible. Elle permet en particulier de détecter des différences de température mais aussi d’humidité des sols, de couvert végétal et bien d’autres éléments très utiles notamment dans l’agriculture et le suivi des catastrophes naturelles.

Vue satellite de l’incendie du 19 août entre Aubagne et Carnoux (7 septembre 2017 – source © Sentinel hub)

Une partie des données issues de ces observations satellitaires étant en libre accès sur l’application Sentinel hub, il est assez aisé de rechercher, via un outil de visualisation ouvert à tous, des images d’archives prises par Sentinel 2. Celle du 7 septembre 2107 ne manque pas d’intérêt puisque prise quelques jours seulement après l’incendie qui est venu lécher la commune de Carnoux. Le cliché est assez spectaculaire car la restitution via l’exploitation de plusieurs canaux infrarouges met parfaitement en évidence les surfaces brûlées. On y décèle clairement le point de départ de l’incendie et sa propagation jusqu’aux portes de Carnoux, ainsi que les coupe-feux qui ont permis aux pompiers d’en stopper la progression.

Les plus curieux (et bien entendu les Varois) seront naturellement enclins à déplacer le curseur vers la droite de la carte, ce qui permet de mettre en évidence les foyers qui se sont déclarés cet été dans le département voisin qui a, cette année, payé un très lourd tribut avec 3 660 hectares de forêts ravagées par le feu en juillet-août 2017.

Vue satellite des deux incendies du 25 juillet et du 2 septembre aux alentours de La Londe-les-Maures, dans le Var (14 septembre 2017 – source © Sentinel hub)

 On y repère notamment les trois plus importants d’entre eux qui ont eu lieu le 24 juillet à la Croix-Valmer (518 ha) et à Artigues (1 704 ha) et le 25 juillet entre La Londe–les-Maures et Bormes-les-Mimosas (1 418 ha), suivi d’un autre qui s’est déclaré le 2 septembre entre Hyères et La Londe (460 ha). On est loin des chiffres de l’année 2003 où près de 19 000 hectares étaient partis en fumée dans le seul département du Var, causant la mort de 3 pompiers et de 4 autres personnes, mais ce nouvel été meurtier vient rappeler, si besoin était, à quel point les espaces méditerranéens sont vulnérables aux feux de forêt.

Vue satellite de l’incendie du 11 août dans le Cap Corse (30 août 2017 – source © Sentinel hub)

Et si l’on prend la peine de se décaler un peu vers le sud-est jusqu’aux rivages corses, la photo satellite met en évidence d’autres zones calcinées, en particulier au droit du cap Corse. Une tâche noirâtre barre entre Pietracorbara et Sisco toute la largeur de ce que certains irrévérencieux ont comparé à un doigt d’honneur tendu vers la métropole : c’est la signature de l’incendie qui s’est déclenché près de Nonza, sur la côte ouest, dans la nuit du 10 au 11 août 2017 et qui a traversé le cap Corse dans toute sa largeur, brûlant au passage plus de 2000 ha de forêts et de maquis, et obligeant à évacuer pas moins d’un millier de personnes.

Un autre incendie est particulièrement visible sur ces images satellite et montre à quel point les habitations situés en lisière de zone boisée peuvent être exposées : il s’agit de celui d’Olmeta-di-Tuda qui a parcouru de l’ordre de 2200 ha entre le 24 et le 29 juillet et a été arrêté in extremis en bordure des lotissements de la zone très urbanisée de Biguglia, au sud de Bastia.

Vue satellite de l’incendie du 24 juillet au sud de Bastia (30 août 2017 – source © Sentinel hub)

De nombreuses autres images tout aussi spectaculaires sont visibles sur ce site, envoyées depuis l’espace par les satellites Sentinel, dont celles des récents cyclones qui ont ravagé les Antilles et le sud des États-Unis, venant opportunément nous rappeler à quel point les aménagements faits par l’Homme sont vulnérables face aux éléments naturels…

L.V.  

Publicités

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Le futur téléphérique de Marseille

5 septembre 2017

Alors que la Région PACA dépense des millions pour équiper en canons à neige la station de ski de Super Sauze, si chère à son ancien Président Christian Estrosi, et si coûteuse pour ses malheureux électeurs contribuables, voilà que le maire de Marseille, Jean-Claude Gaudin, se prend à rêver d’installer un téléphérique pour monter à la Bonne Mère depuis le Vieux-Port, et ce n’est pas une galéjade…

Un skieur devant la basilique Notre-Dame de la Garde à Marseille le 7 janvier 2009 (Photo Jean-Paul Pélissier / Reuters)

Il est vrai qu’en janvier 2009 les chutes de neige qui avaient paralysé pour quelques heures la capitale phocéenne avaient démontré l’excellente qualité du domaine skiable qui s’étend sur les pentes de la colline de Notre-Dame de la Garde, laquelle culmine tout de même, rappelons-le, à 162 m d’altitude. De quoi donner des envies d’aménager des remontées mécaniques depuis le Vieux-Port situé en contrebas.

Soyons honnête, l’idée de la Ville de Marseille, portée par l’adjoint délégué aux grands projets et par ailleurs vice-président de la Métropole, Gérard Chenoz, n’est pas de développer les sports d’hiver à Marseille. Son objectif est simplement d’installer une liaison par téléphérique pour faciliter la desserte touristique de ce site qui reçoit chaque année 1,8 millions de visiteurs en moyenne. Pour un coût estimé à 15 millions d’euros en première approche, la liaison entre le Vieux Port et la basilique ne prendrait en effet que 6 minutes en survolant allègrement la zone urbanisée.

Les voies d’accès à la basilique étant largement saturées et peu adaptées à la circulation routière, l’idée d’une liaison par câble est en effet séduisante. Elle n’est d’ailleurs pas nouvelle et a même été mise en pratique sous une forme un peu différente il y a plus d’un siècle.

L’ancien ascenseur de Notre-Dame de la Garde, qui a pu transporter jusqu’à 15 000 personnes par jour, avait en effet été mis en service en 1892. Conçu par l’ingénieur Emile Maslin l’ascenseur avait été édifié à l’emplacement d’une ancienne carrière, sur l’autre versant de la colline et permettait de rallier la Bonne Mère via une passerelle métallique de 80 m de longueur, construite par la société Eiffel.

L’ancien ascenseur qui permettait d’accéder à Notre-Dame de la Garde jusqu’en 1967

Le système d’ascenseur lui-même était particulièrement simple et ingénieux puisque constitué de deux cabines en bois guidées par deux rails et une crémaillère équipée d’un câble. Chaque cabine était surmontée d’un réservoir de 6000 l d’eau. Pendant que la cabine du bas se vidait, celle du haut se remplissait à l’aide d’un réservoir situé sur la passerelle, s’alourdissant jusqu’à descendre la rampe de 72 m de dénivelée, freinée dans sa chute par le poids de la cabine ascendante, et ceci sans autre source d’énergie que les pompes permettant de remplir périodiquement le réservoir du haut.

Un dispositif rustique (et particulièrement bruyant !) qui a fonctionné sans encombres pendant 75 ans, jusqu’en 1967, période à laquelle la concurrence de l’automobile, devenue trop rude, finit par l’emporter. Le système sera finalement démonté en 1974, emporté par le vent de modernité qui souffle à cette époque… Et voilà que, comme pour les anciens tramways, on cherche désormais à reconstituer une forme de transport qui prenne à son tour la place de la voiture dont on ne mesure maintenant que trop les désagréments en site urbain dense.

L’idée du téléphérique fait partie des promesses de campagne de Jean-Claude Gaudin et a fait l’objet d’une première étude de faisabilité dès 2014 en vue d’obtenir des financements de la part de l’Etat. Ce dernier a néanmoins fait la sourde oreille et préféré soutenir le projet de prolongement du tramway, également mis à l’étude.

Le tracé provisoire envisagé pour le futur téléphérique (source © Made in Marseille)

Qu’à cela ne tienne, la municipalité revient à la charge avec un projet plus modeste qui se limite à une simple liaison, sur une longueur d’environ 1 km, entre le Fort d’Entrecasteaux et Notre-Dame de la Garde. Le projet a été adopté par le Conseil municipal le 5 décembre 2016, permettant de débloquer une nouvelle enveloppe de 1 million d’euros pour relancer ces études de faisabilité. Un appel d’offre vient ainsi d’être lancé au cours de l’été, afin de sélectionner un assistant à maîtrise d’ouvrage chargé d’épauler la collectivité, d’abord dans le montage administratif, juridique et technique du dossier puis dans la sélection du constructeur et éventuellement dans le suivi des travaux, si d’aventure le projet va jusqu’à son terme, l’objectif visé étant une mise en service en 2020.

Le téléphérique du Mont Faron à Toulon (photo © RB / Var Matin)

A priori, l’idée paraît séduisante et de nombreuses autres villes se sont déjà dotées de ce type de transport urbain particulièrement adapté pour les zones à fort dénivelée. Celui du Mont Faron mis en service à Toulon en 1959, ou encore celui de la Bastille à Grenoble, qui fonctionne depuis 1934, confirment, s’il en était besoin, la fiabilité de ce type d’installation.

Le téléphérique de Brest, inauguré le 19 novembre 2016 par Ségolène Royal et souvent en panne depuis…

Celui qui a été inauguré à Brest en novembre 2016, pour relier les deux rives de la Penfeld et desservir le nouveau quartier des Capucins, a en revanche connu quelques déboires retentissants. L’ouverture intempestif de la porte d’une des cabines et de multiples défaillances de capteurs l’ont obligé à un arrêt technique pendant un mois juste après sa mise en service. Quelques jours seulement après son redémarrage, il a subi une panne informatique puis de nouveau des problèmes liés au déclenchement d’une alarme, de quoi pimenter quelque peu le trajet quotidien de la soixantaine de voyageurs qui peuvent s’entasser dans sa cabine.

La carrière antique de la Corderie, actuellement menacée par les tractopelles de Vinci (photo publiée par la Marseillaise)

Il n’en reste pas moins que le site de Notre-Dame de la Garde n’est pas forcément si simple à équiper et les contraintes sont multiples, à commencer par le Mistral qui rend le dispositif inexploitable lorsque la vitesse des rafales dépasse les 100 km/h, n’en déplaise aux amateurs de sensations fortes. Le survol de zones habitées peut également déplaire aux riverains, bien que la loi en la matière se soit récemment assouplie et qu’il existe désormais des techniques permettant de voiler temporairement les vitrages dans les zones sensibles. Et ceci sans parler des contraintes réglementaires car les 15 hectares de la colline de Notre-Dame de la Garde sont classés depuis 1917, tandis que le Vieux Port l’est depuis 1932 et qu’un arrêté de classement se fait attendre pour la carrière antique de la Corderie.

Pas sûr cependant que tout ceci n’arrête un Jean-Claude Gaudin qui, après s’être accroché pendant plus de 22 ans à son siège de maire, tient désormais fermement à son télésiège vers la Bonne Mère…

L.V.

Un nouveau château en Espagne

28 août 2017

L’architecte américano-canadien Franck Gehry fait assurément partie de ces starchitectes dont l’oeuvre ne laisse pas indifférent. Concepteur notamment du musée Guggenheim à Bilbao, de la Fondation Louis Vuitton à Paris, de la maison dansante à Prague ou encore de la tour de la fondation Luma en cours de construction à Arles, ses œuvres sont tout sauf classiques. Défiant les lois de la pesanteur, les bâtiments qu’il conçoit, parfois en s’inspirant simplement d’une boule de papier froissé, semblent totalement déstructurés, déformés, bancals et pour tout dire complètement loufoques, bousculant tous les principes architecturaux les plus solidement établis.

Vue d’ensemble de la Bodega Marqués de Riscal (source : Hotel Marqués de Riscal)

Parmi ces chantiers, il en est un qui retient particulièrement l’attention. C’est celui de l’hôtel de luxe édifié en 2006 sur une propriété viticole espagnole, Marqués de Riscal. Située à proximité de la ville médiévale d’Elciego, dans la vallée de l’Ebre, à mi-chemin entre Burgos et Pampelune, ce vignoble est aussi ancien que réputé. Fondée en 1860 par Camilo Hurtado de Amézaga, marquis de Riscal, un aristocrate acquis aux idées libérales et empreint de culture française, la maison Herederos del marqués de Riscal est désormais à la tête d’un domaine qui s’étend sur pas moins de 1500 ha avec des vignes en terrasses cultivées de manière extensive et surplombant la vallée de l’Ebre.

La bodega et les vignobles à proximité du village d’Elciego

Une partie des 180000 bouteilles stockées dans les chais

Une partie des caves date de 1858 et leur extension a été réalisée en 1883. Depuis, la marque est devenue un géant du vin espagnol de la Rioja, avec plus de 5 millions de bouteilles vendues annuellement, dont 70 % à l’export, et a même racheté, en 2010, 350 ha de vignobles à l’un de ses concurrents, le Français Pernod Ricard. Ici, on n’est plus dans le monde artisanal des vignerons à l’ancienne…

Mais le génie commercial de cette véritable entreprise viticole qu’est devenu le domaine Marqués de Riscal réside dans l’investissement hôtelier très haut de gamme conçu il y a maintenant plus de 10 ans pour attirer sur la propriété une clientèle aisée autour d’une véritable Cité du vin, vaste lieu d’accueil thématique de quelque 100 000 m2 consacré à l’élaboration, au soin et à l’étude du vin, entouré d’un complexe hôtelier luxueux assorti de salles de réception et de réunions.

Et c’est là que la patte de l’architecte Franck Gehry a su donner toute l’originalité qu’il fallait pour que cet immense complexe hôtelier et touristique perdu au milieu des vignes, dans un cadre enchanteur avec le village médiéval d’Elciego en arrière plan, devienne un site d’attaction proprement extraordinaire du fait de sa conception pour le moins originale. Il faut dire que si le projet date de 1998, il a fallu du temps, et de nombreuses dégustations de Rioja, pour convaincre l’architecte Franck Gehry, de s’engager dans la conception de cette bodega atypique, mais le résultat vaut le détour !

Les rubans en titane (source : Hôtel Marqués de Riscal)

Le bâtiment lui-même évoque vaguement une forme de cep de vigne avec ses piliers évasés vers le ciel qui supportent des éléments de forme cubiques disposés de manière apparemment très anarchique, avec de grandes ouvertures d’orientation variée. Le tout est enveloppé et surmonté de volutes enrubannées métalliques servant de pare-soleil, en acier inoxydable et titane, dans les tons rose, or et argent, sensé évoquer les teintes du vin, des capsules et de la maille dorée qui orne les bouteilles de la propriété. Vu de loin et en fonction des reflets de la lumière, l’effet est saisissant de voir ces rubans métalliques émerger au dessus des rangées de vignes, tels un paquet cadeau abandonné au milieu des ceps…

Des façades qui se marient avec celles des bâtiments anciens (source : Hôtel Marqués de Riscal)

Les façades sont en pierre, taillées dans le grès local, ce qui leur donne une certaine parenté avec celles des bâtiments historiques tout proches. Quant à l’aménagement intérieur, il est à l’avenant, de nombreux éléments ayant été dessinés par l’architecte lui-même. On y compte 43 chambres et suites luxueuses, accessibles pour la somme modique de 310 € la nuit pour les plus modestes d’entre elles, jusqu’à 800 € pour ceux qui ne comptent pas bouder leur plaisir en regardant à la dépense…

Une des 43 chambres de l’établissement (source : Hôtel Marqués de Riscal)

Le lieu, qui accueille désormais 70 000 visiteurs chaque année, dispose de surcroît de deux restaurants dont l’un tenu par un chef étoilé, de nombreuses salles de réunion et de réception, y compris pour ceux qui veulent s’y marier en grandes pompes, et bien entendu d’un spa luxueux où l’on pratique notamment la vinothérapie qui consiste en un bain dans une barrique en bois remplie d’un mélange à base de marc de raisin…

Le spa de l’hôtel (source : Hôtel Marqués de Riscal)

Destiné manifestement à une clientèle huppée et capable de dépenser sans compter, ce type d’établissement ne laisse cependant pas indifférent du fait de son architecture pour le moins originale, dont la conception a nécessité des études numériques poussées en trois dimensions et même des essais en soufflerie pour vérifier que les volutes en titane n’allaient pas s’envoler à la moindre brise. Quant à la réalisation d’une construction aussi biscornue, dont le coût reste tenu secret, on n’ose même pas imaginer le dialogue au jour le jour entre son concepteur et les entreprises en charge de concrétiser sur le chantier un projet aussi audacieux…

L.V.  

Le mur de glace se referme à Fukushima

26 août 2017

Et voilà que l’on reparle de Fukushima… Six ans après ce qui restera dans l’histoire comme l’un des accidents technologiques majeurs de l’industrie nucléaire, classé au niveau 7, le plus élevé sur l’échelle internationale des événements nucléaires, au même titre que l’explosion de Tchernobyl survenue en 1986, les suites de la catastrophe sont toujours loin d’être réglées…

Petit retour en arrière… Le 11 mars 2011, en début d’après-midi, a lieu un énorme séisme à 130 km au large des côtes de Sendaï, chef-lieu de préfecture située à 300 km au nord de Tokyo. Ce tremblement de terre de magnitude 9 fera cependant relativement peu de victimes grâce à la qualité des constructions japonaises et à l’excellence du niveau de préparation locale face à ce type de risque naturel.

Malheureusement, il est suivi 50 mn plus tard par un redoutable tsunami, provoqué par la propagation en mer de l’onde sismique. C’est cette vague gigantesque qui a atteint plus de 15 m de hauteur, avec même des pics à 39 m, ravageant près de 600 km de côtes, qui a causé l’essentiel des dégâts avec un bilan très lourd évalué à plus de 18 000 morts et disparus, pour un montant de dommages estimé à 210 milliards de dollars.

Quatre centrales nucléaires situées sur cette côte nord-est de l’île principale de Honshu, toutes conçues sous forme de réacteurs à eau bouillante, se sont automatiquement arrêtées lors du déclenchement du séisme et ont basculé leur alimentation électrique sur les groupes électrogènes de secours comme le prévoit la procédure. Celle de Fukushima Daiichi, équipée de 6 réacteurs, est exploitée par l’opérateur privé TEPCO, tout comme d’ailleurs sa voisine dénommée Fukushima Daini, laquelle comporte 4 réacteurs.

Le réacteur 3 de Fukushima Daiichi après l’accident du 11 mars 2011 (source © Reuters / Tepco)

Au moment du séisme, 3 des 6 réacteurs de la centrale de Fukushima Daiichi étaient à l’arrêt pour cause de maintenance. Les 12 groupes électrogènes de secours, destinés à préserver l’alimentation électrique des pompes de refroidissement, se sont enclenchés normalement mais ont été mis hors service par l’arrivée du tsunami qui a partiellement noyé les installations et totalement endommagé les prises d’eau en mer du circuit de refroidissement. Dès lors, dépourvu de toute possibilité de refroidissement, le combustible s’est mis à chauffer et le coeur de chacun des 3 réacteurs en activité a progressivement fondu, entraînant le percement de leurs cuves.

Parallèlement, la fonte des gaines de combustibles, constituées d’un alliage à base de zirconium, dégage de l’hydrogène qui s’accumule en partie supérieure de l’enceinte de confinement. Malgré plusieurs opérations de dépressurisation, l’augmentation de la pression à l’intérieur des réacteurs a fini par provoquer leur explosion. Le 12 mars, une forte explosion fait voler en éclats le toit du bâtiment du réacteur 1, sans toutefois endommager la cuve elle-même du réacteur. Deux jours plus tard, c’est le tour du réacteur 3 qui voit lui aussi le toit de son bâtiment soufflé par une formidable explosion, suivi le lendemain par une nouvelle explosion, cette fois au niveau du tore de condensation du réacteur 2. A partir de là, des rejets massifs et répétés de produits radioactifs vont se produire, dans l’atmosphère comme dans la mer. Le phénomène sera encore aggravé par la surchauffe du combustible entreposé dans les piscines des réacteurs 1 et 4, lesquelles ne sont plus refroidies, provoquant des émanations supplémentaires de substances radioactives et même l’incendie de la piscine du réacteur 4 !

Vue de la centrale nucléaire de Fukushima Daiichi le 14 mars 2011 (source © Digital Globe Imagery)

L’arrosage des installations pour tenter d’en diminuer la température s’est rapidement traduit par des rejets successifs en mer d’eau contaminée, mais surtout par l’accumulation de quantités énormes d’eau chargée en éléments radioactifs. En septembre 2013, ce sont ainsi plus de 600 000 m³ d’eau contaminées qui sont stockées et ce volume augmente de 300 m³ chaque jour ! Rapidement, sur l’insistance du gouvernement japonais, TEPCO est sommé de rechercher des solutions pour décontaminer l’eau sur place et limiter les rejets dans l’océan. Une première usine de traitement, développée par Areva et Veolia, est installée près du réacteur 4 puis une deuxième pour réduire la radioactivité des 15 000 m³ d’eau contaminée issues de l’unité 2 et les 45 000 provenant des salles des machines des réacteurs 1 et 3. En parallèle, de nouveaux espaces de stockage sont construits à la va-vite pour entreposer toute cette eau contaminée. En septembre 2013, ce sont ainsi 1000 réservoirs métalliques supplémentaires de 1000 m³ chacun qui sont installés.

Quelques-une des cuves de stockage d’eau contaminée sur le site

Mais se pose rapidement un nouveau problème : à partir de juillet 2013, l’exploitant constate des teneurs élevées en strontium 90 dans la nappe phréatique au droit du site, lequel est construit sur des grès plus ou moins fracturés et situé à 200 m seulement du rivage. Il y a des fuites, provenant pour certaines des différents réservoirs de stockage d’eau radioactive mais surtout des produits de fusion du coeur des réacteurs, au travers des radiers en béton qui les supportent. On estime alors que 300 m³ d’eau contaminée se déversent chaque jour directement dans l’océan par l’intermédiaire de ces circulations d’eau souterraines.

Agents de Tepco sur le site de la centrale

Pour réduire l’écoulement en mer de ces effluents liquides, TEPCO a commencé dès 2011 la construction d’un mur en acier et en béton entre les bâtiments des réacteurs et le Pacifique. Début avril 2011, une première opération est menée en urgence, qui consiste à injecter dans le sol du silicate de sodium pour colmater une importante fuite. En présence d’un durcisseur, le silicat de sodium forme en effet un gel qui comble de manière plus ou moins durable la porosité de la roche et diminue fortement sa perméabilité.

En juillet 2013, une barrière étanche de 16 m de profondeur est ainsi réalisée, toujours par injection, afin de contenir les eaux souterraines qui s’écoulent naturellement sous le site vers la mer, en provenance des reliefs environnants. Mais, pour des raisons techniques, cette barrière étanche ne commence qu’à une profondeur de 1,80 m sous le niveau du sol. Or sa mise en place fait remonter le niveau de la nappe qui finit par s’écouler au dessus ! La barrière a permis de freiner les écoulements mais sans les empêcher.

Schéma de situation des mesures de lutte contre les rejets d’eau contaminée (infographie © Nippon.com)

Des puits de pompage ont aussi été forés en amont du site pour faire baisser le niveau de la nappe et limiter les écoulements sous la centrale, mais cela s’avère insuffisant. En juin 2014, TEPCO propose donc d’aller plus loin et entame la construction autour des bâtiments de la centrale d’un « mur de glace », une barrière cryogénique souterraine de 1,5 km de long, réalisée par circulation de fluide frigorigène dans des tuyaux enterrés. Le coût d’un tel projet est estimé à 270 millions d’euro, mais cela devrait permettre de limiter les échanges d’eau contaminée sous le site accidenté avec celles de la nappe environnante.

Travaux de congélation du sol autour de la centrale en 2015 (source © TEPCO)

La technique de congélation des sols est employée de longue date en matière de travaux souterrains, mais rarement à une telle échelle puisque le mur est prévu pour descendre à 27 m sur une épaisseur d’environ 3  m, et TEPCO s’est rapidement heurté à de réelles difficultés de mise en œuvre. En juillet 2015, les communiqués de l’opérateur indiquaient qu’il se trouvait dans l’incapacité de descendre la température du sol en dessous de 10 °C. En juin 2016, TEPCO entreprend en parallèle l’injection de coulis à base de ciment destinés à freiner la vitesse d’écoulement des eaux souterraines afin de renforcer l’action de la congélation.

Un autre mur de glace bien connu…

On vient tout juste d’apprendre, le 22 août dernier, que TEPCO lançait la réalisation du dernier tronçon de 7 m laissé ouvert pour tester le comportement du dispositif, l’ensemble devant être totalement opérationnel d’ici le printemps prochain. Certains ironisent sur ce « retour à l’âge de glace » ou l’édification de cette nouvelle « barrière de glace » qui rappelle furieusement certains épisodes de la série culte Games of throne. Il n’en reste pas moins que cela confirme que la circulation des eaux souterraines sous des installations industrielles à risque, souvent insuffisamment prise en compte, peut constituer un véritable casse-tête, techniquement très difficile à résoudre de manière satisfaisante, surtout dans l’urgence…

L.V.  

Gardanne valorise ses friches minières

22 août 2017

La ville de Gardanne fait partie de ces terroirs durablement marqués par l’extraction minière. Dès le 18e siècle, de nombreux habitants de la région s’adonnaient à l’exploitation du charbon de terre pour pallier la rareté du bois de chauffage. Au début du 19e siècle, on compte ainsi déjà plus de 80 puits de mines en activité et sans doute 200 déjà abandonnés.

L’arrivée du chemin de fer accélère le mouvement et les années 1880-90 voient à la fois le creusement du premier puits de mine moderne au coeur de la cité minière de Biver, et l’installation de l’usine Péchiney d’alumine, qui profite du lignite de Gardanne et de la bauxite extraite dans le bassin minier varois tout proche. C’est cette même usine qui sera à l’origine des rejets en mer de boues rouges dans les années 1960 et qui défraie toujours la chronique sous son nouveau nom d’Alteo. Après la deuxième guerre mondiale, enfin, est édifiée la centrale thermique de Meyreuil, alimentée par le lignite dont l’extraction bat alors son plein à Gardanne.

Mais tout cycle minier a une fin. L’exploitation du lignite de Gardanne stagne à partir des années 1960. Soutenue artificiellement pour des raisons politiques, la production s’effondre à partir des années 1990 et le dernier puits ferme en 2003. Alors que l’industrie minière employait jusqu’à 6500 personnes au début des années 1950, à une période où le site attirait une forte population de travailleurs immigrés, et encore autour de 2000 après la relance de l’activité impulsée en 1981, il ne restait plus que 600 à 700 mineurs encore employés au moment de la fermeture du dernier site.

Depuis, la ville de Gardanne s’efforce de retrouver un nouveau souffle, à l’image du bassin d’emploi voisin, qui s’étend sur les communes de Peynier, Fuveau et Rousset, où s’est développée depuis les années 1960 une activité industrielle florissante axée sur la micro-électronique. L’histoire de cette zone d’activité est d’ailleurs très intéressante car liée étroitement au déclin de l’extraction minière comme l’a bien analysé Olivier Lambert, professeur à l’université d’Aix-Marseille et spécialiste de l’histoire industrielle locale.

Zone industrielle de Peynier-Rousset vue d’avion (source : Pays d’Aix développement)

Cette zone industrielle de Peynier-Rousset, créée en 1961, est en effet située dans le même bassin minier que Gardanne, situé à une quinzaine de km seulement. Les premiers puits pour l’exploitation du lignite y ont été creusés à partir de 1912 et une usine de production d’alumine y est construite à partir de 1917 par les Norvégiens de la Norsk Aluminium Company qui ont bien repéré l’intérêt des lieux, situés à proximité des futures mines de lignite en cours d’aménagement, de la vallée de l’Arc, source d’eau abondante, et de la voie ferrée Carnoules-Gardanne, pourvoyeuse de la bauxite varoise.

Mais en décembre 1918, alors que le creusement des puits atteint 425 m de profondeur, l’eau de la nappe s’engouffre brusquement dans les travaux miniers et ruine définitivement toute velléité d’exploitation houillère. Echaudés par cet échec industriel, les Norvégiens se retirent également. De nouveaux projets industriels sont bien relancés dans les années 1940 pour valoriser l’usine d’alumine en vue de produire des carburants de synthèse puis du gaz de ville, mais sans succès et en 1949, l’ensemble des terrains et des bâtiments est racheté par les Houillères du bassin de Provence, issues de la nationalisation des mines de charbon décidée à la Libération.

Ce sont donc les Houillères qui seront à l’origine de la création de la zone industrielle de Peynier-Rousset, la première des Bouches-du-Rhône, en 1961, déjà dans une perspective de reconversion pour pallier la baisse d’activité inéluctable de l’extraction du lignite de Gardanne. Fortement aidée à coup de subventions publiques et malgré certaines implantations durables comme celle de Volvic qui y produit son jus de fruit Oasis avec l’eau du puits de l’Arc, la zone industrielle vivote pendant une vingtaine d’années, tenue à bout de bras par les Houillères.

En 1979, la zone industrielle prend enfin son essor avec l’arrivée d’Eurotechnique, issu d’une association entre les Américains de National Semiconductor et le Français Saint-Gobain. La première usine de fabrication de puces électroniques au silicium est construite à Rousset. Elle passera en 1983 dans le giron de Thomson avant de rejoindre en 1987 SGS-Thomson, une nouvelle société franco-italienne de semi-conducteurs qui prendra plus tard son nom actuel de STMicroelectronics.

Effectifs des Houillères et de la zone industrielle de Rousset entre 1945 et 2010 (source : O. Lambert / revue Rives, 2013)

Depuis, ce site est devenu un pôle d’activités prospère tourné vers la microélectronique et les nouvelles technologies, qui employait en 2013 de l’ordre de 7000 personnes, soit davantage que l’industrie minière de Gardanne à son apogée, sans pour autant qu’il s’agisse d’une véritable reconversion industrielle même si le contexte politico-économique mis en place par l’action des Houillères et les nombreuses aides publiques à la reconversion de cet ex-bassin minier ont fortement contribué à ce succès.

Centre Georges Charpak à Gardanne (source : Ville de Gardanne)

Nul doute en tout cas que la ville de Gardanne souhaite manifestement s’inspirer de cet exemple pour assurer l’avenir de ses propres friches minières. L’inauguration en 2008 du centre de microélectronique Georges Charpak, rattaché à l’école des mines de Saint-Étienne, sur un campus de 6 ha, partie prenante du pôle de compétitivité « Solutions communicantes innovantes », illustre bien cette volonté de s’inscrire dans un environnement technologique en pleine évolution.

Centrale thermique de Meyreuil

En parallèle, la centrale thermique à charbon de Meyreuil, d’abord détenue par une filiale de Charbonnage de France, et désormais dans les mains de l’énergéticien allemand Uniper, tente une conversion difficile d’une des deux unités vers une centrale à biomasse. Le projet, lancé en 2103 et pour lequel ont déjà été investis 250 millions d’euros, devrait permettre à terme de brûler 850 000 t de bois chaque année, issus pour moitié de déchets et pour moitié de coupes de bois. C’est cependant ce dernier point qui inquiète fortement les associations locales de défense de l’environnement puisque cela reviendrait à prélever un tiers du gisement forestier disponible dans un rayon de 250 km… Le Tribunal administratif de Marseille a d’ailleurs annulé, le 8 juin dernier, l’autorisation d’exploitation accordée à la centrale !

Quant aux anciennes installations minières elles-mêmes, la ville tente de les valoriser après avoir racheté en 2006 les emprises du puits Morandat et du puits Z. Les puits ont été au préalable mis en sécurité et obturés en tête par des dalles en béton armé très épaisses pour éviter tout risque d’effondrement. La SEMAG (Société mixte d’aménagement de Gardanne) est ainsi à l’oeuvre pour réaménager les 14 ha de la future zone d’activité qui sera développée autour du puits Morandat, avec pour objectif l’implantations d’entreprises innovantes et de PME axées vers l’économie sociale et solidaire, permettant de générer près d’un millier d’emplois selon les prévisions les plus optimistes.

L’ancien hall des mineurs accueille d’ores et déjà une pépinière d’entreprises tandis que le bâtiment du Parc héberge l’unité territoriale après-mine créée par le BRGM et Charbonages de France pour gérer la mise en sécurité des anciennes mines dans le tiers sud-est de la France.

Le chevalement de l’ancien puits Morandat (source : Ville de Gardanne)

Les travaux de viabilisation ont déjà été lancés en vue d »aménager les premières tranches destinées à l’accueil d’entreprises. Il est notamment prévu la fourniture de chaleur via un réseau qui exploite le gisement géothermique des anciennes galeries minières désormais ennoyées. Une société spécifique, dénommée Énergie solidaire, a été créée pour cela, via une association entre la SEMAG et Dalkia EDF. Elle prévoit un investissement de 4 millions d’euros, la moitié de l’électricité nécessaire pour faire fonctionner la station de pompage étant issue de panneaux photovoltaïques.

Le chevalement du puits Morandat pourrait, quant à lui, être reconverti en un restaurant panoramique tandis que l’ancien vestiaire des mineurs devrait accueillir d’ici 2022 un centre de culture scientifique et technique imaginé dans l’esprit de la Cité des sciences de la Villette à Paris. Bref, les projets ne manquent pas à Gardanne pour valoriser ces anciennes friches minières, sans totalement tourner le dos à un passé dont la ville continue à s’enorgueillir.

L.V.  

Monaco gagne (encore) sur la mer…

31 juillet 2017

Dans la principauté de Monaco, minuscule confetti enclavé sur le territoire français pour des raisons historiques, la conquête de l’espace est une préoccupation constante. Avec une superficie totale qui ne dépasse pas 2 km2, (202 hectares très précisément, nettement moins donc que la commune de Carnoux qui s’étend, mine de rien, sur 345 ha !) c’est le deuxième plus petit État indépendant au monde (derrière le Vatican). Sauf que la population qui s’entasse sur cet espace ridicule s’élève à 38 500 habitants au dernier recensement de 2016, soit une des densités les plus fortes du monde avec plus de 18 000 habitants au km2.

Sommet de la Tour Odéon à Monaco

Pas étonnant que dans ces conditions, le prix du foncier atteigne des sommets vertigineux, plaçant Monaco en tête du classement mondial des villes où se loger coûte le plus cher. A Monaco, un bel appartement se négocie autour de 45 000 € le m2. C’est en moyenne 15 % de plus qu’à Hong Kong et 40 % plus cher qu’à Londres, plus du double de Paris où le prix de l’immobilier de luxe oscille autour de 20 000 € le m2, une misère… Achevée en 2015, la double tour Odéon qui s’élève à 170 m de hauteur dans le quartier de l’Annonciade, a vu ses appartements se négocier autour de 55 000 à 70 000 € le m2. Quant au penthouse qui s’étend au sommet de la tour sur 3 300 m2 répartis sur 5 niveaux, avec piscine à toboggan, fitness et vue plongeante sur la mer, il peut s’enorgueillir d’être à ce jour l’appartement le plus cher du monde, vendu pour la modique somme de 300 millions d’euros, soit un prix de revient de 91 000 € le m2.

Dans un tel contexte, chaque mètre carré compte et la solution la plus simple pour ce territoire côtier, à défaut de pouvoir se lancer dans des guerres de colonisation d’un autre âge, est d’empiéter toujours davantage sur le domaine maritime. Dès 1865, un premier remblai a ainsi été réalisé pour y permettre le passage de la voie ferrée, rapidement suivi par la construction du quartier industriel de Fontvielle gagné sur la mer sur une surface de 5,5 ha. Depuis, les Monégasques ne s’arrêtent plus et repoussent sans cesse la ligne de rivage. Ces dernières années, ce sont ainsi plus de 40 hectares qui ont été gagnés sur la mer, permettant d’agrandir toujours plus le terrain disponible pour de nouvelles constructions. Même le stade Louis II de l’AS Monaco a été construit sur la mer…

Photomontage du futur quartier en construction (© Valode et Pistre)

Et ce n’est pas fini puisqu’un nouveau chantier a été lancé fin 2016. Il s’agit cette fois de construire une nouvelle plateforme de 6 hectares gagnée sur l’eau dans l’Anse du Portier, dans le prolongement du Grimaldi forum. Un chantier totalement pharaonique qui coûtera 2 milliards d’euros mais pour lequel le gouvernement de la principauté ne déboursera pas un centime puisque ce sont les entreprises, au premier rang desquelles Bouygues Construction, qui avancent l’argent en espérant bien se faire largement payer en retour par la vente des 60 000 m2 de logements ainsi construits.

Maquette du nouveau quartier d’habitation (capture video © Valode et Pistre)

Bien entendu, il s’agit d’immeubles de haut standing, labellisés écoquartier, avec panneaux solaires et climatisation par pompes à chaleur alimentées à l’eau de mer, disséminés au milieu d’un parc arboré de 1 ha, avec parkings, équipements publics, port de plaisance d’une trentaine d’anneaux, 3 000 m2 de commerces et promenade littorale. Un éden pour milliardaires, dont l’architecture a été conçue par le célèbre architecte Renzo Piano.

Nacre Nobilis, plus grand coquillage de Méditerranée (photo © David Luquet)

Pour bâtir une telle infrastructure dans des fonds marins dont la profondeur atteint jusqu’à 50 m et qui s’étendent entre deux zones naturelles, la réserve du Larvotto et le tombant des Spélugues, une préparation s’impose, qui consiste notamment à transplanter les posidonies et à évacuer les nacres géantes qui peuplent ces fonds sous-marins autrefois d’une grande richesse. Ces travaux préparatoires ont déjà eu lieu, à l’automne 2016, sans émouvoir grand monde tant les Monégasques se moquent comme d’une guigne de la qualité de leurs fonds marins, sur une partie du littoral où près de 90 % des fonds entre 0 et 8 m de profondeur ont d’ores et déjà été détruits, selon un biologiste niçois.

Place désormais aux travaux de génie civil maritime ! Ils ont débuté en avril 2017, pilotés par l’entreprise belge Jean de Nul. La première étape a consisté à déposer 30 000 m3 d’enrochement qui seront stockés, nettoyés puis réutilisés. Le chantier est maintenant entré dans sa deuxième phase qui consiste à draguer les sédiments pollués reposant au fond de l’Anse du Portier, et ceci à l’aide d’une pelle équipée d’un godet étanche de 8 m3 et capable de descendre jusqu’à 32 m de fonds. Cette pelle hors norme ainsi qu’une grue à câble pour les secteurs les plus profonds, sont elles-mêmes installées sur une barge ancrée dans le sol sous-marin via des pieux de 40 m…

Schéma de principe des caissons périphériques (© Valode et Pistre)

Deux barges de transport assurent l’évacuation des sédiments jusqu’à un centre de traitement et de valorisation installé à La Seyne-sur-Mer. D’ici la fin de l’été, une fois les sédiments pollués ainsi retirés, c’est le reste du sable qui va être aspiré jusqu’à atteindre le substratum rocheux. Au total, plus de 400 000 m3 de matériaux devraient ainsi être aspirés puis rejetés en mer à quelques km de la côte, par 200 m de fond. Une fois le sol mis à nu, une assise constituée de 1,6 millions de tonnes de cailloux lavés et concassés, acheminés depuis une carrière de Châteauneuf-les-Martigues, sera mise en place pour servir de support aux 18 caissons en béton armé, de 27 m de hauteur, qui constitueront le corps de la digue périphérique.

La future plateforme et son enceinte étanche constituée de caissons en béton (capture video © Valode et Pistre)

Ces caissons, qui pèsent 10 000 t chacun, seront préfabriqués dans la forme 10 du port de Marseille, à partir du mois de septembre prochain. Il s’agira d’un processus particulièrement complexe puisque le coulage du béton se fera au fur et à mesure de l’immersion du caisson. Une fois les caissons mis en place, le remblaiement de la plateforme pourra commencer, avec du sable prélevé au large de la Sicile et acheminé au moyen de la plus grosse drague du monde, capable d’apporter 40 000 m3 de sable à chaque voyage : une quinzaine de rotations devraient être nécessaire…

C’est en mars 2020 seulement, si tout va bien, que la nouvelle plateforme pourra, après compactage, commencer à recevoir les premières constructions. La livraison des premiers logements est, quant à elle, programmée pour 2022 : avis aux amateurs fortunés qui souhaiteraient y investir leurs deniers !

L.V. 

Marseille, nouveau roi du coffre-fort numérique ?

22 juillet 2017

Longtemps reconnue mondialement pour son rôle de port colonial, puis pour celui de cerveau de la French connexion et pour sa réputation déplorable de violence urbaine, Marseille tente depuis des années de se forger une nouvelle image de port d’accueil pour le tourisme de la croisière de luxe. Mais c’est dans un tout autre domaine que la ville est en train de connaître un développement inattendu : celui des data centers, ces coffres-forts modernes où sont stockées physiquement les milliards de données numériques que l’on a tendance à imaginer évaporées sur un nuage éthéré, le fameux « Cloud »…

Salle blanche pour le stockage des baies informatiques

Car la tendance actuelle en informatique est d’avoir des ordinateurs de plus en plus puissants mais paradoxalement de plus en plus vides, ce qui génère des flux de données croissant et totalement gigantesques à travers la planète entière. Les logiciels et le stockage de données, qui prend de plus en plus de place, sont désormais hébergés sur des serveurs situés on ne sait où, chez un prestataire informatique qui conserve de manière sécurisée nos données personnelles.

Un tel service d’hébergement des données numériques personnelles (nos photos, la vidéo des premiers pas du petit dernier, nos courriels, nos fiches de paies et autres papiers administratifs, nos fichiers numériques, etc.) est même fourni gratuitement par la plupart des fournisseurs d’accès internet, bien trop contents de récupérer ainsi à bon compte toutes nos données personnelles qui seront ensuite valorisées pour développer des sollicitations commerciales adaptées à nos centres d’intérêts personnels. C’est aussi un service payant qu’offrent de plus en plus de prestataires, tels que la Poste ou la Caisse d’Epargne, sous le nom de « coffres-forts numériques ».

Il s’est ainsi créé un nouveau marché très juteux, celui du stockage sécurisé de données numériques. Du fait de l’importance vitale de toutes ces données numériques qu’il convient d’archiver pour de longue durées tout en en conservant une parfaite traçabilité et en étant sûr de pouvoir les retrouver et les exploiter à tout moment, de nombreux prestataires sont ainsi apparus qui proposent de garantir la disponibilité, l’intégrité et la pérennité de ces données, moyennant juste rétribution…

Comme les château-forts d’antan, ces nouveaux coffres-forts numériques que sont les data centers sont conçus avec de multiples barrières de sécurité successives, ainsi que l’explique Fabrice Coquio, président d’Interxion France, un groupe néerlandais fondé en 1988, qui héberge les serveurs informatiques de plus de 200 clients dont Microsoft, Amazon, Facebook, Twitter, Yahoo, etc.

Comme tout château fort qui se respecte, il faut bien entendu une muraille solide, avec plusieurs niveaux de protections successifs : l’enceinte du bâtiment, protégée par barrières infra-rouges et vidéo surveillance avec détection de mouvement et vision nocturne, le bâtiment lui-même, équipé de sas d’accès sous alarmes, d’accès anti-effraction et de vidéo surveillance, les salles de stockage ensuite, protégées par contrôle d’accès et par système biométrique, et enfin les baies qui sont les systèmes informatiques dans lesquels sont stockées les données numériques, elles-mêmes rassemblées au sein de cubes fermés à l’aide d’un code ou d’un système de clé.

Autout du château s’étendent bien entendu, les douves, matérialisées ici par les systèmes de sécurisation des réseaux, sous forme de fibre noire cryptée qui fait transiter les données grâce à des signaux encodés. Quant aux armées qui gardent le château, ce sont les agents de sécurité habilités qui assurent une veille sur site 24h/24. Enfin, le donjon qui est consitué par le poste de pilotage et de commande par lequel transitent toutes les informations nécessaires à la maintenance du bâtiment.

Les bâtiments du premier data center d’Interxion implanté à Marseille depuis 2015 (source © Interxion)

Reste à savoir où implanter ces châteaux-forts de l’ère numérique. Et c’est là que Marseille se révèle, parmi d’autres, comme un emplacement particulièrement favorable. La présence de 13 câbles sous-marins qui arrivent ici en font en effet un point névralgique pour les échanges digitaux et télécoms entre l’Europe, le Moyen-Orient, l’Afrique et l’Asie. Les grands acteurs du Cloud ont bien repéré cette spécificité et l’activité tend donc à se développer.

C’est ainsi que la société Interxion y a ouvert en 2015 son huitième centre français de stockage, dans les locaux d’un ancien site SFR basé à la Joliette. Un investissement de 45 millions d’euros pour une surface utile qui sera portée à terme à 5 700 m² et une puissance électrique installée de 6 MW. Et ce n’est pas fini puisque cette société, numéro 2 mondial, qui exploite désormais 45 data centers à travers l’Europe, compte ouvrir deux nouveaux sites marseillais mitoyens, dans le secteur du cap Janet, à l’Estaque.

La halle Freyssinet du Cap Janet et la base U-boot attenante (photo © Kariyou)

Une maquette du futur centre MRS2 dans la halle Freyssinet rénovée (source © Interxion)

Le premier, dont la première pierre vient d’être posée à l’occasion d’un grand raout officiel en présence de Jean-Claude Gaudin, de Gérard Gazay et de Christine Cabau-Woehrel, présidente du Grand Port maritime de Marseille, se développera dans les locaux désaffectés des anciens ateliers de réparation navale Fouré-Lagadec, inoccupés depuis 1995. Il s’agit d’une vaste halle Freyssinet, c’est à dire conçue sur le modèle du gigantesque hangar à trois nefs surmontées de voûtes cylindriques minces que l’ingénieur Eugène Freyssinet avait conçu et réalisé en 1929 pour abriter les voies de la gare d’Austerlitz. Un ouvrage de référence, inscrit depuis 2012 au titre des monuments historiques, et dont la conception a inspiré un très grand nombre de hangars militaires, aéroportuaires et industriels à travers tout le pays.

Sur ce site, la demande de permis de construire a été déposée en vue d »aménager courant 2017 dans ce bâtiment 4 000 m² de salles blanches destinées au stockage sécurisé de données informatiques, et ceci pour un coût d’investissement évalué à 70 millions d’euros.

Vue aérienne du site de la base de sous-marins après la guerre

Quant au troisième site convoité par Intexion qui souhaite y aménager 10 000 m² de stockage supplémentaire, il s’agit ni plus ni moins que du bâtiment voisin, une ancienne base de sous-marins allemands datant de la seconde guerre mondiale, le « U-bootbunker Martha ». En réalité, cet imposant complexe en béton armé de 208 m de longueur et 45 m de largeur, dont la construction a été lancée en janvier 1943 et qui devait accueillir une vingtaine de sous-marins militaires, n’a jamais servi. Les travaux ont été stoppés en août 1944, suite au débarquement allié en Provence, avant même que le chenal d’accès des sous-marins ne soit creusé. La bâtiment n’a donc jamais été opérationnel, sauf ponctuellement pour y assurer la détention de prisonniers de guerre allemands, dont les fresques dessinées sur les murs peur meubler leur captivité sont encore visibles sur les parois.

Ce bâtiment, resté en l’état depuis sa construction, intéresse a plus haut point l’amateur de châteaux forts qu’est le directeur de la société Interxion. Véritable bunker massif construit sur le modèle des bases de Lorient, Brest et La Rochelle, il est surmonté d’une dalle de toit en béton armé de près de 6 m d’épaisseur, capable de résister à des bombes d’une tonne comme la Royal Air Force en avait fait l’expérience à Lorient. Quant aux murs, leur épaisseur varie entre 90 cm et 2,85 m pour ceux qui sont situés face à la mer et qui étaient susceptibles d’être bombardés depuis le large.

Une structure parfaitement adaptée donc à l’usage envisagé, d’autant que les salles de maintenance prévues par les ingénieurs allemands à l’étage, pourront facilement être aménagées en salles blanches. Une belle opportunité également pour le Grand Port maritime de Marseille qui se demande depuis plus de 70 ans ce qu’il pourrait bien faire de ce vestige historique aussi délabré qu’encombrant et dont la déconstruction coûterait une fortune. Une petite inquiétude néanmoins pour l’approvisionnement en électricité de ce château fort futuriste qui aura besoin en permanence d’une puissance électrique de 8 mégawatts, à comparer aux 50 MW que consomment l’ensemble des serveurs informatiques de Google et aux 100 MW produits par une tranche de réacteur nucléaire. De quoi se rappeler que le numérique commence à prendre une part non négligeable dans notre empreinte carbone globale…

L.V.  

Stationnement payant : un jackpot en perspective !

14 juillet 2017

A compter du 1er janvier 2018, les 800 communes françaises où le stationnement est payant vont pouvoir en confier la gestion au privé : fini donc les aubergines parisiennes et autres policiers municipaux qui déambulent sur les trottoirs pour vérifier si vous avez bien glissé une pièce dans l’horodateur : ce sont bientôt des dizaines de planches des albums de Gaston Lagaffe qui vont devenir vraiment vintage. L’agent Longtarin va devoir se consacrer désormais à d’autres tâches plus gratifiantes…

L’agent Longtarin, gardien séculaire des parcmètres… (© Franquin / Dargaud ed.)

Cette évolution est une des conséquences de la loi de modernisation de l’action publique territoriale et d’affirmation des métropoles adoptée en janvier 2014 et qui donne donc aux municipalités la totale maîtrise du stationnement, leur permettant de décider désormais en toute liberté de la politique tarifaire adoptée et de la manière de procéder au contrôle et à la sanction éventuelle en cas de fraude. Libre ensuite aux maires de choisir s’ils souhaitent conserver en interne la gestion du contrôle ou le confier au privé.

Nouveaux horodateurs à Metz permettant le paiement par smartphone

Et bien entendu, de nombreux édiles piaffent d’impatience de déléguer au privé la gestion de cette nouvelle compétence, histoire d’en maximiser les profits. C’est le cas notamment à Metz où la ville a déjà confié à l’entreprise Indigo (ex Vinci Park), un des leaders du secteur (avec son concurrent Effia), la gestion complète du stationnement payant sur la voirie. L’ensemble des horodateurs de l’agglomération a déjà été changé en début d’année pour les remplacer par des dispositifs plus sophistiqués permettant le paiement par carte bancaire sans contact au moyen d’applications smartphone qui permettent d’alimenter à distance le parcmètre pour prolonger sa durée de stationnement, et qui fournissent directement le numéro d’immatriculation du véhicule, histoire de faciliter l’envoi du PV en cas de fraude…

Bien entendu, la ville profite de cette petite révolution pour augmenter fortement les tarifs de stationnement dans les zones les plus tendues, afin de dissuader les voitures ventouses. Et les PV vont passer désormais de 17 à 35 €. C’est en effet une des conséquences directes de la dépénalisation du stationnement en voirie, inscrit également dans la loi de 2014. On n’est plus tenu désormais de payer un PV en cas de fraude puisque ce n’est plus un délit. En revanche, il convient dans ce cas de s’acquitter d’un simple « forfait post-stationnement », sur le même principe que l’automobiliste qui a perdu son ticket et qui se voit réclamer, au péage de l’autoroute, le montant maximal puisqu’il n’est pas en mesure de prouver à quelle gare de péage il est entré. De la même manière, l’automobiliste négligent qui dépasse la durée de stationnement autorisé, devra s’acquitter du tarif maximal autorisé.

Et dans ce cas, l’addition risque d’être salée. A Paris, il en coûtera pas moins de 50 € aux étourdis ! Tel est en effet le montant du nouveau forfait maximal de 6 heures que vient fort opportunément d’autoriser la ville de Paris, alors que la durée maximale de stationnement jusque là n’était pas autorisée au-delà de 2 heures. Du coup, c’est un véritable jackpot que devrait toucher la capitale d’ici quelques mois. Jusque là, c’était l’État qui percevait le montant des PV et en reversait une partie aux villes, selon un système de péréquation qui profitait également aux petites communes de moins de 10 000 habitants.

Verbalisation pour stationnement dépassé à Paris (© Le Parisien /Delphine Goldsztejn)

Dorénavant, les grandes agglomérations garderont pour leurs propres besoin la totalité du pactole. A Paris, où la maire Anne Hidalgo avait quelque peu surpris en affirmant que 91 % des automobilistes fraudent, ce sont actuellement près de 6 millions de PV qui sont dressés chaque année pour stationnement interdit, ce qui jusque là rapportait, bon an mal an, la somme de 35 millions à la ville. Avec le nouveau montant de l’amende qui n’en est plus une, ce sont pas moins de 300 millions d’euros de recettes qui devraient désormais alimenter les caisses de la capitale ! Une belle culbute, même si tout laisse penser qu’elle ne sera pas durable car on voit mal les Parisiens continuer à payer de telles sommes sans adapter leurs habitudes…

C’est d’ailleurs ce qui s’est passé à Madrid où le contrôle du stationnement se fait désormais au moyen de scooter et de voitures équipées de caméras qui patrouillent dans les rues en scannant systématiquement les plaques d’immatriculation des véhicules garés des deux côtés de la chaussée. Les données sont transmises instantanément à un système centralisé qui vérifie en temps réel si chacun a bien payé son dû et qui, sinon, alerte les agents chargés de verbaliser.

Véhicules de contrôle du stationnement à Madrid (© Le Parisien /J.-G.B.)

Les numéros de plaques d’immatriculation sont en effet obligatoirement saisis lors du paiement si bien que la base de données centrale sait en permanence, rue par rue, quels sont les véhicules qui ont payé et pour combien de temps. Avec un tel dispositif de flicage instantané, le taux de fraude est tombé très rapidement à moins de 15 % et il devient statistiquement impossible d’échapper à une prune si on reste stationné au moins une heure en centre ville : avis aux amateurs !

Un tel système fait bien évidemment baver d’envie la plupart des maires confrontés au problème de la fraude généralisée et c’est le même dispositif que devrait être mis en place prochainement à Paris, toujours par la société Indigo qui sera chargée de fournir et gérer les nouveaux horodateurs, de procéder aux contrôles avec le même système de véhicules pourvus de dispositifs de « lecture automatisée des plaques d’immatriculation » (LAPI) et d’encaisser les fameux forfaits de post-stationnement. Au vu de l’expérience madrilène, on peut s’attendre à ce qu’une voiture équipée LAPI contrôle en moyenne 1500 véhicules à l’heure (un peu moins pour un scooter), là où une aubergine traditionnelle peine à vérifier 150 véhicules dans le même temps : un gain de productivité qui risque d’être redoutable pour l’automobiliste moyen…

Bien entendu, l’opération ne sera pas indolore. A l’échelle nationale, le GART (Groupement des autorités responsables de transport) a déjà fait ses comptes : alors que les recettes actuelles des horodateurs atteignent péniblement 540 millions d’euros, ce sont pas moins de 1 voire 1,5 milliards d’euros supplémentaires qui devraient ainsi être récupérés, directement de la poche des automobilistes et sans que cette recette supplémentaire pour les collectivités ne soit assimilée à un prélèvement obligatoire : brave vache à lait de conducteur…

L.V.  

La douche écolo qui vous en fait voir de toutes les couleurs

17 mai 2017

Ségolène Royal et Gabriel Della-Monica, le fondateur de Smart & Blue

« L’écologie ne doit pas être punitive » disait Ségolène Royale pour justifier l’abandon totalement injustifiable de l’écotaxe poids lourds. Encore ministre de l’écologie la semaine dernière, comme elle l’était déjà en 1992, l’auteur de cette sentence mémorable serait, aux dernières nouvelles, toujours à la recherche d’un point de chute pour se recaser après que sa candidature à la tête du Programme des Nations Unies pour l’Environnement a été écartée… Pour autant, affirmer que les changements de comportements individuels en faveur d’une meilleure prise en compte des enjeux environnementaux ne passent pas par la contrainte mais par l’adhésion et la conviction, voila assurément une idée qui ne manque pas de bon sens…

Pommeau de douche connecté Hydrao First (photo © Erwan Lecomte / Sciences et Avenir)

C’est ce côté ludique qu’a voulu explorer la jeune entreprise grenobloise Smart & Blue, un nom qui fleure bon le terroir alpin, en développant son dernier produit, elle qui se présente comme le « leader des technologies innovantes et connectées pour une gestion intelligente de l’eau potable », rien que ça ! L’idée, il est vrai ne manque pas d’originalité puisqu’elle consiste ni plus ni moins qu’à prendre sa douche en couleur, grâce à un pommeau intelligent dont les buses sont équipées de LED polychromes qui éclairent l’eau du bain de toutes les couleurs.

L’objectif n’est bien évidemment pas de transformer sa salle de bain en boîte de nuit, mais tout simplement d’inciter à économiser l’eau de la douche. Quand on ouvre le robinet, les LED éclairent l’eau du jet en vert. Jusque là, tout va bien, à condition de ne pas faire couler plus de 10 litres d’eau, un volume normalement largement suffisant pour se laver correctement, comme le savent tout ceux qui ont un jour testé les douches à l’ancienne, constituées d’un simple seau d’eau et d’un récipient adapté, bol en plastique ou calebasse selon les usages locaux.

A partir de ce volume fatidique de 10 l, le jet d’eau passe au bleu. Rien de bien inquiétant encore, mais à partir de 20 l, l’eau de la douche passe au rose, puis au rouge et au-delà de 40 l, le rouge se met à clignoter. Rassurez-vous, il n’arrivera rien de plus grave au-delà, mais après un tel festival de couleur, même le consommateur le plus endurci et le plus rétif aux économies d’eau sera incité à tourner le robinet et à attraper sa serviette pour se sécher. Selon le concepteur du système, le Français moyen n’utilise pas moins de 80 l pour sa douche quotidienne, au point que pour une famille de 4 personnes l’eau de la douche représente près de 40 % de la consommation quotidienne d’eau : l’enjeu n’est donc pas mince !

Répartition de la consommation de l’eau domestique par type d’usage en France (source © Centre d’information sur l’eau)

Bien évidemment, un concept aussi novateur, commercialisé sous le nom d’Hydrao First et déjà récompensé par plusieurs prix  n’a pas besoin d’électricité pour fonctionner car cela rendrait l’empreinte environnementale du dispositif nettement moins séduisante, sans compter le risque d’hydrocution : le système utilise simplement une turbine intégrée qui tourne sous l’effet du jet d’eau et qui fournit l’énergie nécessaire à l’éclairage des lampes. Un dispositif astucieux et par ailleurs totalement branché.

L’appli smart shower

Car bien entendu, un tel bijou de technologie est forcément connecté. Une appli adaptée permet de paramétrer sur son smartphone ses propres seuils de réglage des changements de couleurs mais aussi de suivre l’historique de consommation de ses 200 dernières douches et de comparer sa consommation par rapport à sa douche de référence. De quoi occuper les amateurs de statistiques, et de quoi attiser les conversations familiales car bien entendu l’appli n’est pas en mesure de faire la distinction en fonction de l’utilisateur. Impossible désormais, avec un tel mouchard à la maison, de se prélasser tranquillement sous la ouche sans se faire ensuite vertement remarquer qu’on a sérieusement fait baisser la moyenne familiale et fortement augmenter la facture d’eau et d’électricité.

Suivi de consommation (photo Sciences & Avenir)

Tout se paye en effet et on sait illico en sortant de la salle de bain combien nous ont coûté ces quelques minutes passées sous la douche. Pas autant certes que le pommeau lui-même car ce gadget futuriste est quand même vendu pour près de 90 € et on a intérêt à se doucher souvent pour espérer amortir un jour un tel investissement…

C’est en tout cas une excellente affaire pour son concepteur dont la société vient de recevoir une nouvelle récompense lors d’un salon professionnel qui s’est tenu à Las Vegas en janvier dernier pour ses deux dernières nouveautés Hydrao Drop et Hydrao Loop. Toujours connectée à la même application Smart Shower, cette dernière est un pommeau de douche dont le design très élaboré rappelle vaguement le signe mathématique de l’infini, mais dont les fonctionnalités sont tout à fait comparables à celle du pommeau d’entrée de gamme Hydrao First, avec néanmoins une efficacité accrue en matière d’économie d’eau, pour la modique somme de 169 €.

Hydrao Loop, dernier né de la gamme au look futuriste

On peut bien sûr ironiser sur l’aspect gadget de ces innovations mais on est bien obligé de reconnaitre que son inventeur, l’ingénieur en télécom Gabriel Della-Monica, a su faire d’une idée originale un beau succès commercial. Installée au sein du pôle de haute technologie nano et microélectronique de Grenoble, la société Smart & Blue a mis 2 ans pour développer le produit, disponible à la vente depuis 2015. Deux ans plus tard, la société a déjà embauché plus de 10 salariés et est en plein développement. Quant à la fabrication, elle est sous-traitée à une entreprise industrielle qui favorise l’intégration des travailleurs handicapés : un bel exemple de la French Tech qui réussit en mettant en avant ses valeurs de responsabilité sociale et environnementale. Le cas n’est pas si fréquent et mérite d’être salué !

L.V.

Après les eaux usées, Marseille s’attaque au pluvial !

3 mai 2017

Baignade interdite au Prado après un orage (photo © P. Laurenson / AFP)

A Marseille, comme chacun sait, mieux vaut ne pas se baigner sur la plage du Prado après un orage. Rappelons que ce parc balnéaire qui s’étend sur 3,5 km de littoral et couvre près de 26 ha, a été aménagé de manière complètement artificielle à la fin des années 1970, sous la mandature du Gaston Deferre, pour permettre avant tout de se débarrasser à moindre frais des millions de m³ de déblais issus des chantiers de construction des lignes de métro. A l’époque, on ne prenait guère de gants avec l’environnement y compris dans une zone littorale située comme celle-ci à l’embouchure de l’Huveaune, dans un milieu naturel qui a dû jadis être un haut-lieu de la biodiversité…

Plages du Prado avec au centre l’embouchure de l’Huveaune

Il faut dire aussi que, dans les années 1970, l’Huveaune, à son arrivée en mer, n’était qu’un vaste égout malodorant charriant les effluves des nombreuses industries qui bordaient ses berges, et servant d’exutoire en mer aux eaux usées d’une partie de Marseille et des communes de l’amont, dont Carnoux.

Le réseau souterrain servant à canaliser les eaux usées s’était construit progressivement au cours du XIXe siècle, sous forme unitaire au centre ville, sous forme séparative (les eaux pluviales de ruissellement étant collectées à part) dans les quartiers plus récents et les communes voisines.

Vue du Grand émissaire de Marseille (photo © SERAMM)

Mais jusqu’en 1987, tout était rejeté directement en mer, sans le moindre traitement, via un grand émissaire construit en 1896 et aboutissant dans l’anse isolée et peu accessible de Cortiou, en plein coeur du massif des calanques, où un vaste fleuve de déchets boueux se jette dans la mer, en attendant qu’un jour peut-être, la collectivité finisse par le prolonger plus au large pour diminuer l’incidence de ces rejets sur les fonds côtiers les plus fragiles.

Rejet en mer dans la calanque de Cortiou (source)

En 1979, alors que la plage du Prado est aménagée, il n’est plus question d’y déverser les eaux fortement pollués et toxiques de l’Huveaune. Une dérivation est donc créée, qui renvoie ces eaux directement dans l’émissaire de Cortiou où elles sont ensuite rejetées en mer, ni vu ni connu. En période de fortes pluies cependant, lorsque l’émissaire est saturé, un déversoir d’orage permet aux eaux de l’Huveaune en crue de rejoindre leur lit naturel et de se rejeter en mer le long de la plage du Prado, qu’elles polluent alors allègrement en jonchant la plage des multiples déchets qu’elles charrient.

Vue en surface de la station de traitement des eaux usées Géolide

Dans les années 1970, sous la pression de certains naturalistes et des plongeurs qui s’alarment de la disparition des herbiers de posidonies et de l’appauvrissement de la faune marine au large des côtes marseillaises totalement ravagées jusqu’à plus de 40 km du rivage par ce flux incessant d’eaux polluées, la ville se décide enfin à mettre en oeuvre une station d’épuration physico-chimique, destinée au traitement des eaux usées de Marseille et de 15 communes environnantes, dont Carnoux. Le chantier commence en 1984, en bordure de l’Huveaune. La station, enterrée sous le stade Vélodrome, est mise en service en 1987.

Mais le renforcement de la réglementation en matière de traitement des eaux usées, avec notamment l’adoption en 1991 de la directive européenne sur les eaux résiduaires urbaines, rend très vite cette station insuffisante. En 2008, elle est donc complétée par l’adjonction d’un dispositif de traitement biologique, dit Biostyr, installé sous l’esplanade Ganay. La nouvelle station, dénommée Géolide, constitue la plus grande usine enterrée de traitement des eaux usées du monde et traite 70 millions de m³ d’eau usée par an.

Schéma de la station Géolide (source)

L’eau y est injectée dans 34 bassins de 1500 m³ chacun, remplis de billes de polystyrène sur 3,50 m d’épaisseur. Les bactéries fixées à la surface de ces billes fixent une partie de la pollution au passage. Pour éviter le colmatage des billes, celles-ci sont lavées chaque jour et l’eau de lavage subit un traitement physico-chimique par coagulation et floculation, suivi d’une décantation lamellaire afin d’agglomérer, concentrer et piéger les bactéries sous forme de boues. Ces boues sont alors acheminées vers une usine de traitement, située à 6 km de là, dans l’ancienne carrière de la Cayolle qui surplombe la calanque de Sormiou. Les boues y sont épaissies et séchées avant d’être valorisées sous forme de compost qui sert actuellement à réhabiliter l’ancienne décharge d’ordures ménagères d’Entressen.

Vue de la station de traitement de la Cayolle (photo © Lakko Marseille)

Cependant, en cas de forte pluie, le système d’assainissement n’est pas en mesure de traiter l’ensemble des effluents collectés car les eaux de ruissellement viennent alors grossir les flux habituels d’eaux usées, provoquant rapidement la saturation des capacités de traitement. Pour éviter que la ville ne soit noyée sous un flot d’eaux polluées et nauséabondes, tout l’excédent est alors rejeté directement en mer, principalement par l’émissaire de Cortiou mais aussi en partie via l’ancien exutoire de l’Huveaune, donc directement sur la plage du Prado !

Ce problème récurrent commençant à déprécier sérieusement l’attrait touristique de la ville, l’ancienne Communauté urbaine Marseille Provence Métropole s’est engagée en 2010 dans un projet de contrat de baie, désormais opérationnel depuis juin 2015 pour une durée de 6 ans avec, à la clé, un budget de 265 millions d’euros, dont 185 millions engagés via le Contrat d’agglomération de traitement des eaux usées signé l’année d’avant avec l’Agence de l’Eau Rhône-Méditerranée, et 25 millions mobilisés dans le cadre du contrat de rivière de l’Huveaune, signé en octobre 2015 à Aubagne.

Inondations rue de Rome à Marseille en septembre 2000 (photo © Bataillon des marins-pompiers de Marseille)

Une des actions phares de ce contrat de baie consiste précisément à s’attaquer enfin au problème des eaux pluviales qui rendent inopérant le traitement des eaux usées de l’agglomération marseillaise en période de fortes pluies. L’objectif affiché, qui peut paraître modeste, est de réduire de 50 % les rejets d’eaux usées non traitées vers la calanque de Cortiou au cœur du Parc National des Calanques, et ceci en réponse à un arrêté préfectoral de janvier 2004 qui impose à la collectivité de réaliser d’ici fin 2018 une capacité de rétention des eaux usées de 90 000 m³.

Un premier ouvrage a ainsi été réalisé dès 2007 à l’occasion des travaux de requalification de la rue de la République dans le cadre de la prolongation du tramway. Gigantesque cylindre de 49 m de long situé à 15 m sous terre, ce bassin permet de stocker 14 500 m³ collecté en centre ville. Les gros déchets y sont récupérés et la partie claire de l’eau décantée est rejetée en mer une fois l’orage passé, tandis que les eaux polluées sont envoyées à la station de traitement dès que celle-ci est de nouveau en capacité de les traiter. Quatre autres basins sont prévus sur le périmètre de l’agglomération marseillaise : un de 12 000 m³ achevé en septembre 2015 place Jules Guesde à la Porte d’Aix, un de 15 000 m³ dans l’emprise du tunnel ferroviaire désaffecté Lajout près de la nouvelle station de métro boulevard Capitaine Gèze, un autre de même capacité cours Pierre Pujet, et enfin un plus vaste de 33 000 m³ à Saint-Mauront, près des Docks.

Vue intérieure du bassin Ganay lors de son inauguration (photo publiée par GoMet)

Un sixième ouvrage profond de 30 m pour un diamètre de 56 m et une capacité de 50 000 m³, a été construit à partir de 2014 sous le stade Ganay. Désormais achevé et inauguré en avril 2017, ce gigantesque bassin enterré, pour lequel il a fallu mobiliser pas moins de 80 000 tonnes de béton, doit être relié d’une part à la station de traitement Géolide et d’autre part au réseau unitaire. Pour cela, il a notamment fallu creuser une galerie de 3 m de diamètre et 300 m de longueur, à 10 m de profondeur. Un tunnelier a été mobilisé dans ce but, pendant près de 6 mois, jusqu’à ressortir près du boulevard Michelet en décembre 2016, une fois sa tâche accomplie.

Sortie du tunnelier (photo © N. Vallauri pour La Provence)

Vue en coupe du bassin Ganay (source)

En surface, on ne verra du bassin Ganay qu’un modeste bâtiment de service au forme de simple pavillon et il reste encore à reconstruire le nouveau stade Ganay au dessus du réservoir enterré dont les Marseillais seront bien en peine d’imaginer l’existence une fois le chantier achevé. C’est d’ailleurs le risque de ce type de démarche qui consiste à masquer de la vue du citoyen les aménagements pourtant indispensables au fonctionnement de la ville : à force d’oublier que la gestion des eaux fait partie intégrante de la vie urbaine, comment peut-on s’en approprier les enjeux pourtant essentiels ?

L.V.  

Eden, la Méhari écologique du XXIe siècle

18 avril 2017

Tous les fans de Deux-Chevaux, Dyane et Méhari connaissent le 2CV Méhari Club de Cassis (MCC), dont l’aventure a commencé dans les années 1980. Les frères Marquès ont d’abord personnalisé des Méhari en belles voitures de plage avant de lancer un catalogue complet de pièces détachées de toute la gamme des 2CV, Dyane et Méhari.

Devant le succès, Citröen SA leur a confié en 1998 les outillages d’origine du quai de Javel, afin de reproduire les pièces de la Méhari. Le même passage de relais a eu lieu en 2000 pour la 2CV.

Méhari 4 x 4 de 1979 (photo © Citroën)

Aujourd’hui, la famille Marquès a cédé son fond industriel et commercial à une nouvelle organisation financière, épaulée par la Banque Publique d’Investissement. Elle est pilotée par MM Julien V. et Stéphane W. (deux bons camarades de Terminale…), dûment diplômés et expérimentés en industrie auto. Avec courage, ils lancent l’Eden.

L’Eden, c’est à la base l’historique Méhari, lancée en 1968, il y a près de 50 ans, avec sa carrosserie en plastique moulé, fixée sur un châssis et munie d’une suspension et d’une motorisation issus de la mythique 2CV (qui, elle, date de 70 ans !). Mais contrairement à ses aînées, l’Eden est équipée d’une nouvelle motorisation entièrement électrique, alimentée par une batterie ion-lithium de dernière génération.

L’Eden, écologique et tout électrique, entièrement montée à Cassis et partiellement fabriquée à Carnoux…

Il s’agit bien d’une nouvelle voiture, dûment homologuée depuis mars 2016 pour la France et l’Europe, classée véhicule utilitaire à 4 places. Offrant une autonomie de 120 km, la batterie se recharge en moins de 4 h sur une simple prise électrique domestique. La voiture est entièrement montée à Cassis, dans les locaux agrandis du MCC (qui occupent 8 000 m2 sur un terrain de 10 hectares) et, cerise sur le gâteau, plusieurs des pièces, dont le châssis et une sellerie très variée sont fabriqués à Carnoux même.

La E-Méhari de Citroën

La Méhari cassidaine se distingue en tout cas très nettement de sa petite sœur relookée E-Mehari que Citroën vient tout juste de dévoiler, un véhicule électrique également, directement inspiré de la Bluesummer de Bolloré et qui, elle, sera fabriquée à Rennes, avec un objectif de 1000 exemplaires, pour un prix de vente qui devrait revenir à 25 000 €, hors coût de location des batteries (79 € par mois). Même une fois déduit le bonus écologique qui s’élève à 6 000 € pour l’achat d’un véhicule électrique, l’investissement reste élevé pour un véhicule au confort minimaliste !

L’Eden devrait d’ailleurs être proposée à la vente pour un prix assez comparable, mais avec une carrosserie identique à celle d’origine, ce qui devrait plaire aux nostalgiques des années 1960… C’est d’ailleurs là-dessus que compte manifestement le 2CV-Mehari Club de Cassis puisque la présentation officielle de l’Eden s’est faite à l’occasion de la 40e édition du salon Rétromobile, qui s’est tenu Porte de Versailles début février 2016 et que le lancement commercial a eu lieu lors de l’édition suivante du salon, en février 2017.

Présentation du concept-car Eden au salon Rétromobile en février 2016 (photo © G. Pelletier)

Nous ne pouvons donc que nous réjouir de cette belle création industrielle, qui allie avec bonheur la tradition mythique et l’esprit de la 2CV avec la dernière modernité écologique : 10 kW seulement et un entretien quasiment inexistant ! Et de surcroît, une conduite 100 % plaisir, cheveux au vent et selon l’esprit de liberté des belles années.

Bravo, longue vie et prospérité à l’Eden !

Léonide G.

Centrales solaires à tour : une technologie futuriste !

11 avril 2017

C’est probablement le génial Archimède qui a eut le premier l’idée d’utiliser un jeu de miroirs pour concentrer les rayons du soleil de manière industrielle afin d’obtenir des températures élevées, destinées à enflammer la flotte de vaisseaux romains assiégeant la ville de Syracuse. L’histoire est d’ailleurs sans doute exagérée mais on ne prête qu’aux riches…

Le concentrateur solaire de Mouchot en 1878

Toujours est-il que, depuis cette lointaine Antiquité, la technologie a fait son chemin et que les centrales thermiques solaires commencent à se multiplier. C’est d’ailleurs un ingénieur français, un certain Augustin Mouchot, qui en 1866 a inventé le premier moteur solaire constitué d’un réflecteur en forme de parabole qui concentre les rayons du soleil sur une chaudière électrique en verre alimentant une machine à vapeur. Lors de l’exposition de 1878, un appareil de son invention, doté d’une surface réfléchissante de 20 m2 reçoit d’ailleurs une distinction à l’occasion de l’exposition universelle de Paris.

Le four solaire d’Odeillo dans les Pyrénées

Le principe des miroirs paraboliques qui concentrent le rayonnement solaire en leur point focal a été ensuite réutilisé à plus grande échelle, à l’initiative du chimiste français Félix Trombe dont les travaux se sont concrétisés par l’élaboration d’un premier four solaire à Mont-Louis en 1949, puis, à partir de 1962, par la construction d’un prototype semi-industriel, le Grand four solaire d’Odeillo, mis en service en 1970 à Font-Romeu. Une série de miroirs réfléchissants renvoient les rayons du soleil vers d’autres miroirs concentrateurs disposés en parabole qui font converger le rayonnement vers une cible circulaire de 40 cm de diamètre située en haut d’une tour, permettant d’obtenir une température de 3500 °C.

Sur la base de cette expérience, EDF réalise en 1983 sa première centrale solaire Thémis, installée en Cerdagne. Après de nombreux aléas et sous l’impulsion du Conseil général des Pyrénées-Orientales, le site est équipé en 2012 de près de 200 héliostats, des miroirs réfléchissants orientables qui suivent la course du soleil, et concentrent le rayonnement solaire sur un récepteur central situé au sommet d’une tour de 105 m de hauteur, dans lequel circule un fluide caloporteur (à base de sels fondus) permettant de transformer de l’eau en vapeur et d’actionner une turbine pour produire de l’électricité.

La centrale solaire Themis à Targassonne

Ce principe des centrales solaires thermodynamiques à tour est désormais en plein essor dans le monde entier, surtout dans des latitudes où le rayonnement solaire au sol est très supérieur à celui que l’on peut connaître en France. L’Espagne notamment s’est fortement investie dans ce domaine avec notamment la centrale Solar tres, inaugurée en 2011 en Andalousie, d’une puissance d’environ 20 MW avec près de 2500 héliostats et une autonomie de près de 15 heures grâce au stockage d’énergie assuré par l’inertie thermique du fluide caloporteur.

La centrale solaire de Gemasolar, près de Séville en Espagne, avec ses 2650 héliostats

Les États-Unis bien entendu ne sont pas en reste malgré leur exploitation intensive des gaz de schiste, avec en particulier la centrale solaire de Crescent Dunes (dans le désert du Nevada), d’une puissance de 110 MW (à comparer aux 5 MW d’une grande éolienne récente). Entrée en service en 2016, elle est constituée de 10 000 miroirs réfléchissants et d’une tour de 195 m de haut dans laquelle les sels fondus sont portés à 565 °C. Fonctionnant 24 heures sur 24 grâce à l’inertie thermique des sels fondus, cette centrale permet d’alimenter en électricité plus de 75 000 foyers !

Toujours aux États-Unis, la centrale d’Ivanpah dans le désert des Mojave en Californie, à 60 km de Las Vegas, est désormais le plus grand site d’énergie solaire américain avec 3 tours de concentration, 173 500 miroirs et une capacité de production de 392 MW (à comparer aux 900 MW d’un réacteur nucléaire type Fessenheim) qui permet l’alimentation en électricité de 140 000 foyers.

Vue du ciel, les trois champs de miroirs d’Ivanpah (photo G. Mingasson/Getty Images for Bechtel)

Et les projets se multiplient un peu partout. La société américaine BrigthSource Energy qui exploite la centrale d’Ivanpah s’est ainsi associée avec General Electric (qui a racheté la branche énergie d’Alstom, rappelons-le au passage tant l’épisode fut douloureux et inique) pour construire une centrale solaire thermodynamique géante dans le désert du Néguev, en réponse à un appel d’offre lancé par le gouvernement israélien en 2013, pour la modique somme de 660 millions d’euros.

Le champ de miroirs de la centrale Ashalim (photo © J. Guez / AFP)

Cette centrale dénommée Ashalim, qui devrait entrer en fonction fin 2017, sera constituée de 55 000 miroirs réfléchissants répartis sur une superficie de près de 300 hectares, et d’une tour de 24 m de haut encore en cours de construction. Une des particularités de cette installation est que les mouvements permanents des héliostats pour suivre la course du soleil sont réglés par des connections wi-fi pour limiter les coûts d’installation.

D’autres pays suivent la course, dont le Maroc qui est également très intéressé par cette technologie du futur en plein essor. Sa centrale solaire Noor 1, inaugurée en février 2016 près de Ouarzazate, est constituée de miroirs courbes répartis sur 480 ha, et totalise une puissance installée de 160 MW. Et ce n’est qu’un début puisque la deuxième tranche du projet est d’ores et déjà lancée avec, à terme, un objectif affiché de 580 MW de puissance installée !

Vue aérienne de la centrale Noor au Maroc (photo © F. Senna / AFP / Getty images)

N’oublions-pas non plus la centrale solaire de Dubaï qui se construit également par étapes, dans un environnement particulièrement favorable avec 3500 heures d’ensoleillement annuel moyen et des températures au sol de 40 °C en été. L’émirat ambitionne tout simplement de produire un quart de ses besoins en électricité grâce à cette centrale d’ici 2030, soit une puissance installée à cette date de 5 GW, le tout pour un investissement de 12 milliards d’euros…Pour l’instant, la puissance déjà installée est de 100 MW mais pourrait doubler d’ici la fin de l’année 2017 si tout va bien.

Jusque là, le coût de l’électricité produite de cette manière reste supérieur à celui obtenu par d’autres procédés plus classiques mais les choses évoluent rapidement en la matière. De quoi rester (un peu) optimiste quant à la capacité humaine à innover pour développer la production d’énergies renouvelables et limiter progressivement nos émissions de gaz à effet de serre avant qu’il ne soit trop tard…

L.V.

La croisière s’enfume !

5 mars 2017

Alors que nos deux globe-trotters parcourent le monde depuis début janvier à bord du luxueux navire de croisière Queen Elisabeth, voila qu’en France, certains se mettent à tousser au vu de l’impact environnemental de cette industrie touristique en plein essor. C’est ainsi que l’émission Thalassa, dans son édition du 20 janvier 2017, s’efforçait de dévoiler « le prix du rêve » des bateaux de croisière.

blog404_phthalassa

Un petit pavé dans la mare de l’industrie touristique des croisières de luxe à bord de véritables immeubles flottants, alors que cette activité florissante et lucrative est en plein essor. En 2016, ce sont plus de 25 millions de passagers qui ont ainsi sillonné les mers du globe à bord de ces gigantesques usines à touristes, un chiffre qui a doublé en 10 ans et qui ne cesse d’augmenter !

L'épave du Costa Concordia, le 22 janvier 2012 (photo © P. P. Cito  /SIPA/ AP)

L’épave du Costa Concordia, le 22 janvier 2012 (photo © P. P. Cito /SIPA/ AP)

Pourtant, l’envers du décor incite à la réflexion comme le dénonce, non seulement ce documentaire de Thalassa, mais bien d’autres, qui pointent une industrie sans scrupule profitant largement de la captivité de sa clientèle et offrant à son personnel des conditions de travail parfois peu enviables. Même le panache de l’équipage en a pris un coup depuis l’épopée peu glorieuse du capitaine du Costa Concordia qui s’était ridiculisé devant le monde entier après avoir non seulement échoué son paquebot géant le long du littoral toscan mais ensuite pris la fuite alors même que l’évacuation des passagers venait tout juste de commencer, un naufrage spectaculaire qui avait fait 32 morts et fortement terni l’image de la compagnie Costa Croisières.

Mais les critiques les plus vives envers l’industrie des croisières de luxe portent surtout sur leur impact environnemental. Ces énormes usines flottantes chargées de milliers de touristes provoquent en effet sur certains lieux fragiles du globe, et en particulier des archipels isolés et relativement préservés, une pression fortement préjudiciable. Et c’est aussi la pollution atmosphérique provoquée par ces immenses paquebots dans leurs ports d’escale qui est de plus en plus pointée du doigt.blog404_phmarseille

On a vu notamment la journaliste de Thalassa, Sophie Rolland, s’intéresser à la qualité de l’air de Marseille, premier port de croisière en France qui accueille désormais chaque année 500 paquebots et 1,7 millions de croisiériste : une manne pour le commerce local et une source non négligeable de pollution en particules fines. Sur le quai où sont amarés les bateaux de croisière qui laisent tourner en permanence leurs moteurs pour assurer la climatisation à bord, les reporters de Thalassa mesurent ainsi plus de 100 000 particules fines par cm³ d’air, cinq fois plus que devant la gare Saint-Charles qui n’est pourtant pas réputée pour être un havre d’air pur !

blog404_phfootingSur le pont supérieur du navire, là où les passagers restés à bord font leur footing quotidien, la teneur en particules fines s’avère même encore 3 à 4 fois supérieure à celle mesurée sur le quai…

L’affaire n’est pas nouvelle, comme le rappelle un article de Marsactu qui évoque l’alerte lancée en 2015 par l’association France Nature Environnement, affirmant qu’un bateau de croisière pollue autant l’atmosphère qu’un million de voitures ! De fait, une étude menée de 2010 à 2013 sur cinq villes méditerranéennes dont Marseille, dans le cadre du projet européen APICE, avait permis de mieux quantifier l’impact de ces bateaux de croisière sur la qualité de l’air de ces villes. A Marseille, l’organisme en charge de la surveillance de la qualité de l’air, Airpaca, estime que cette contribution est globalement de l’ordre de 5 % mais elle est bien évidemment très supérieure à proximité des installations portuaires.

Système d'alimentation électrique des navires de la Méridionale, quai d'Arenc (photo © : E. Bonibi)

Système d’alimentation électrique des navires de la Méridionale, quai d’Arenc (photo © : E. Bonibi)

Une amélioration importante a pourtant été apportée en 2016 grâce à l’installation de bornes électriques permettant d’alimenter à quai les trois navires de la Compagnie méridionale de navigation lors de leurs quelque 500 escales annuelles en provenance de Corse. Le système est encore en phase de test et il faudra attendre cet été pour vérifier qu’il suffit à assurer les besoins en climatisation pendant la durée des escales…Il ne pourrait en tout cas pas être étendu aux immenses paquebots de croisière tant la consommation de ces derniers est considérable.

D’autant que l‘investissement n’est pas négligeable puisqu’il s’élève à 4,4 millions d’euros dont 1,5 apporté par le Grand port maritime de Marseille et 1,7 millions par des subventions publiques de l’État, de la Région, de l’ADEME et du FEDER. Mais cela devrait permettre d’éviter une pollution atmosphérique équivalente, pour chacun des trois navires, à 3 000 véhicules chaque jour pour ce qui est des particules fines et 65 000 véhicules/jour pour les oxydes d’azote. On respire déjà mieux !

L'Harmony of the seas en escale à Marseille (photo © D. Leriche pour Nice Matin)

L’Harmony of the seas en escale à Marseille (photo © D. Leriche pour Nice Matin)

Il n’en demeure pas moins que les autres navires de croisière monumentaux qui fréquentent quotidiennement le port de Marseille restent de gros pollueurs. Le mastodonte « Harmony of the seas », avec ses 362 m de long et ses 72 m de hauteur (l’équivalent d’un immeuble de 20 étages) brûle ainsi à lui-seul 250 000 litres de fuel lourd chaque jour !

Certaines compagnies commencent déjà à équiper leurs navires de « scrubbers » qui permettent de débarrasser les fumées de leurs émissions sulfurées les plus nocives (oxydes de soufre), ne serait-ce que pour respecter la réglementation européenne qui vient de se durcir, mais il s’agirait d’aller plus loin en s’attaquant également aux particules fines, aux oxydes d’azote et au gaz carbonique émis. En attendant, le port de Marseille lance une étude de faisabilité concernant l’installation éventuelle de « scrubbers mobiles », des sortes de gigantesques hottes aspirantes montées sur barges flottante et qui viendraient se positionner le long des navires à quai pour retraiter leurs fumées et retenir les éléments les plus polluants.

Système mobile de traitement des fumées à Los Angeles (photo © D. R.)

Système mobile de traitement des fumées à Los Angeles (photo © D. R.)

De tels systèmes mobiles sont d’ores et déjà déployés dans le port de Los Angeles et pourraient servir d’exemple. A terme, la solution la plus raisonnable serait cependant que l’ensemble des navires de croisière s’équipent pour fonctionner au gaz naturel liquéfié nettement moins polluant. Cette technologie permet en effet d’éliminer presque entièrement les rejets d’oxydes de soufre et d’azote, tout en réduisant de moitié les émissions de particules fines et d’un tiers celles de CO2. Certaines compagnies commencent à mettre en chantier de tels navires et Marseille se prépare déjà à les accueillir en aménageant une plateforme d’avitaillement grâce au terminal méthanier de Fos-sur-Mer.

Tout indique donc que le port phocéen s’installe durablement comme escale de ces usines flottantes à touristes, même si beaucoup préféreraient envisager un mode de développement un peu moins artificiel. Espérons du moins que la technologie de ces mastodontes des mers évoluera assez vite avant que l’air de la Cannebière ne devienne définitivement irrespirable…

L.V.  lutinvert1small

Google, fou de la petite reine et roi du bobard

30 janvier 2017

A l’heure où le Royaume du Danemark vient de nommer un ambassadeur auprès du géant américain Google, il n’est pas inutile de ressortir cette vidéo époustouflante mise en ligne par la multinationale montrant sa dernière invention en date : un vélo intelligent et autonome, qui tient debout sans l’aide de quiconque, se déplace tout seul dans la circulation et sur lequel on peut tranquillement se laisser porter tout en vaquant à ses occupations ordinaires.

blog387_velogoogle

C’est bien évidemment l’antenne des Pays-Bas de la firme de Mountain View qui a conçu cet engin révolutionnaire, parfaitement adapté au Néerlandais qui parcours en moyenne pas moins de 900 km par an en vélo, au prix tout de même de 350 000 accidents chaque année !

blog387_phcameraLe Google self-driving bike, de son petit nom de baptême, sait se situer dans l’espace et détecter et cartographier son environnement afin de s’adapter à tout événement, tout ceci grâce à une caméra à 360° située à l’avant du vélo, à l’instar de ce qui est proposé sur les Google Car dont le projet s’inspire manifestement.

blog387_phsmartphoneLe vélo peut fonctionner comme un taxi Uber et venir vous chercher là où vous le demandez simplement depuis l’application dédiée. On peut même s’en servir de bureau mobile en installant confortablement son ordinateur sur le guidon évidemment adapté pour cela, et on peut aussi laisser le vélo promener tout seul les enfants bien installés dans leur siège.

blog387_phvelo

Une véritable merveille de la technologie dont Google s’est fait un malin plaisir d’annoncer la naissance le 1er avril 2016. Car bien évidemment, il ne s’agit que d’un poisson d’avril, issu du cerveau imaginatif des ingénieurs de la firme américaine ! Une vidéo explique même en détail, pour les plus crédules, comment ont été réalisés les trucages pour donner l’illusion d’un tel miracle.

blo387_phtrucage

Pourtant, le vélo autonome qui avance tout seul existe bel et bien. Il a été inventé par 13 ingénieurs de l’université indienne de Kharagpur qui ont eu l’idée du projet i-Bike, visant à la base à venir en aide aux personnes souffrant d’un handicap moteur afin de leur permettre de se déplacer malgré tout en vélo.

blog387_phbike

Certes, son look est quelque peu moins futuriste que celui de Google. Les esprits chagrins lui trouveront même un petit air de bricolage avec ses petites roues stabilisatrices à l’arrière et sa propulsion électrique rendue bien visible par une multitude de câbles qui pendouillent de tous les côtés : les propulsions électriques inventées par les tricheurs des courses cyclistes ont au moins le mérite d’être un peu plus discrètes ! Le guidage se ferait par GPS évidemment et pourrait permettre d’envisager que le vélo se rende tout seul à une direction pré-indiquée.

Le concept en tout cas ne manque pas d’intérêt, soit pour permettre à des malvoyants ou des handicapés moteurs de se déplacer à bicyclette, soit dans l’optique d’un système de location de vélos autonomes à direction assistée. Les Allemands plancheraient eux aussi sur un tel vélo du futur dont on peut penser qu’il ressemblera probablement davantage au prototype surréaliste de Google plutôt qu’au bricolage bout-de-ficelle des universitaires indiens…

L.V. lutinvert1small

Xavier Beulin, un paysan presque comme les autres…

8 janvier 2017

Xavier Beulin, le président de la Fédération nationale des syndicats d’exploitants agricoles, et richissime patron du groupe industriel Avril, s’est fait épinglé récemment par Mediapart dont les enquêteurs ont recherché en vain quelles étaient les terres sur lesquelles ce représentant de la profession agricole pouvait bien exercer ses talents, lui qui se revendique comme « paysan », ainsi qu’il a encore tenté de le faire croire devant un groupe d’éleveurs en colère à Saint-Brieuc en juillet 2015…

blog378_phbeulinfnsea

Un paysan pour le moins atypique en tout cas, qui avait fait sensation en se présentant lors du congrès de Metz de la FNSEA en 2006 « en costard de banquier, pompes anglaises, attaché case Lancel ». Dirigeant de la Sofiprotéol, rebaptisée Avril en 2015 pour des raisons de pur marketing, le fringant patron de l’agro-business qui voyage en jet privé, bluffe tout le monde et prend la tête en 2010 de la FNSEA pourtant traditionnellement aux mains des éleveurs. Il y est réélu triomphalement en 2014, aucun autre candidat n’osant même se présenter contre lui, et il est déjà en train de préparer sa propre succession à l’occasion des prochaines échéances prévues en mars 2017.

Xavier Beulin dans son bureau au siège de la FNSEA (photo L. Lung)

Xavier Beulin dans son bureau au siège de la FNSEA (photo L. Lung)

Il faut dire que le groupe Sofiproteol, alias Avril, qu’il dirige, a réalisé en 2015 un chiffre d’affaire qui dépasse 6 milliards d’euros, trustant plus de la moitié de la production française de colza et de tournesol. Il s’agit donc d’un géant de l’agroalimentaire, propriétaire notamment des marques d’huiles Lesieur et Puget, mais aussi du leader des œufs Matines, d’un des principaux centre d’abattage de porc (société Abera en Bretagne), ou encore de Sanders, premier fournisseur français d’aliment pour bétail, bref un des symboles de la concentration et de l’industrialisation à outrance des exploitations agricoles.

Dessin de Sébastien Rieu publié sur le blog de caricature

Dessin de Sébastien Rieu publié sur le blog de caricature

Le groupe se revendique également leader européen de l’oléochimie et n°1 mondial de la glycérine végétale, tout en se placant comme un acteur majeur sur le marché européen de la production de biocarburants au travers de ses filiales Saipol et Expur. Pour la multinationale agro-industrielle, les biocarburants, c’est un peu la poule aux œufs d’or, fruit d’un long travail de lobbying auprès des autorités en charge de la politique agricole tant à Paris qu’à Bruxelles, sachant que Xavier Beulin est également vice président du Comité des organisations professionnelles agricoles de l’Union européenne, qui appointe pas moins de 18 lobbyistes auprès de l’Union européenne!

Champ de colza en production (photo T. Creux)

Champ de colza en production (photo T. Creux)

C’est en 1992 qu’une première réforme de la Politique agricole commune a autorisé l’exploitation de cultures oléagineuses pour produire du carburant, en principe pour valoriser les terres laissées en jachère. Et en 2003, une directive européenne a été adoptée, obligeant les distributeurs de carburants à incorporer un certain pourcentage de biocarburant dans le diesel. Histoire d’encourager au maximum la filière, la France a alors choisi d’aller encore plus loin que ces objectifs européens en imposant un taux d’incorporation de 7 % de biodiesel dans le gazole, taux qui est passé à 8 % en 2015. Certains véhicules d’entreprises ou de collectivités roulent même d’ores et déjà avec un carburant composé de 30 % de biodiesel, ce qui assure de confortables débouchés pour la filière.

En France, on utilise principalement pour cela le colza et le tournesol. La graine est d’abord broyée pour séparer l’huile, les résidus formant des tourteaux riches en protéines, qui sont valorisés pour l’alimentation des animaux d’élevage. Quant à l’huile, elle est transformée en diester via une réaction chimique qui fait intervenir du méthanol et donne de la glycérine comme sous-produit. Schématiquement, une tonne d’huile brute additionnée de 100 kg de méthanol donne une tonne de diester et 100 kg de glycérine végétale.

Photomontage publié en 2012 sur le site du Paysan libre

Photomontage publié en 2012 sur le site du Paysan libre

Une véritable manne en tout cas pour Avril, ex-Sofiproteol, qui contrôle l’essentiel de la filière de production de biodiesel sous sa marque Diester®, d’autant que ces cultures d’oléagineux destinés à la production de biocarburant ont été largement subventionnées par l’Europe, à hauteur de 45 €/ha jusqu’en 2010 ! Beaucoup de voix sélèvent désormais pour dénoncer cette filière qui entraîne une hausse importante du cours des matières premières oléagineuses au détriment de l’alimentation. Le bilan écologique du procédé est lui-même fortement remis en cause puisque l’on estime qu’il faut 1,2 litres de pétrole pour produire 1 litre de biodiesel, ce que reconnaissent d’ailleurs les acteurs de la filière qui cherchent actuellement d’autres voies pour la production de biocarburant, en particulier en valorisant les déchets verts voire l’exploitation de microalgues.

Mais c’est surtout le coût pour le contribuable français qui fait l’objet de vives critiques. Un rapport de la Cour des comptes daté de 2012 estimait ainsi que l’exonération fiscale dont bénéficient les producteurs de biodiesel a coûté à l’État plus de 1,8 milliards d’euros entre 2005 et 2010. Sur la même période, les investissement productifs de la filière avoisinent les 500 millions d’euros… Les contribuables français ont donc payé près de quatre fois les investissements des entreprises comme Sofiprotéol-Avril qui a ainsi bénéficié à elle seule de 50 millions d’euros d’exonération fiscale pour l’année 2013 ! Cela n’a pas empêché le gouvernement Ayrault de renouveler fin 2012 pour trois ans les agréments qui permettent aux producteurs d’agrocarburants de bénéficier de cette défiscalisation massive.

Comme le souligne un article très documenté du Monde, il a fallu attendre le 1er avril 2016 pour que le gouvernement décide enfin de supprimer cette niche fiscale, tout en publiant quelques mois plus tard un arrêté ouvrant la voie à une requalification du biodiesel pour le faire bénéficier de la défiscalisation réservée aux biocarburants dits « avancés »…

La ferme fantôme de Xavier Beulin dans le Loiret (photo K. Laske pour Médiapart)

La ferme fantôme de Xavier Beulin dans le Loiret (photo K. Laske pour Médiapart)

Assurément, le travail de lobbying dans lequel excelle Xavier Beulin s’avère payant, bien davantage en tout cas que celui de simple exploitant agricole qui lui sert de paravent syndical. Car l’enquête de Médiapart au siège de sa société agricole réserve bien des surprises. Sur les 25 ha achetés en 2009 par le président de la FNSEA qui est sensé y exploiter l’EARL Quadrige, fondée la même année avec son frère et deux cousins, on ne trouve q’une grange avec la boîte aux lettres de la société. Xavier Beulin lui-même, bien qu’officiellement exploitant, n’y met jamais les pieds. Il réside habituellement dans une luxueuse résidence du très chic 8 ème arrondissement de Paris, à deux pas des bureaux de sa société Sofiproteol-Avril. S’il a pu néanmoins conserver son statut d’associé exploitant dans le Loiret, c’est surtout en profitant de sa fonction de vice-président de la FDSEA locale et un peu en arguant qu’il possède sa résidence principale (en réalité une ville avec piscine située dans un quartier résidentiel d’Orléans) à une distance raisonnable…

Que le monde agricole en tout cas se rassure : la crise du foncier à laquelle elle est soumise ne touche pas trop son porte-parole. Propriétaire également d’un immeuble de rapport en plein centre d’Orléans et d’une résidence de vacances dans un quartier huppé près de Tunis, Xaver Beulin semble vivre assez bien de ses 25 ha de terre caillouteuse… Il possède même des parts dans une société civile immobilière gérée par son épouse, ce qui lui permet de toucher de l’ordre de 200 000 € par an de la part du Carrefour Market d’Ingré qui y est implanté, histoire sans doute de fluidifier les relations entre la profession agricole et la Grande distribution.

Dessin de Chaunu publié sur le site Resistance Inventerre

Dessin de Chaunu publié sur le site Resistance Inventerre

Quant à sa société Avril, elle fait l’objet actuellement d’une pétition contre son projet d’implanter à Bruz, près de Rennes, un centre de formation sur des terres agricoles, dans une commune où les trois-quart des exploitations ont déjà disparu en 30 ans. Alors qu’un reportage de Franck Vescovacci, diffusé sur France 5, le 6 décembre dernier, rappelle qu’en France 60 000 ha de terres agricoles sont transformées chaque année en hypermarchés, lotissements, stades de football, immeubles de bureaux ou parking, alors que des associations comme Terre de Liens se battent au quotidien pour tenter de sauvegarder en périphérie des centres urbains des terres encore exploitables, alors que 200 fermes disparaissent chaque semaine en France, il serait peut-être temps que les agriculteurs se ressaisissent et se donnent enfin un porte-parole qui défende réellement l’avenir de la profession et non pas celui de sa propre société industrielle…

L.V.  lutinvert1small

Insensé : Amazon expérimente les supermarchés sans caissière !

22 décembre 2016

Depuis plusieurs années, nous constatons que la plupart des enseignes de la grande distribution, Auchan, Carrefour, Leroy-Merlin, Alinéa pour ne citer que celles qui sont proches de Carnoux, devancées en cela par les gérants des réseaux d’autoroute, substituent progressivement aux caisses de paiement traditionnelles des appareils d’enregistrement automatiques individuels portables réservés aux adhérents ou des caisses équipées de scanners.

Un nouveau pas vient d’être franchi à Seattle aux États-Unis avec la création d’un magasin du géant de la distribution en ligne Amazon qui expérimente un nouveau concept de commerce dépourvu de caisse. Sur son site internet, Amazon affirme tester un magasin physique d’environ 170 m2, où il propose des produits alimentaires de base (pain, lait, fromages, chocolats) ainsi que des plats à emporter.

Amazon : Go, l'enseigne qui supprime les caisses (photo @ AFP)

Amazon : Go, l’enseigne qui supprime les caisses (photo @ AFP)

Accessible pour l’instant aux seuls employés du groupe, le magasin dénommé « Go » promet aux consommateurs qu’ils n’auront « jamais à y faire la queue » : après avoir utilisé l’application mobile du groupe pour rentrer dans le magasin, ils pourront remplir leur caddie comme dans n’importe quel supermarché, puis partir sans avoir à passer à la caisse.

Cela fonctionne grâce à des technologies d’intelligence artificielle intégrées à des smartphones qui « détectent automatiquement quand les produits sont pris ou remis dans les rayons, et en gardent la trace dans un panier virtuel. Quand vous avez fini vos courses, vous pouvez simplement quitter le magasin. Peu après, nous facturerons votre compte Amazon et vous enverrons un reçu », détaille le distributeur.

Comme le pointe la journaliste Sharon Gaudin du Monde à propos de cette initiative : « Le prix à payer d’une société technologique est-il celui de la déshumanisation ? ». Pour l’analyste Patrick Moorhead, « le paiement automatique en sortie est une caractéristique du magasin du futur. Il s’agit de la façon ultime d’utiliser la technologie dans la vente. La limite d’un tel dispositif réside néanmoins dans la capacité du système à facturer sans erreur le client, ce qui se présente comme le plus grand challenge ». Après tout, les humains ne sont pas les seuls à faire des erreurs, lesquelles sont d’ailleurs intégrées par une pondération des prix (à la hausse bien sûr, rassurez-vous !).

Les queues en caisse, bientôt un mauvais souvenir ?

Les queues en caisse, bientôt un mauvais souvenir ?

Les arguments qui sous-tendent cette démarche ? Ce sont d’abord ceux du gain de temps pour le consommateur et de la disparition des sources de contrariété : attente en caisse, problèmes de paiement avec une carte de crédit qui ne fonctionne pas, automate récalcitrant… mais les opérateurs oublient aussi de citer la fidélisation des clients, l’enregistrement d’habitudes d’achat et, ce qui est encore plus préoccupant, la suppression de postes d’employés.

C’est cette dernière conséquence sur la quelle nous souhaitons insister non sans avoir auparavant souligné un paradoxe. De quoi s’agit-il ? Ceux qui se sont rendus dans un supermarché aux USA ont généralement constaté et apprécié la présence en bout de caisse d’une personne (étudiant, retraité ou autre) qui range méticuleusement vos achats dans vos cabas ou dans de grands sacs en papier.

Ce service supplémentaire dont le coût est intégré au prix des produits contribue à l’humanisation d’un espace de commerce déserté de longue date par les responsables de secteurs et où l’on ne rencontre que les personnes en charge de l’achalandage des rayons. Ce travail qui relève des « petits boulots » offre à une population socialement très modeste un petit revenu ou un complément de revenu qui permet de mieux subsister.

Self-scanning chez Auchan

Self-scanning chez Auchan

Avec la disparition des caisses, sonne aussi la fin de ces emplois d’aide aux personnes (aide au chargement de produits encombrants ou lourds dans le véhicule). Même si l’on vante pour les clients les gains de temps, ce qui apparaît le plus préjudiciable socialement c’est la disparition des hôtes et très majoritairement des hôtesses de caisse. Déjà avec le « scanning », le client devient caissier, parfois aidé par quelques employé(e)s dédié(s)s à cette mission ou au contrôle des achats.

Que va-t-il advenir de ces milliers d’agents de caisse si le système expérimenté par Amazon s’étend ? Et d’abord, qui sont ces agents ? Pour la plupart en France ce sont des femmes (entre 60 % et 80 %) dont la situation professionnelle a fait l’objet du film Discount sorti en janvier 2015.blog371_phaffichediscount

Comme le décrit la journaliste Sandra Lorenzo dans le Huffington Post : « La caissière est une femme que les sociologues, comme Sophie Bernard, maître de conférences en sociologie à l’Université Paris Dauphine et auteure de « Être caissière », comparent souvent à un ouvrier spécialisé, « l’OS du tertiaire », avance-t-elle. Autrement dit, un employé sans qualification et sans formation spécifique comme cet ouvrier, symbole de l’ère industrielle « dont on exige seulement qu’il suive le rythme de la machine qu’il sert « selon la définition d’Alternatives Economiques. Leur machine à elles, c’est la caisse.

Les horaires flexibles sont aussi un des traits caractéristiques de ce métier. « Les caissières sont souvent embauchées en CDI mais avec un temps partiel imposé », explique Sophie Bernard. Les ressources humaines du supermarché s’adaptent aux rythmes des clients et privilégient donc le temps partiel pour coller au mieux aux besoins du magasin, ainsi leur emploi du temps varie souvent d’une semaine sur l’autre sans beaucoup de visibilité. « Payées au SMIC horaire, elles ont la possibilité de faire des heures complémentaires si l’affluence de clients le justifie. Peu d’entre elles le refusent, elles en ont besoin financièrement et cela peut-être un gage de leur motivation dans l’espoir un jour de décrocher un temps plein. »

blog371_phcaissierOutre le fait qu’elles travaillent avec une machine et qu’elles travaillent en horaires décalés, « la répétitivité des gestes, la soumission à des cadences » rappellent aussi le quotidien des ouvriers, souligne encore Sophie Bernard. A une différence près, et elle est de taille, « les caissières le revendiquent, elles ne travaillent pas en usine, elles sont en contact direct avec les clients et ne peuvent donc pas être remplacées par des machines », ajoute-t-elle. Mais cette dernière affirmation est-elle pérenne ?

La sociologue, Marlène Benquet, auteure de « Encaisser! Enquête en immersion dans la grande distribution » et d’un récit sur une grève dans un hypermarché marseillais intitulé « Les damnées de la caisse » a cherché à comprendre pourquoi. Les caissières sont au « carrefour du triple mouvement de féminisation, tertiairisation et précarisation du salariat » écrit-elle. Dans les années 1970, être caissière devient une activité professionnelle principale (et non plus d’appoint pour le ménage) et dans le même temps, l’activité se précarise à cause de « l’extension du travail à temps partiel », ainsi que le résume Jean-Michel Denis sur la plateforme Cairn.blog371_phlivreencaisser

Cette précarisation n’explique pas tout. Marlène Benquet montre qu’il s’agit aussi d’une profession placée « sous contrôle » aussi bien de sa hiérarchie que des clients et des autres caissières elles-mêmes. Un phénomène accentué par l’arrivée des caisses automatiques. Sophie Bernard a étudié ce phénomène. « La temporalité a complètement changé, analyse-t-elle, aujourd’hui une caissière peut être en charge d’une petite dizaine de caisses à la fois avec très peu de moment de pause comme c’était le cas entre chaque client à une caisse traditionnelle. Elles doivent avoir une attention permanente pour s’assurer que les clients n’ont pas de problème et qu’ils ne volent pas ».

La question qui se pose est bien sûr celle de l’emploi de personnes peu ou pas qualifiées. Même si en amont, la conception et la réalisation de nouvelles caisses automatiques ou de dispositifs numériques se substituant aux caisses requièrent de faire appel à plus de techniciens et d’ingénieurs, leur nombre ne saurait compenser le déficit d’emploi d’hôtesses de caisse.

blog371_phcaissiereauchanC’est donc bien un choix économique et social qui prévaut dont les premières victimes seront encore une fois les personnes les plus faiblement qualifiées qui viendront alors grossir le nombre des personnes en recherche d’emploi…. s’il en existe encore quelques-uns d’accessibles ! Moins de personnel cela signifie pour les groupes de la grande distribution moins de gestion des ressources humaines (les machines travaillent à toute heure et ne font pas grève), moins de charges sociales à payer et une accélération du flux de client et donc des rentrées financières.

Alors, réfléchissons bien lorsque nous faisons nos courses : Est-ce que pour le consommateur le gain de temps aux caisses est plus important que la suppression de postes de travail pour des personnels qui contribuent à humaniser un service et à créer de la richesse solidaire par le biais des charges sociales liées à leurs emplois ?

Maroiller

Euroméditerranée branchée en direct sur l’eau de la mer

26 novembre 2016

C’était un des projets phares du site Euroméditerranée, une des plus vastes opérations de rénovation urbaine d’Europe engagée en 1995 et qui concerne le réaménagement de près de 500 hectares en bordure du port de Marseille.

Les contours de l'opération d'intérêt national Euroméditerranée et son extension (en rouge)

Les contours de l’opération d’intérêt national Euroméditerranée et son extension (en rouge)

C’est d’ailleurs l’extension d’Euroméditerranée vers le nord sur 169 hectares en 2007 et l’attribution du label écocité en 2009 à cette extension qui a incité les promoteurs à développer les énergies renouvelables pour alimenter ce nouveau quartier en devenir, centré sur le ruisseau des Aygalades. Et c’est ainsi qu’est né ce projet qui consiste à déployer une boucle alimentée par l’eau de mer et permettant de chauffer (l’hiver) et de refroidir (l’été) des milliers de logements, bureaux et bâtiments publics en construction.

L’idée n’est pas nouvelle et est déjà appliquée en particulier sur Paris par des sociétés comme Climespace qui puise l’eau dans la Seine. L’eau ayant une température relativement constante toute l’année, permet grâce à des échangeurs thermiques et des pompes à chaleur de produire des calories pour alimenter un réseau urbain de chauffage, tandis que la circulation de l’eau froide sert à climatiser. L’utilisation de l’eau de mer pour alimenter de tels réseaux rend les choses plus complexes à cause de la minéralisation de l’eau mais le système est déjà été utilisé notamment à Monaco depuis plus de 30 ans et vient aussi d’être mis en œuvre à La Seyne-sur-mer.

Schéma de principe de la boucle de mer Thassalia (source Engie)

Schéma de principe de la boucle de mer Thassalia (source Engie)

Il n’en demeure pas moins que la centrale de géothermie marine, baptisée Thassalia, qui vient d’être inaugurée à Marseille le 17 octobre 2016, constitue une belle réussite technique. La convention signée en septembre 2014 entre l’écocité Euroméditerranée, le promoteur Constructa et la société Engie Cofély prévoyait une mise en service en janvier 2016. Le chantier a donc pris un peu de retard, mais est arrivé à son terme.

Le nouvel échangeur à eau de mer, d’une surface totale de 1500 m², a été construit sur le môle d’Arenc, face à la tour CMA CGM, à proximité de l’ancienne centrale thermique de Cap Pinède autrefois alimentée au charbon de Gardanne, comme un symbole de cette révolution énergétique qui permet de faire désormais appel à des énergies plus propres et renouvelables.

L’eau de mer est puisée dans les bassins du port à une profondeur d’environ 7 m, là où sa température varie assez peu toute l’année, entre 14 et 22 °C. Elle alimente ensuite un vaste échangeur thermique qui permet de réchauffer (l’hiver) et de refroidir (l’été) un circuit d’eau douce qui circule dans le sol sur plus de 3 km. Cette eau est réchauffée par des pompes à chaleur pour le système de chauffage urbain ou sert directement de fluide réfrigérant pour la climatisation des locaux, permettant ainsi d’économiser environ 40 % de la consommation électrique et 65 % de la consommation d’eau du nouveau quartier en pleine rénovation, tout en limitant de 70 % les émissions de gaz à effet de serre..

Vue de l'usine Thassalia (photo © C. Sollier / PHOTOPQR / La Provence)

Vue de l’usine Thassalia (photo © C. Sollier / PHOTOPQR / La Provence)

L’investissement global pour cette usine est de l’ordre de 35 millions d’euros, sachant qu’Engie a bénéficié pour sa mise en œuvre d’importantes subventions publiques de la part de l’ADEME, de la région PACA, du Département, de la Métropole et de la Ville de Marseille.

Le système alimentera en premier lieu l’immeuble des Docks, l’hôtel Golden Tulip et les bureaux d’Euromed Center, puis Constructa devrait y raccorder les tours des quais d’Arenc. D’ici 2020, il est envisagé d’en faire bénéficier également le futur multiplexe Pathé-Gaumont ainsi que les 2000 logements du programme résidentiel du Parc Habité d’Arenc. A terme, des extensions seront nécessaires pour alimenter au total plus de 500 000 m² de bâti, en espérant que les promoteurs se laissent convaincre de l’intérêt d’un tel raccordement, ce qui reste à démontrer, même si ceci est présenté comme un des enjeux forts de la nouvelle écocité en cours d’émergence sur cette extension d’Euroméditerranée.

Un beau projet en tout cas qui anticipe sur ce que sera la ville durable de demain…

L.V.  lutinvert1small

Le chauffage central, une idée vieille comme le monde !

15 novembre 2016

Les veillées autour du feu de camp ne datent pas de l’invention des joyeuses colonies de vacances ni même de la ruée vers l’ouest et de son folklore de cow-boys. On sait maintenant que la domestication du feu par l’homme est très ancienne, beaucoup plus en tout cas que ce qu’imaginait en 1909 l’écrivain de science fiction connu sous son pseudonyme J.H. Rosny aîné dans son célèbre roman La guerre du feu, qui était supposé se dérouler au Paléolithique, vers 80 000 ans avant notre ère, même si le roman fait se croiser des tribus apparentées pour partie aux Néanderthaliens et pour partie à des Homo sapiens, voire à des reliquats d’Homo erectus pourtant vraisemblablement disparus à cette date.

Extrait du film La Guerre du feu réalisé par Jean-Jacques Annaud à partir du roman du même nom

Extrait du film La Guerre du feu réalisé par Jean-Jacques Annaud à partir du roman du même nom

Il a été depuis retrouvé en Chine sur le site de Zhoukoudian, des traces indiscutables d’un foyer entretenu par des Sinanthropes il y a plus de 400 000 ans, et sur lequel ont été durcies à la flamme des pointes de flèche en os et en bois de cerf. En Europe même, le plus ancien foyer préhistorique connu serait celui identifié en 2016 sur le site de Cueva Négra en Espagne, qui présente des traces de foyer vieux de 800 000 ans.

De ce point de vue, la grotte de Bruniquel découverte en 1980 en surplomb de l’Aveyron, dans le département de Tarn-et-Garonne, ne manque pas d’intérêt. Une vaste galerie qui a servi d’abri à des générations d’ours des cavernes conduit à une salle, située à plus de 300 m de l’entrée, qui présente au sol une construction circulaire formée d’un amoncellement soigneusement ordonné de 400 fragments de stalagmites brisées entassées comme pour circonscrire un foyer. De fait, des vestiges de combustion et des morceaux d’os calcinés ont été retrouvés dans cette structure étrange.

Structure circulaire construite à l'aide de fragments de stalagmites dans la grotte de Bruniquel (photo France 3 Midi-Pyrénées)

Structure circulaire construite à l’aide de fragments de stalagmites dans la grotte de Bruniquel (photo France 3 Midi-Pyrénées)

Une datation au carbone 14 a été réalisée en 1995 sur un morceau d’os brûlé trouvé sur place, mais le carbone 14 n’y est plus décelable, ce qui indique un âge supérieur à 47 600 ans. Il a fallu attendre 2011 pour qu’une chercheuse belge ait l’idée de procéder à une datation de la calcite des stalagmites en utilisant la méthode uranium-thorium. Cette datation a été effectuée par des équipes franco-belges issues en partie du CNRS, et les résultats de leurs analyses ont été publiées le 25 mai 2016 dans la revue Nature.

Les datations effectuées sur la calcite qui s’est déposée sur la structure construite, donc après l’abandon du site par ses aménageurs, aboutissent à un âge de 176 500 ans ! Cela signifie donc que les hommes qui ont réalisé cette construction et l’ont utilisée étaient les premiers représentants européens de l’Homme de Néanderthal, bien avant le Paléolithique supérieur.

Comme chacun sait, sauf le petit Nicolas (Sarkozy) qui l’a appris à ses dépens à l’occasion d’une visite en Dordogne, les Néanderthaliens ont côtoyé l’homme de Cro Magnon (qui lui est un Homo sapiens) mais ils étaient présents sur notre territoire bien avant lui. Rappelons en effet que les peintures rupestres de Lascaux (datées de 13 000 ans avant notre ère) et même celles de la grotte Cosquer (27 000 ans) voire celles de la grotte Chauvet (qui remontent à 38 000 ans) sont bien postérieures à cette époque où une tribu de Néanderthaliens se massait au fond de sa grotte de Bruniquel pour s’éclairer, se chauffer et sans doute se rassurer, autour d’un bon feu.

Relevés scientifiques dans la grotte de Bruniquel (photo E. Fabre / CNRS)

Relevés scientifiques dans la grotte de Bruniquel (photo E. Fabre / CNRS)

Cette datation récente remet en question bien des préjugés sur la société néanderthalienne dont on n’imaginait pas jusque là qu’elle ait pu atteindre un tel niveau d’organisation collective pour construire et entretenir une telle structure relativement complexe, ni même qu’elle ait pu à une date aussi reculée apprivoiser de telle manière le monde hostile et inhospitalier des grottes souterraines, jusqu’à s’y aménager un intérieur douillet autour d’un bon feu de bois soigneusement entretenu.

L’histoire ne dit pas (encore) à quoi a servi réellement cet amoncellement de fragments de stalagmites peut-être davantage destinées à l’éclairage qu’au chauffage du groupe humain qui l’avait ainsi édifié au centre de son habitation. Elle ne précise pas non plus comment étaient évacuées les fumées dans un espace aussi confiné. Certes, l’époque ne se prêtait pas encore à la controverse quant au rôle nocif des particules fines liées à une combustion incomplète dans un foyer ouvert. Il importe donc de ne pas tirer de conclusion hâtive quant à l’impact sanitaire d’une telle exposition en s’appuyant sur le fait que tous les témoins de la scène sont malheureusement morts depuis belle lurette…

L.V.   lutinvert1small

Maman, les petites voitures… ont-elles des ailes ?

29 octobre 2016

Chacun a en tête ces films d’anticipation et ces bandes dessinées de science fiction où l’on voit les habitants de cités futuristes se déplacer en véhicules volants qui sillonnent l’espace aérien sans plus se soucier d’emprunter les rues comme le font nos véhicules urbains actuels. La version moderne du tapis volant individuel, en quelque sorte. Immortalisées par Luc Besson dans son film Le Cinquième élément, les voitures volantes figurent à profusion dans nombre d’œuvres de fiction.

Les voitures volantes du Cinquième élément

Les voitures volantes du Cinquième élément

La fameuse Chitty Chitty Bang Bang des années 1960…

La fameuse Chitty Chitty Bang Bang des années 1960…

Leur point commun, malgré un design des plus fantaisiste : un incontestable aérodynamisme (en dehors peut-être de l’archaïque et néanmoins mythique Chitty Chitty Bang Bang des années 1960…), un mode de fonctionnement pour le moins obscur, une très grande vitesse de propulsion, une parfaite souplesse d’utilisation avec décollage vertical et maniabilité à toute épreuve, et une capacité à élever le héros loin de toute contingence matérielle, apte à faire rêver les plus matérialistes…

A l’heure de la transition énergétique, où même l’industrie automobile commence à se préoccuper de l’impact environnemental de ses voitures individuelles et où la construction d’un nouvel aéroport déclenche une mini-révolution, on pourrait penser que l’on pourrait penser à autre chose qu’à assouvir ses fantasmes d’Icare frustré, rêvant à slalomer à grande vitesse entre la cime des grattes-ciel.

Au contraire, jamais on n’a été aussi proche de voir circuler des voitures volantes dans l’espace aérien de nos villes. A vrai dire, il existe déjà de très nombreux engins, à l’état de prototypes et, pour certains d’entre eux, disponibles à la commercialisation, qui peuvent prétendre à ce statut de voiture volante.

Nombre d’entre eux ne sont en réalité de des ULM plus ou moins transformés qui peuvent rouler sur route moyennant un système de repli astucieux de leurs ailes. On peut citer par exemple l’Aeromobil, de l’ingénieur slovaque Stefan Klein, qui peut rouler normalement sur une route et voir ses ailes se déplier pour s’envoler depuis une piste de décollage.

La voiture aérienne TF-X de Terrafugia

La voiture aérienne TF-X de Terrafugia

C’est le cas aussi du modèle TF-X développé depuis 2010 par l’entreprise américaine Terrafugia, basée à Boston, et qui devrait permettre d’atteindre une vitesse de croisière de 322 km/h avec une autonomie annoncée de 800 km. Contrairement à beaucoup d’autres modèles, celui-ci devrait être capable de décoller à la verticale grâce à un astucieux de rotors directionnels placés à l’extrémité des ailes.

L’entreprise strasbourgeoise Vaylon mise quant à elle sur le parapente accroché à un buggy léger, propulsé dans les airs par une hélice : il s’agit du Pégase, classé dans la catégorie des ULM avec une double homologation aéro/route. De son côté, le PAL-V Flying Car est un véhicule doté d’une hélice dépliable qui le fait ressembler à un petit hélicoptère, et qui est capable de rouler et de voler à 180 km/h, le tout avec une autonomie de 1 200 km.

Ehang 184, le drone taxi de fabrication chinoise

Ehang 184, le drone taxi de fabrication chinoise

Citons aussi le drone de conception chinoise, l’Ehang 184, à propulsion électrique qui serait capable de transporter une personne et ses bagages (jusqu’à 120 kg de charge embarquée) sur une courte distance (pour une durée maximale du trajet limitée à 23 mn !). Volant jusqu’à 100 km/h à une altitude ne pouvant pas dépasser 3 500 m, ce véhicule qui devrait être commercialisé d’ici la fin de l’année 2016 pour un prix avoisinant les 300 000 dollars, serait totalement autonome, le passager se contentant d’indiquer sa destination sur une tablette tactile, et de prier très fort pour arriver à bon port…

Car le point faible de tous ces véhicules volants est bien évidemment de s’insérer sans encombres dans un espace aérien déjà bien encombré. La réglementation et les normes de sécurité étant de plus en plus strictes en matière de déplacement, sur route comme dans les airs, on imagine en effet que leur conduite suppose de disposer à la fois du permis de conduire et du brevet de pilote, tout en respectant la contrainte de devoir décoller et atterrir dans un espace sécurisé de type piste d’aéroport, ce qui en limiterait beaucoup l’intérêt.

blog353_phvoiturevolante

C’est d’ailleurs la raison principale pour laquelle les constructeurs s’orientent désormais plutôt vers des véhicules automatisés et connectés qui pourraient être guidés par un dispositif centralisé. On imagine mal en effet que chacun des 18 millions de Français qui prennent chaque jour le volant de leur voiture puissent désormais décoller du goudron à leur guise et se déplacer sans contrainte dans un espace aérien sans signalisation routière ni agent de police, avec des risques non négligeables de collision à plus de 300 km/h.

La sécurité est un des autres aspects qui rendent si difficile le développement de la voiture volante généralisée. Un véhicule qui se ballade dans les airs nécessite un niveau de fiabilité très élevé. Un avion qui tombe en panne peut encore espérer planer pour tenter de se poser sans trop de casse, mais c’est déjà plus délicat pour un engin à décollage vertical et dont les ailes seront réduites au minimum pour des questions d’encombrement. Un engin volant de petite taille se trouve très vulnérable en cas de collision avec un oiseau. Bref, conduire sa voiture volante, surtout si l’on est nombreux à vouloir le faire, pourrait rapidement devenir un sport à très haut risque…

La voiture volante, nouveau fantasme d'Uber

La voiture volante, nouveau fantasme d’Uber

Et pourtant, comme l’a récemment rapporté le Huffington Post, la société Uber, après avoir imaginé un système de taxis sans chauffeurs, vient de dévoiler un livre blanc intitulé « Avance rapide vers un futur de transport urbain à la demande dans les airs », expliquant comment des véhicules à décollage vertical pourraient bientôt en finir avec les embouteillages. En gros, il s’agit d’imaginer un monde où des véhicules électriques et autonomes pourront décoller verticalement, à l’instar des drones, puis se rendre à une destination par le chemin le plus court, la ligne droite aérienne. L’objectif, évidemment, est d’en finir avec les embouteillages, le rapport affirmant que le temps de trajet passerait par exemple de près de 2 heures à 15 minutes pour un trajet traditionnellement très encombrés, comme entre San Francisco et San Jose.

Uber n’envisage pas pour autant de se lancer immédiatement dans la construction de prototypes, préférant pour cela s’appuyer sur les multitudes start-up qui phosphorent déjà sur le sujet, rejoignant en cela la voie déjà tracée par le fondateur de Google, Larry Page, également passionné par le sujet et qui a déjà investi plus de 100 millions de dollars dans une start-up travaillant sur un prototype secret de voiture volante.

Reste à savoir si un tel objectif relève du pur fantasme ou si une telle approche a une chance de se concrétiser un jour à grande échelle…

L.V.  LutinVert1Small