Archive for mars 2018

Le Bulgare et la cigogne

30 mars 2018

Décimées dans les années 1970, date à laquelle les populations de cigognes blanches avaient quasiment disparu du sol français, sous l’effet cumulé des pratiques agricoles, de la pollution, de la chasse mais aussi des épisodes de sécheresse en Afrique, ces populations d’échassiers migrateurs, désormais protégés en France depuis 1981, se sont peu à peu reconstituées.

Nids de cigognes sur les toits alsaciens

Alors qu’il ne subsistait que 11 couples nicheurs recensés sur le sol national en 1974, principalement en Alsace, les efforts menés depuis pour réintroduire l’espèce mais surtout protéger son habitat en restaurant certaines zones humides ont porté leurs fruits puisque l’on comptait en France plus de 1600 couples en 2010.

Pour autant, certaines régions d’Europe orientale restent nettement plus attractives pour ces oiseaux migrateurs que l’on voit arriver au printemps et repartir à l’automne pour leur migration africaine. Ainsi, on estime que plus de 50 000 cigognes, soit 20 % de la population mondiale connue, passent l’été en Pologne. Sciences et Avenir cite ainsi en exemple le petit hameau de Zywkowo situé à l’extrême nord du territoire polonais, tout près de l’enclave russe de Kaliningrad : dans les années 1960, on y dénombrait 120 habitants et 20 cigognes, mais désormais les chiffres se sont inversés et les rares habitants restés sur place consacrent tout leur temps à entretenir les mares et installer des plateformes sur leur toit pour faciliter l’accueil de ces migrateurs africains.

Nid de cigognes à Zywkowo en Pologne (source © Sciences et Avenir)

Et la Pologne n’est pas le seul pays d’Europe de l’Est à se montrer aussi accueillant envers ces populations émigrées, malgré les dérives nationalistes de ses responsables politiques. C’est une dépêche de l’AFP, relayées par plusieurs médias dont le Point, qui s’en est fait récemment l’écho : en Bulgarie, les premières cigognes arrivées en mars en pleine vague de froid polaire, se sont retrouvées littéralement congelées et ont dû être secourues par les habitants du cru.

Safet Halil, un employé de voirie quinquagénaire de Zarista, au nord-est de la Bulgarie, s’est ainsi distingué en recueillant au bord de la route cinq cigognes blanches aux ailes gelées. Il les a transportées dans sa demeure, par ailleurs fort modeste, a allumé le poêle pour les réchauffer et leur a acheté du poisson. Deux jours plus tard, les cigognes étaient toujours installées dans leur foyer d’hébergement provisoire, profitant de l’hospitalité du Bulgare au grand cœur avec qui elles avaient manifestement sympathisé, poussant même la familiarité jusqu’à lui donner quelques coups de bec amicaux.

Safet Halil et les cigognes qu’il héberge à domicile (photo © Dimitar Dilkoff / AFP)

Et le cas n’est pas isolé puisqu’une quarantaine d’habitants de la région l’auraient imité, récupérant de nombreuses cigognes en détresse du fait de la vague de froid et des chutes de neige qui ont sévi toute la semaine dernière dans ce secteur. Mises à l’abri dans des garages et des hangars agricoles, nombre de cigognes ont ainsi pu être sauvées. Une situation peu courante et qui a suscité de nombreux échanges sur les réseaux sociaux dans un pays où la population de cigognes est en hausse puisque le dernier recensement effectué en 2016 fait état de plus de 6000 de ces volatiles soit 1000 de plus qu’en 2010 : un afflux migratoire sans précédent mais dont les Bulgares se réjouissent.

Puissent tous les populations de migrants en provenance de régions africaines bénéficier d’un accueil aussi chaleureux dans nos contrées…

L.V. 

La Lune comme une déchetterie !

28 mars 2018

L’information n’est pas nouvelle mais elle resurgit périodiquement tant elle fait honte à notre habitude de laisser traîner partout nos déchets, même sur le sol de notre satellite lunaire qui est devenue une véritable déchetterie. Eh oui, la Lune elle-même que le poète venait « voir à la brune / Sur le clocher jauni, / La lune / Comme un point sur un i », la lune donc, toute « pâle et morne », ne serait plus qu’un vaste dépotoir sous son « masque blafard »…

Module lunaire du programme Apollo (source © NASA)

Ouest France en a remis une couche récemment, mais c’est le site internet du magazine américain The Atlantic qui avait levé le lièvre en 2012, révélant que l’on estimait à l’époque à 180 tonnes la masse de déchets accumulés sur la Lune depuis 1959. Le premier de ces débris est d’ailleurs la carcasse du premier engin fabriqué de la main de l’homme qui a réussi à atteindre la Lune, à savoir la sonde soviétique Luna 2 qui s’y est écrasée lamentablement le 14 septembre 1959.

La sonde soviétique Luna 2, première à avoir atteint la Lune, où elle s’est écrasée comme une crêpe…

Il faudra attendre Luna 9 en 1966 pour qu’une première sonde parvienne à se poser en douceur sur le sol lunaire, toutes celles du programme américain Ranger, mis en œuvre entre 1961 et 1965, ayant échoué à atteindre leur but, à l’exception des trois dernières qui s’y sont aussi définitivement scratchées.

180 tonnes de déchets pour un lieu où à ce jour seulement 12 hommes ont mis le pied, à la suite de Neil Amstrong, le capitaine de la mission Apollo 11 qui en a foulé le sol pour la première fois le 20 juillet 1969, c’est quand même beaucoup ! Depuis les 6 missions du programme Apollo qui ont permis à ces rares élus de marcher sur la Lune, la dernière (Apollo 17) s’étant déroulée en décembre 1972, plus personne n’a donc remis les pieds là-haut. Mais cela n’empêche pas les déchets de continuer à s’y accumuler…

Neil Amstrong, décédé récemment à 82 ans, premier homme à marcher sur la Lune en 1969 (source © NASA)

Car les agences spatiales de tous les pays, et elles sont de plus en plus nombreuses maintenant qu’Européens, Japonais, Chinois et Indiens se targuent eux-aussi d’aller voir de plus près ce qui se passe dans l’Espace, ont pris la mauvaise habitude d’utiliser notre satellite comme une vaste décharge. Plutôt que d’organiser le rapatriement sur Terre de tous les engins spatiaux devenus inutiles une fois leur mission accomplie, le plus simple et surtout le plus économique est en effet de les programmer pour qu’ils aillent s’écraser sur le sol de notre satellite naturel où ils viennent grossir la masse de déchets accumulés.

En 2012, la NASA recensait ainsi pas moins de 809 objets abandonnés à la surface de la Lune, les plus volumineux étant les modules lunaires et autres sondes spatiales dont les épaves jonchent désormais la surface de la Lune. Mais les souvenirs abandonnés par les quelques passages de l’homme à l’occasion des missions Apollo sont loin d’être négligeables. Certains ont été laissé en place à bon escient, comme le réflecteur lunaire installé par l’équipage d’Apollo 11, qui renvoie les rayons lasers émis depuis la Terre et permet de calculer à tout moment la distance qui sépare les deux corps célestes, ou encore le télescope doré déposé par la mission Apollo 16 et qui est l’unique télescope à pouvoir observer l’espace à partir d’un autre astre.

Plusieurs de ces objets abandonnés sur la Lune l’ont aussi été en toute connaissance de cause pour une raison symbolique voire sentimentale. C’est le cas notamment d’un micro disque de silicone renfermant les messages de 73 chefs d’état, mais aussi des cendres du géologue de la NASA, Eugene Shoemaker, lequel aura rêvé toute sa vie de se rendre sur la Lune, mais a dû se contenter d’attendre sa mort pour faire le voyage en kit.

La photo de la famille de Charles Duke que l’astronaute n’a pas pu s’empêcher de laisser traîner sur le sol lunaire (source © NASA)

Ces témoignages divers dont certains redoutent qu’ils n’attirent désormais des touristes lunaires venus les recolter comme vestiges historiques, sont de nature très diverse. On y retrouve ainsi, outre 5 drapeaux américains et l’inévitable Bible, une photo de la famille de l’astronaute Charles Duke, dédicacée et abandonnée à l’occasion de la mission Apollo 16 en 1972. On doit y retrouver aussi avec un peu de chance les deux balles de golf que le facétieux Alan Shepard, contre-amiral de l’US Navy, n’a pas pu s’empêcher de lancer avec l’aide d’un club de golf transporté clandestinement…

La plume et le marteau abandonnés après une expérience de physique assez basique (source © NASA)

Même les objets utilisés à des fins scientifiques sont restés sur place. Aucun des membres de l’équipage de la mission Apollo 15 ne s’est ainsi donné la peine de ramasser le marteau et la plume de faucon qu’ils avaient laissés tomber à la surface de la Lune pour vérifier ce que tout lycéen a pourtant pu observer de visu en TP de physique et sans pour autant déployer un tel arsenal de technologie, à savoir que dans le vide deux objets tombent à la même vitesse, quelle que soit leur masse et leur forme.

Mais il faut bien reconnaître que la plupart de ces détritus jetés sans vergogne, parmi lesquels des objectifs photographiques, une caméra, mais aussi 12 paires de bottes, des sacs à dos, de vieux magazines et pas moins de 96 sacs d’excréments, d’urine et de vomi, auraient quand même mérité d’être rapatriés ou au moins détruits pour ne pas polluer prématurément le sol de notre satellite. Manifestement, les astronautes américains n’avaient à l’époque guère plus de savoir-vivre et de préoccupation pour l’environnemnt que le touriste lambda en arrêt pique-nique au bord d’une route nationale un jour de départ en vacances…

C’est d’ailleurs ce que reconnaît sans ambages l’historien en chef de la Nasa, un certain William Barry, interviewé il y a quelques années par le site Live Science : « La préoccupation principale de la Nasa, c’était : les membres de l’équipage peuvent-ils arriver sur la Lune sans encombre ? Peuvent-ils prélever les échantillons dont ils ont besoin ? Et peut-on les ramener sur Terre en un seul morceau ? Les ingénieurs n’ont pas pensé à grand-chose d’autre… ». Voilà qui n’est certes pas le versant le plus glorieux de l’aventure spatiale, mais on veut bien le croire en effet…

L.V. 

Galerie des Janots : une découverte insolite…

25 mars 2018

Pour qui se rend à La Ciotat en venant de Cassis ou de La Bédoule, il est difficile de ne pas repérer le chantier qui se prolonge depuis des mois le long de la RD 559 qui est surmontée à cet endroit d’une passerelle provisoire. Ce chantier inhabituel est celui du siphon des Janots et est un des signes bien visibles d’une opération lancée depuis bientôt 10 ans par la Communauté urbaine de Marseille, intégrée depuis à la Métropole Aix-Marseille-Provence qui en a donc repris la maîtrise d’ouvrage.

Le Canal de Marseille au niveau de l’aqueduc de Roquefavour, achevé en 1847 (source © Marseille en live)

L’ouvrage concerné par ces travaux titanesques est une des branches du Canal de Marseille qui court sur près de 200 km depuis La Roque d’Anthéron, en l’occurrence la dérivation de La Ciotat qui approvisionne en eau potable les communes de Cassis, de Roquefort-La Bédoule, de La Ciotat et de Ceyreste. Cette canalisation majeure franchit le massif de Carpiagne par le souterrain du Mussuguet qui débouche tout près de la gare de Cassis. Après Cassis, elle doit ensuite traverser un second massif sous la Couronne de Charlemagne. Pour cela, elle emprunte tout simplement le tunnel SNCF des Janots.

Mais le passage de la canalisation dans le tunnel, aménagé entre 1956 et 1964 se fait par des ouvrages vétustes et fuyards qui posent de grosses difficultés d’exploitation et de maintenance. Cette canalisation qui ne permet de faire transiter que 330 l/s est de toute façon très insuffisante, surtout en période estivale, pour répondre aux besoins sans cesse croissants de l’usine de potabilisation de La Ciotat, laquelle alimente aussi Ceyreste et Saint-Cyr-sur-mer. Il a donc été décidé de déplacer cette canalisation en dehors du tunnel SNCF et de creuser une nouvelle galerie spécifique parallèle, avec pour objectif de faire passer par la future canalisation un débit de 440 l/s, qui pourrait même être porté ultérieurement à 1 m3/s.

Creusement de l’amorce de galerie sur La Ciotat en prévision de la mise en place du tunnelier à l’entrée de la galerie des Janots (source © Bronzo)

L’opération n’est pas anodine puisque son coût est évalué à 55 millions d’euros, financé en partie (pour 11 millions) par l’Agence de l’Eau Rhône-Méditerranée. Le creusement de la galerie proprement dit, estimé à près de 27 millions par les services de la Métropole, doit se faire sur une longueur de 2 750 m et selon un diamètre de 3,5 m. Elle passe sous le Parc national des Calanques, avec une épaisseur de recouvrement qui varie le long du tracé entre 15 et 180 m, mais elle serpente également très près de la voie ferrée et à proximité de nombreuses habitations, ce qui rend l’opération délicate.

Le tunnelier Augustine lors de son baptême le 3 février 2017 (photo © Christiane Wanaverbecq – Le Moniteur)

Il a donc fallu un tunnelier, construit tout spécialement par la société Robbins et installé à pied d’œuvre depuis janvier 2017, un engin de 135 m de longueur et pesant 250 t, destiné à creuser la roche pendant une durée prévisionnelle de 10 mois en travaillant 24 heures sur 24. Inaugurée le 3 février 2017 en présence de nombreuses personnalités dont la maire de Cassis, Danièle Milon, et le maire de Gemenos, Roland Giberti, par ailleurs délégué à l’eau et à l’assainissement à la Métropole, la machine imposante a été baptisée du petit nom d’Augustine. Une référence bien sûr au prénom de la mère de Marcel Pagnol, lui qui arpentait dans son enfance avec émerveillement les rives du Canal de Marseille.

Amorce de galerie pour la mise en place du tunnelier (source © Made in Marseille)

Depuis, le tunnelier poursuit son travail de grignotage. Prévu pour s’achever fin 2017, le percement de la galerie s’est prolongé au-delà des prévisions, ce qui n’a rien d’inhabituel dans ce type de chantier hors normes soumis à d’inévitables aléas géologiques, surtout dans un massif calcaire sujet aux phénomènes de karstification liés à la dissolution du carbonate de calcium sous l’effet de la circulation des eaux souterraines plus ou moins acides qui s’infiltrent via les fissures de la roche, élargissant ces dernières jusqu’à former de véritables cavités.

Et ça n’a pas loupé comme l’a annoncé Eiffage, l’entreprise générale mandataire du marché de travaux : le 13 mars 2018, Augustine est justement passée juste à côté d’une vaste cavité karstique remplie de magnifique concrétions. La géologue de service, une certaine Marie Lesimple, a donc eu le privilège de pénétrer la première, accompagnée d’un jeune ingénieur dénommé Salah-Edinne Chatouani, dans cette grotte en forme de cloche qui ne présente pas d’autres accès apparents praticables.

Cette découverte grandiose a mis en émoi les responsables du chantier et le directeur des travaux souterrains d’Eiffage Génie Civil, Loïc Thevenot, s’est déplacé en personne pour admirer le spectacle inattendu et prononcer une sentence historique, comme il se doit en pareille occasion, déclarant : « On se sent tout petit quand on contemple ces merveilles que la nature nous offre ».

Vue de la cavité karstique découverte à l’occasion des travaux de creusement de la galerie des Janots (source © Eiffage)

L’accès à la grotte, ouvert grâce au passage du tunnelier, a été immédiatement sécurisé par un ouvrage en béton muni d’une trappe afin de permettre des investigations ultérieures et surtout pour que le chantier puisse suivre son cours sans tarder davantage. Il reviendra ensuite au maître d’ouvrage, à savoir la Métropole, de décider du sort de cette caverne joliment concrétionnée, découverte par le plus grand des hasards grâce au percement de cette galerie technique destinée à apporter aux Ciotadens l’eau issue de la Durance, alors même que de l’eau circule en abondance à travers les interstices de ce massif, comme en témoigne l’importance du volume de vide créé au fil des millénaires du fait de ces infiltrations naturelles…

L. V. 

Pesticides dans les cours d’eau : France Nature Environnement s’alarme !

23 mars 2018

Epandage de pesticides en bord de cours d’eau (photo © Maxppp / France Bleu)

Le sujet n’est pas récent puisqu’un rapport officiel publié en novembre 2015 par le Commissariat général au développement durable, une instance du Ministère de l’écologie, l’analysait dans les détails, affirmant qu’au vu des suivis de qualité de l’eau effectués en 2013 dans nos rivières et nos plans d’eau (du moins là où il y a des points de mesure…), la quasi totalité des milieux aquatiques français est polluée par la présence de pesticides que l’on retrouve dans 92 % des points de mesure. Seuls les zones montagneuses et quelques rares secteurs encore épargnés par l’agriculture intensive en sont exempts.

Il faut bien reconnaître que la France fait toujours partie du peloton de tête des plus gros consommateurs de pesticides, ces substances chimiques destinées à lutter contre les organismes jugés nuisibles, qu’il s’agisse de plantes adventices (herbicides), d’insectes (insecticides), de champignons (fongicides), de vers (nématicides), de rongeurs (rodenticides) et on en oublie, utilisés à 90 % (voire davantage) par l’agriculture, surtout depuis que l’usage de ces produits est en voie de prohibition tant pour les particuliers que pour les collectivités.

Concentrations moyennes en pesticides dans les cours d’eau par bassin versant en 2014 (source : Observatoire national de la biodiversité)

Depuis 1999, la surveillance de la qualité de l’eau dans la nature n’a cessé de se développer et on disposait ainsi en 2014, selon le Ministère de l’écologie, de 3052 points de mesures de la qualité dans les eaux de surface (rivières, fleuves et lacs) et de 2121 points de suivi dans les eaux souterraines (nappes). Vu leur coût très élevé pour la collectivité, le nombre de ces analyses (qui portent aussi sur de très nombreux autres paramètres dégradant, dont les nitrates) est malheureusement assez limité, généralement 8 par an dans les cours d’eau et 4 par an seulement dans les nappes.

La tâche est en effet considérable car il s’agit de rechercher les traces de près de 700 principes actifs de pesticides (ainsi que les produits issus de leur dégradation dans le milieu naturel, qui donne parfois naissance à des substances encore plus redoutables pour le milieu naturel et souvent stables à long terme, des décennies après que le produit commercialisé ait été interdit à la vente). Cette variété de principes actifs à identifier et analyser ne cesse d’ailleurs d’augmenter, fruit d’une stratégie délibérée de l’industrie agro-chimique de mettre sans cesse sur le marché de nouveaux produits pour avoir toujours un coup d’avance sur la réglementation et le contrôle.

Ainsi en 2014 ce sont pas moins de 389 substances différentes provenant de pesticides qui ont été retrouvées sur l’ensemble des points de mesure en eaux de surface, et 265 dans les eaux souterraines, avec en moyenne pas moins de 17 substances différentes identifiées dans chaque station (mais jusqu’à 89 molécules différentes pour certains prélèvements !). Cette année-là, des pesticides ont ainsi été retrouvés, en quantité et en nombre variable selon les endroits, dans 87 % des points de mesure en eau superficielle et dans 73 % des points de suivi en nappe, ce qui en dit long sur la généralisation du phénomène.

Nombre de produits pesticides observés par point de mesure en 2014 (source : Ministère de l’écologie)

Certes, si l’on analyse l’évolution de ces observations depuis 2008, date à laquelle le réseau de suivi a commencé à être suffisamment dense pour se faire une idée globale du sujet, on observe une légère diminution de la proportion de points de mesures contaminés, malgré un nouveau pic très sensible en 2012. Cette évolution résulte sans doute des mesures d’interdiction portant sur certains produits et de l’évolution des pratiques agricoles, mais reste peu significative, d’autant que la consommation de pesticides en France ne cesse d’augmenter malgré toutes les mesures gouvernementales mises en place pour tenter de limiter leur usage.

Dans les eaux de surface, le produit phare, présent dans plus de 38 % des points de suivi est le glyphosate tandis que son produits de décomposition, l’AMPA, est retrouvé dans plus d’un point de suivi sur deux : merci Monsanto ! L’atrazine, interdite depuis 2003 est encore bien présente 11 ans plus tard, avec tout son cortège de produits de décomposition, tant dans les cours d’eau que dans les nappes. Dans ces dernières, on retrouve également de manière significative certains herbicides largement utilisés dans la culture du maïs, et l’on voit même apparaître depuis quelques années, dans nos milieux aquatiques, des résidus des fameux insecticides néonicotinoïdes de plus en plus utilisés.

Et voilà que France Nature Environnement s’empare de nouveau du dossier en lançant une pétition qui exige du gouvernement de revoir sa copie en matière de définition des zones de non traitement, tout en attaquant en parallèle plus de 40 arrêtés départementaux issus de cette évolution de la réglementation. L’affaire n’est pas des plus simples et mérite quelques éclaircissements. Cette notion de zones non traitées (ZNT) a été définie par un arrêté ministériel de septembre 2006 et vise à interdire l’usage de pesticides dans une bande de 20 à 50 m (mais pouvant aller jusqu’à 100 m) en bordure des cours d’eau, afin justement de limiter les risques de contamination par lessivage. La largeur de cette bande peut être réduite à 5 m sous réserve de respecter certaines conditions dont la présence d’une haie ou au moins d’une bande enherbée entre le champ et le milieu aquatique, ainsi que des pratiques d’application adaptées.

Bande enherbée le long d’un cours d’eau (source : Agence française pour la biodiversité)

Initialement, la liste des milieux aquatiques pour lesquels cette distance minimale de sécurité s’applique correspond à tous les cours d’eau, plans d’eau, fossés et points d’eau permanents ou intermittents figurant sur les cartes IGN au 1/25 000, mais elle peut aussi faire l’objet d’un arrêté préfectoral qui permet de prendre en compte les spécificités locales.

Car à l’usage, il n’est pas si évident qu’il n’y paraît de définir ce qu’est un cours d’eau et ce point fait l’objet depuis des années de multiples controverses avec la profession agricole. Le ruisseau qui draine le vallon de Carnoux en est un exemple parmi d’autres. Ce ru peut être considéré comme un oued qui draine toute la vallée, susceptible de faire transiter des débits conséquents en cas de forte pluie, débits qui se déversent directement dans le Merlançon (au rond point du pont des Barles) avant de rejoindre l’Huveaune plus en aval. Le reste du temps, ce cours d’eau est alimenté latéralement par les écoulements d’eaux souterraines qui s’infiltrent dans les coteaux de chaque côté du vallon. Avant l’urbanisation, cet oued était sec une partie de l’année. Depuis, il est alimenté de manière quasi permanente car il reçoit aussi tout ce que les Carnussiens déversent sans réfléchir dans le réseau pluvial : vidange de piscines, pompes d’exhaure, lavage de la voirie et déversements illicites dans les regards en bordure de chaussée, de colorants ou d’huiles usagées

Le ruisseau de Carnoux, un milieu aquatique de piètre qualité… (photo © CPC)

Ce ruisseau intermittent devenu quasiment pérenne est-il un cours d’eau pour autant ? Au vu de sa configuration et de son déversement direct dans le réseau hydrographique naturel en aval, oui. Pour autant, il n’est pas figuré comme tel sur les cartes IGN et le gestionnaire de la voirie départementale a manifestement tendance à le considérer plutôt comme un simple fossé routier largement bétonné, sans que personne ne se préoccupe de la qualité des eaux qui y transitent.

Du coup, les services de l’État se sont lancés depuis juin 2015 dans un vaste travail de cartographie afin de tenter de délimiter quels sont les cours d’eau, démarche qui a fait l’objet de discussions serrées avec nombre de gestionnaires et d’usagers dont la profession agricole. L’enjeu consistait, pour les agriculteurs notamment, à refuser le statut de cours d’eau au maximum possible d’axes d’écoulements, afin de ne pas être soumis à la loi sur l’eau qui réglemente les interventions dans les cours d’eau (enlèvement de sédiments, coupe de la végétation, remodelage de berge, etc.).

Ce travail n’était pas supposé avoir d’impact sur les zones de traitement phytosanitaire. Mais les services préfectoraux se sont engagés, suite à la parution d’un arrêté ministériel de mai 2017 qui modifie légèrement celui de 2006, dans l’élaboration de cartes permettant de définir les points d’eau à proximité desquels doivent être mises en œuvre les ZNT.

Carte des cours d’eau identifiés comme tels par la Police de l’Eau dans le département du Gard (en bleu). Les tronçons en rouge ne sont plus considérés comme des cours d’eau et les zones en violet ont un statut encore indéterminé, sujet à discussion (source : Ministère de l’écologie)

Et, surprise, ces cartes élaborées en lien étroit avec la profession agricole en parallèle de la cartographie des cours d’eau, aboutissent à réduire de manière très significative les tronçons du réseau hydrographique soumis à réglementation pour l’épandage de pesticides. Dans le Tarn-et-Garonne par exemple, c’est 30 % du réseau qui n’est ainsi plus soumis au principe des zones non traitées et même 43 % en Indre-et-Loire. Cette situation est d’autant plus ubuesque que les cartes ne sont pas cohérentes d’un département à l’autre, certains tronçons de cours d’eau étant protégés uniquement jusqu’à la frontière du département limitrophe, sans réelle cohérence puisque les écoulements se poursuivent bien sans se préocuper des limites administratives… La protection de l’eau, pourtant considéré en France comme faisant partie du « patrimoine commun de la Nation » est décidément un combat de tous les instants !

L.V. 

La France, troisième exportateur mondial d’armes…

20 mars 2018

Carte des conflits armés en cours dans le monde en février 2018 (source : Wikipedia)

La fin des conflits armés dans le monde n’est certainement pas pour demain. On peut le regretter, surtout si l’on habite au Yemen, en Syrie, en Afghanistan, au Sud-Soudan, en Lybie ou en Somalie mais une chose est sûre, c’est une excellente nouvelle pour ceux qui font le commerce des armes. Et il se trouve que c’est justement une spécialité de la France. Depuis 2013, les exportations françaises d’armement ont bondi de 27 % alors qu’elles ont augmenté en moyenne de 10 % dans le monde. Le chiffre d’affaire des grands groupes d’armement français, qui emploient de l’ordre de 200 000 personnes, serait ainsi passé de 4,8 milliards d’euros en 2012 à 16,9 milliards en 2015 selon la Direction générale de l’armement (DGA) : voilà au moins des entreprises qui ne connaissent pas la crise…

La France était autrefois connue pour ses exportations de produits agricoles, vin et camembert en tête, mais tout cela semble bien oublié depuis et tout compte fait, le commerce des armes s’avère bien plus lucratif, même s’il présente le léger inconvénient de contribuer à alimenter les conflits armés un peu partout dans le monde. Mais comme le dit si bien notre ministre des Armées, Florence Parly, « beaucoup de pays sont confrontés à cette situation d’avoir, le cas échéant, livré des armes à d’autres pays alors que ces armes n’étaient pas censées être utilisées ». C’est vrai qu’après tout on n’est pas obligé de vérifier ce que nos clients peuvent bien faire avec la marchandise qu’on leur fourgue, sinon c’est la mort du petit commerce…

Le général André Lanata, chef d’état-major de l’armée de l’Air, présente des systèmes de bombes aéroportées à la ministre Florence Parly (photo © Frédéric Lert / Aerobuzz.fr)

Mais heureusement, nos entreprises nationales d’armement ne s’embarrassent pas de tels scrupules hors de propos, et du coup les affaires sont florissantes. Alors qu’en 2015 la France se classait à la cinquième place des pays exportateurs d’armes, derrière les États-Unis, la Russie, la Chine et l’Allemagne, voilà qu’elle a devancé l’Allemagne en 2016 et qu’elle se classe même en troisième position juste derrière la Russie pour l’année 2017. Elle pourrait même dépasser cette dernière dès 2018.

Selon le magazine Challenges, c’est une étude du cabinet IHS Markit, cabinet qui scrute 40 000 programmes d’armement dans 65 pays, qui l’affirmait en août 2017 et depuis les affaires marchent très bien, merci. La récente visite en Inde du Président Macron l’a encore confirmé avec à la clé de nouvelles ventes de Rafale et de sous-marins, à un pays qui, malgré les relents nationalistes de son gouvernement actuel, est devenu depuis 5 ans notre meilleur client en matière de vente d’armes. Juste devant l’Arabie saoudite, un autre pays quelque peu belliqueux qui bombarde allègrement depuis quelques années les populations yéménites, mais qui a le bon goût de nous acheter sans compter de l’artillerie, des missiles, des hélicoptères et des frégates, sans qu’on s’interroge trop sur la finalité de ces investissements…

Le maréchal al-Sissi (au centre) en 2015 (photo © Fady Fares / SIPA)

Et en troisième position de nos fidèles clients vient l’Égypte du maréchal Abdel Fattah al-Sissi, au pouvoir depuis 2012 suite à un coup d’État, qui a déjà largement rempli les prisons avec des islamistes, mais aussi de nombreux journalistes, des intellectuels, des homosexuels et de manière générale tous les démocrates qui s’opposent à sa politique musclée, allant jusqu’à écarter des prochaines élections présidentielles du 26 mars le seul autre candidat crédible, Khaled Ali. Voilà en tout cas une valeur sûre avec qui nos exportations de Mistral, de Rafale, d’hélicoptères, de véhicules blindés et de canons a augmenté de 215 % en 5 ans : une belle progression qui fait honneur au savoir-faire de nos ingénieur, à défaut de mettre en valeur leurs valeurs éthiques, mais on ne peut pas être bon partout !

Un dessin de Deligne

Seule ombre au tableau : il se murmure dans les milieux bien informés que le marché mondial de l’armement, en hausse constante depuis 2009, pourrait pour la première fois connaître une légère contraction en 2018. Non pas – que l’on se rassure ! – à cause d’une baisse d’intensité des conflits régionaux que nombre de dirigeants s’emploient à attiser allègrement, mais tout simplement parce que plusieurs pays ont considérablement renforcé leur propre capacité de production, ce qui rend moins nécessaire d’importer.

Selon l’IHS cependant, il reste encore de beaux jours devant nous. Le Moyen-Orient, porté par l’Arabie saoudite, décidément une valeur sûre, devrait continuer d’importer pour 22 milliards de dollars de matériel militaires au moins jusqu’en 2020 et d’autres pays comme l’Inde mais aussi l’Indonésie voire l’Algérie devraient devenir de solides clients dans les années à venir. Voilà qui n’est pas forcément rassurant pour la stabilité dans le monde mais c’est au moins une bonne nouvelle pour l’avenir de notre balance commerciale : on ne peut pas gagner sur tous les tableaux…

L.V.  

Classement Forbes : les milliardaires vont bien, merci

17 mars 2018

Bernard Arnault, première fortune française et quatrième mondiale, à la une de l’édition française du magazine Forbes

Cela fait partie des marronniers traditionnels de la presse mondiale qui adore publier des classements de toutes sortes. La liste des milliardaires mondiaux, que le magazine économique américain Forbes édite chaque année, fait partie des références qui font toujours couler beaucoup d’encre. Celle qui vient d’être diffusée pour l’année 2018 et qui prend pour référence la date du 9 février, dénombre exactement 2043 milliardaires en dollars, détenant à eux seuls une fortune cumulée de près de 7 700 milliards de dollars, soit trois fois le PIB de la France… Le chiffre a doublé depuis 2010, tant en montant qu’en nombre, ce qui traduit une remarquable progression dans l’art de concentrer la fortune mondiale aux mains d’une poignée d’heureux élus. Et comme les précédents, ce classement par nature arbitraire et incomplet fait jaser.

Le Monde mais aussi Arrêt sur image se sont ainsi empressés de critiquer ce classement 2018 qui, comme les précédents, passe « à côté de fortunes gigantesques dissimulées par leurs propriétaires dans des juridictions discrètes et des structures opaques, comme les sociétés écran, les fondations ou les trusts ».

Par nature, le classement proposé ne peut guère représenter fidèlement la répartition mondiale de la richesse, quelle que soit la qualité des enquêtes journalistiques, tout simplement parce que les plus riches s’ingénient à masquer une partie de leur fortune pour s’épargner des prélèvements fiscaux trop importants. C’est ainsi que l’enquête sur les Paradise Papers, publiée en novembre 2017, avait révélé que l’homme d’affaires américain Jim Simons, fondateur et gérant du fonds spéculatif new-yorkais Renaissance Technologies, avait dissimulé entre 7 et 15 milliards de dollars qui s’ajoutent donc a minima à sa fortune estimée en 2017 par Forbes à 18,5 milliards, ce qui change quand même significativement la donne…

Le prince saoudien Mohamed ben Slaman (photo © Reuters)

On reproche souvent aussi au magazine Forbes de ne volontairement prendre en compte qu’une partie seulement des magnats de la planète, excluant délibérément tous les dirigeants politiques et les monarques alors que plusieurs d’entre eux auraient largement leur place dans cette liste d’heureux privilégiés. C’est ainsi que, contre toute attente, le prince héritier et nouvel homme fort d’Arabie saoudite, Mohamed ben Salman, qui s’était offert en 2015 la maison la plus chère du monde, pour la modique somme de 275 millions d’euros et qui est également l’heureux propriétaire d’un yacht estimé à 420 millions d’euros, ne fait pas partie de la liste Forbes des milliardaires mondiaux. Pas plus d’ailleurs que les nombreux autres milliardaires saudiens dont la fortune est pour le moins menacée dans le cadre de la récente campagne anti-corruption qui s’est traduite, depuis novembre 2017, par l’arrestation de 381 hauts dignitaires du régime dont une cinquantaine dort encore en prison et qui ont déjà dû verser à l’État la bagatelle de 107 milliards de dollards !

On ne trouvera pas non plus dans la liste de Forbes des dirigeants comme Vladimir Poutine alors que les Panama Papers ont révélé qu’il détenait des actifs conséquents dans certains paradis fiscaux, pas plus d’ailleurs que la famille royale d’Angleterre. Il faut dire que le classement de Forbes a quelques difficulté à rendre compte de la gestion familiale des grandes fortunes. Il fait ainsi apparaître de manière groupée les deux frères Martin et Olivier Bouygues, à la tête du groupe de BTP et de médias du même nom, avec une fortune globale de 4 milliards d’euros.

Emmanuel Besnier, dirigeant du groupe Lactalis et 5ème fortune française (photo © Eric Dessons/JDD)

Mais il dissocie d’une part le PDG de Lactalis, Emmanuel Besnier (5ème fortune de France avec un joli pactole de 11,3 milliards d’euros, malgré les déboires de son usine de lait infantile de Caen contaminée depuis des années à la salmonelle, et surtout grâce à ses pratiques commerciales qui étranglent les éleveurs laitiers) et d’autre part l’un de ses frères, Jean-François, et sa sœur, Marie, qui figurent tous deux également dans le classement Forbes en 14ème position des fortunes française avec 4 milliards d’euros chacun, excusez du peu...

Forbes ne cite pas en revanche des entrepreneurs comme Christian Courtins-Clarins, possesseur avec sa famille d’un empire du cosmétique qui réalisait, en 2016, 4,5 milliards de chiffre d’affaire. Il ne cite pas non plus les PDG de grosses sociétés de spiritueux tels que Pierre Castel ou Alexandre Ricard, ni même Benjamin de Rothschild, le président du groupe financier du même nom, pourtant crédité par Challenges de 4,5 milliards d’euros. Pas de trace non plus dans ce classement des familles Peugeot ou Michelin, ni même de la famille Mulliez dont la fortune est pourtant évaluée autour de 40 milliards d’euros, un oubli sans doute...

Dessin de Gros publié dans Marianne

Ces approximations incitent donc à traiter avec prudence un tel classement. Il présente néanmoins le mérite de montrer qu’il existe en France au moins de 40 milliardaires en dollars. Le magazine économique Challenges en avait dénombré 88 en 2017 et son prochain classement attendu en juillet sera probablement plus proche de la vérité. Quoi qu’il en soit, la bonne nouvelle, pour ceux qui s’inquiéteraient éventuellement de la bonne santé financière des grandes fortunes françaises, c’est que nombre de ceux qui figurent dans ce classement ont vu leur fortune s’accroître confortablement depuis l’an dernier.

A l’exception de quelques maladroits comme Patrick Drahi dont la fortune est passée de 13 milliards en 2017 à 6 milliards cette année du fait des difficultés que rencontre Altice, la maison-mère de SFR, nombre d’entre eux ont vu leurs actifs s’étendre de manière assez spectaculaire. Félicitations en particulier à Bernard Arnault, l’heureux patron du groupe LVMH qui, avec une fortune estimée à 72,2 milliards de dollars, occupe désormais la première place du classement français et est considéré par Forbes comme la quatrième fortune mondiale, certes derrière Jeff Bezos (Amazon) et Bill Gates (Apple), mais devant Mark Zuckerberg, le patron de Facebook. En un an, sa fortune a tout simplement doublé, passant de 30 à 60 milliards d’euros, de quoi rassurer les porte-parole du patronat français, toujours inquiets quant à la rentabilité de nos entreprises hexagonales et au faible taux de rémunération de leurs dirigeants…

Tout ceci est d’autant plus encourageant que le cas n’est pas isolé puisque la troisième fortune de France (derrière la fille de Liliane Bettencourt, désormais 18ème fortune mondiale et détentrice d’un beau magot évalué à 42,2 milliards de dollars : on comprend mieux a posteriori pourquoi certains s’étaient donnés tant de mal pour tenter de capter l’héritage de l’empire l’Oréal…), le délicieux François Pinault, a lui aussi quasiment doublé son capital en un an grâce à la bonne santé de son groupe Kering, ex Pinault-Printemps-Redoute, dont le chiffre d’affaires a augmenté de près de 45 % depuis 2017 et les bénéfices de 120 % : merci patron ! Citons aussi au passage l’inénarrable Serge Dassault, patron du Figaro et vendeur de Rafale à ses heures perdues, dont la fortune s’est nettement consolidée, passant en un an de 16,1 à 22 milliards de dollars.

Dessin publié dans le Canard enchaîné du 14 mars 2018

Voilà certainement qui devrait mettre du baume au cœur au reste des Français, certes moins fortunés et qui n’ont pas nécessairement connu une progression aussi fulgurante de leur fortune personnelle, mais c’est en tout cas sans doute la première fois que le classement Forbes fait état de 2 Français dans le Top 20 des plus grandes fortunes mondiales : la preuve assurément que l’économie du pays est sur la bonne voie…

L.V.  

Aubagne : le projet de Val’tram verra-t-il le jour ?

15 mars 2018

Le tramway en gare d’Aubagne

Décidément, à Aubagne, le tramway n’a pas fini de faire parler de lui… En 2014, alors que les travaux battaient leur plein en vue de l’aménagement du premier tronçon prévu entre le Charrel et la gare, Gérard Gazay avait largement surfé sur le mécontentement de la population et des commerçants du centre ville pour balayer l’ancienne municipalité et récupérer le fauteuil de maire, tandis que sa comparse, Sylvia Barthélémy, accédait à la présidence de la Communauté d’agglomération du Pays d’Aubagne et de l’Étoile en tenant un discours d’opposition ferme et résolue au projet de tramway.

Ce qui ne l’empêchera pas d’inaugurer en personne le premier tronçon de ce tramway, en août 2014. A l’époque, la collectivité prétendait avec fierté que cette ligne de tramway, prévue initialement sur 9 km, entre La Penne-sur-Huveaune et la zone d’activité des Paluds, serait l’une des moins coûteuse de France, grâce notamment à la réutilisation d’une ancienne friche industrielle pour y implanter les locaux techniques d’entretien.

Mais patatras ! Avec l’abandon prononcé par Sylvia Barthélémy des deux autres tronçons, la Chambre régionale des comptes a dû faire le constat en octobre 2017 que c’est sans doute au contraire le tramway le plus cher de France qui a été réalisé ici, ainsi que l’avait à l’époque rapporté Marsactu. Le coût de l’investissement dépasse en effet allègrement les 90 millions d’euros pour à peine 2,7 km de trajet et 7 stations, et encore sans compter les dernières rallonges accordées au groupement d’entreprises et au maître d’oeuvre pour les dédommager d’avoir fortement réduit la voilure du projet en cours de chantier. Ce qui ramène le coût de l’investissement à plus de 30 millions du km, du jamais vu pour un tramway qui revient habituellement entre 16 et 22 millions le km…

Tracé initial des trois tronçons du tramway d’Aubagne, seul le tronçon central (en bleu) ayant été réalisé à ce jour

Ce dépassement s’explique en partie par les retards au démarrage du projet et par les indemnités qu’il a fallu verser aux prestataires en compensation des modifications de programme décidés par la nouvelle majorité. Mais l’essentiel de ce surcoût vient du fait que les installations techniques prévues pour l’ensemble du tracé initial sont très largement surdimensionnées. Sur les huit rames Citadis Alstom achetées et payées, seules trois sont effectivement exploitées dont une en secours.

L’ancienne voie ferrée désaffectée de Valdonne, longée par la conduite de rejet des eaux d’Altéo (source La Marseillaise)

Mais Sylvia Barthélémy plaide depuis 2014 pour que les tronçons abandonnés soient remplacés par un prolongement sur les 14 km de l’ancienne voie ferrée de Valdonne, désaffectée dans les années 1960 et qui permet de relier Aubagne à la Bouilladisse dans la vallée de l’Huveaune. C’est le fameux projet de Val’tram qui devrait permettre avec des rames toutes les 10 mn aux heures de pointe, de relier en 25 mn les 12 stations du trajet, le long duquel devraient être aménagées 5 parkings relais, de quoi désengorger largement cette vallée de l’Huveaune et favoriser grandement la vie des habitants de l’Est marseillais.

Évalué initialement à 91 millions d’euros, le projet est inscrit dans l’agenda de la mobilité métropolitain et bénéficie d’une subvention de l’État à hauteur de 18,4 millions d’euros, acquise via un appel à projet national, ainsi que d’une aide financière de 30 millions accordée par le Département des Bouches-du-Rhône. Même Renaud Muselier a promis que la région PACA mettrait la main à la poche pour participer au tour de table dans le cadre du Contrat régional d’équilibre territorial.

Sauf que depuis, les exigences du maire d’Aubagne de vouloir profiter du projet pour embellir le tracé via une requalification du cours Voltaire et un passage en encorbellement sur l’Huveaune dans le secteur des Défensions ont fait sérieusement grimper la facture. On évoque désormais un coût d’investissement de l’ordre de 150 millions d’euros…

Projet de tracé du futur Val’tram (infographie Philippe Auburtin / La Provence du 8 février 2017)

Du coup, début février 2017, Jean-Pierre Serrus, vice-président de la métropole délégué aux transports, annonçait que les travaux, initialement prévus pour novembre 2017, seraient retardés d’au moins un an et ne concerneraient en définitive que la première phase du tracé jusqu’à Auriol. Une annonce jugée « inique, scandaleuse et inacceptable », qui avait fait hurler les maires du secteur. D’autant que cette annonce était suivie quelques semaines plus tard par une autre décision de la métropole de valider un investissement de 24 millions d’euros pour mettre en place un bus à haut niveau de service entre la gare d’Aubagne et la zone des Paluds, justement le montant qui manque pour réaliser le Val’tram dans sa totalité et déservir les communes les plus éloignées.

Et ce n’est pas fini car lors du dernier comité de pilotage du projet, qui s’est tenu le 29 janvier 2018, au lieu de donner le feu vert pour lancer au moins la première phase des travaux, il a été décidé de poursuivre les études en attendant. Sylvia Barthélémy y voit bien entendu une manière de gagner du temps pour enterrer en douceur le projet que le maire d’Aubagne soutient très mollement, surtout soucieux que les travaux ne démarrent pas avant les élections municipales de 2020, au risque de lui faire perdre des voix, lui qui avait su habilement jouer de cet argument pour se rallier les mécontents en 2014. D’autant que d’autres, dont le député de la 10ème circonscription, l’ex Vert désormais LREM, François-Michel Lambert, défend de son côté une solution alternative, préférant sur ce trajet un bus à haut niveau de service plutôt qu’un tramway, car il estime que cette solution serait moins coûteuse…

La Droite locale unie en apparence devant le projet de Val’tram…

Pour Sylvia Barthélémy, les choses sont claires : « Plutôt que de s’appliquer à rechercher des solutions en faveur du Val’Tram, il m’a semblé que l’on cherchait surtout les raisons de ne pas le faire ». La présidente du Conseil de Territoire a donc pris rendez-vous avec Jean-Claude Gaudin qu’elle a rencontré le 16 février dernier selon les informations de La Provence, mais rien n’a fuité de cet entretien et il semble que chacun campe désormais sur ses positions.

Bien malin qui pourrait prédire à ce stade comment se terminera l’histoire et si ce fameux Val’tram tant attendu par les populations locales se concrétisera un jour. Une chose est sûre, pour ceux qui font le trajet tous les jours pour leurs déplacements domicile-travail et qui rongent leur frein dans les embouteillages, mieux vaut qu’ils prennent leur mal en patience car les décisions politiques manquent encore quelque peu de clarté…

L.V.  

Camp des Milles : entre devoir de mémoire et incitation à la résistance

12 mars 2018

C’est un endroit que l’on a tout fait pour oublier pendant près de 40 ans et qui, grâce à l’obstination de certains, a fini par devenir un lieu de mémoire. Dans cette ancienne tuilerie proche du village des Milles, à côté d’Aix-en-Provence, désaffectée en 1939 du fait de la crise économique, ce sont plus de 10 000 personnes qui ont été internées entre 1939 et 1942, dont plus de 2000 ont été déportées, à l’instigation du régime de Vichy, vers le camp d’extermination d’Auschwitz, via les autres camps français de Drancy et de Rivesaltes.

Le bâtiment de la tuilerie du Camp des Milles (crédit photo AMCM)

Il a fallu attendre 1982 pourtant, pour que certains, anciens déportés et résistants mais aussi universitaires, se mobilisent pour tenter de sauver les vestiges de cet ancien camp d’internement, le seul grand camp français encore intact datant de cette période sombre. Un arrêté de classement est alors pris afin de sauver la grande fresque murale du réfectoire et en 2004 ce sont finalement l’ensemble des bâtiments du site qui font l’objet d’un classement au titre des monuments historiques.

En 1985, une première stèle commémorative est inaugurée et se crée un Comité de coordination pour la sauvegarde du camp des Milles et la création d’un musée mémorial de la Déportation, de la Résistance et de l’Internement, relayé à partir de 1991 par l’Association du wagon-souvenir et du site-mémorial du Camp des Milles, puis, à compter de 2009, par la Fondation du Camp des Milles – Mémoire et Éducation, présidée par Alain Chouraqui, directeur de recherche au CNRS.

Alain Chouraqui et Jean-Marc Ayrault devant le Wagon du Souvenir le 10 septembre 2012, lors de l’inauguration du site-mémorial

Et le 10 septembre 2012 enfin, 70 ans, jour pour jour, après le départ du dernier convoi de déportés du Camp des Milles vers Auschwitz, a été inauguré, en présence du Premier Ministre d’alors, Jean-Marc Ayrault, et dès lors ouvert au public, le site-mémorial qui se donne pour fonction d’informer de manière scientifique et objective sur l’histoire de ce lieu, mais aussi d’entretenir la mémoire des événements tragiques qui s’y sont déroulés et enfin d’amener chacun, et notamment les plus jeunes, à réfléchir sur les mécanismes qui peuvent conduire aux génocides et sur les comportements à adopter pour résister à de tels engrenages.

L’histoire elle-même de ce lieu exceptionnel est étonnante. En septembre 1939, lorsque le camp est ouvert, à l’initiative du gouvernement français dirigé par le radical-socialiste Edouard Daladier, l’objectif est d’y interner des ressortissants étrangers, d’origine allemande ou autrichienne pour la plupart d’entre eux et considérés comme des ennemis du fait de l’entrée en guerre contre le Reich Allemand alors que, paradoxalement, il s’agit pour l’essentiel d’intellectuels et d’opposants anti-fascistes réfugiés en France pour échapper à la montée du nazisme.

Parmi eux figurent notamment le peintre dadaïste allemand Max Ernst, proche de Paul Éluard et de Joan Miro, qui finira par rejoindre les États-Unis en 1941 avec l’aide de Peggy Guggenheim. On y retrouve aussi un autre peintre surréaliste Hans Bellmer, de nombreux musiciens, architectes, sculpteurs, écrivains, journalistes, hommes politiques et même deux Prix Nobel, Otto Meyerhof, distingué en 1922, et Thadeus Reichstein qui le sera en 1950 pour sa découverte de la cortisone. Cette forte proportion d’intellectuels et d’artistes explique le foisonnement de la production artistique qui se déroule dans les murs du camp à cette période et qui laisse de nombreux vestiges dont les fameuses fresques murales du réfectoire.

Fresque peinte dans le réfectoire du Camp des Milles par des internés

A partir de juin 1940 et la défaite militaire de la France, le camp accueille de très nombreux étangers transférés depuis d’autres camps du Sud-Ouest, en particulier nombre d’anciens des Brigades internationales d’Espagne, mais aussi des Juifs expulsés du Palatinat, du Wȕrtemberg ou du Pays de Bade. La population hébergée dans le camp s’accroît fortement et les conditions d’hygiène se dégradent très rapidement. En novembre 1940, le camp, passé sous l’autorité du Ministère de l’Intérieur, devient le seul camp de rétention français destiné au transit, légal ou illégal, vers l’Outre-Mer.

Photo d’archive du Camp des Milles pendant la période d’internement

Enfin, en juillet 1942, le gouvernement de Laval, qui vient de déclarer officiellement son souhait de voir l’Allemagne gagner la guerre, engage les rafles de milliers de Juifs, y compris dans la zone sud encore non occupée par les Allemands. Ces rafles en zone libre, qui concernent près de 7000 juifs étrangers ou apatrides, dont de nombreux enfants, ont lieu fin août 1942. Le Camp des Milles sert alors de lieu de transit pour nombre d’entre eux avant leur déportation par convois ferroviaires vers le camp d’extermination d’Auschwitz, d’où la plupart ne reviendront pas.

Outre le rôle mémoriel de ce lieu où une exposition montée par Serge Karlsfed liste le nom de tous les enfants juifs victimes de la déportation en France durant la guerre le mémorial du Camp des Milles se veut aussi un lieu pédagogique pour former l’esprit citoyen à empêcher de nouveaux génocides.

Capture d’écran d’une vidéo intitulée « Fais-le pour toi, résiste ! », accessible sur le site du Camp des Milles

Il accueille pour cela de très nombreux scolaires et s’appuie sur un matériel pédagogique très élaboré, à base de nombreuses vidéos, pour démontrer les mécanismes qui peuvent conduire au génocide. Pour cela il s’appuie non seulement sur la Shoah (6 millions de morts), mais aussi sur la persécution des populations tsiganes d’Europe, décimées à hauteur de 25 à 50 % pendant la deuxième guerre mondiale, sur le génocide arménien de 1915 (1,5 millions de morts, soit les deux tiers de la population arménienne de l’empire ottoman), et sur celui des Tutsis au Rwanda en 1994, qui s’est soldé par 1 million de morts, soit 80 % des Tutsis du pays, sous le regard absent des Nations-Unies.

Un des nombreux outils pédagogiques édités pour aider chacun à résister aux extrémismes

Les conditions qui ont rendu possibles ces tragédies sont décortiquées pas à pas : exacerbation des tensions et des frustrations sociales qui se développent dans les périodes de crise économique et sociale, recherche de boucs émissaires sur la base de préjugés, agitation des esprits par une minorité extrémiste très organisée, fausses rumeurs, insultes et violences de rues, appel à l’exclusion puis à la purification ethnique sous le regard passif de la majorité de la population, manipulation des médias, propagande d’État, réduction du champ de la démocratie et mise en place de pouvoirs dictatoriaux…

Face à un tel engrenage, le message est clair : il s’agit, pour chacun d’entre nous, de résister pendant qu’il en est encore temps ! Car comme aimait à le souligner Albert Einstein, « Le monde est dangereux à vivre, non pas tant à cause de ceux qui font le mal, mais à cause de ceux qui regardent et laissent faire ». C’est en cela que le message pédagogique que cherche à porter le site mémorial du Camp des Milles est particulièrement intéressant et d’actualité : chacun doit se sentir concerné et doit se rebeller contre tous les extrémismes, les discriminations, les formes de racismes et d’exclusion.

Il faut sans cesse s’appuyer sur les leçons de l’Histoire pour se souvenir que les situations de totalitarisme et de génocide ne peuvent se développer qu’en s’appuyant sur une population passive : résister c’est éviter que de telles situations ne se reproduisent ici et maintenant. Un beau message à l’attention de tous les citoyens dans un monde en proie aux crises et aux doutes !

L.V.  

Des télescopes géants pour traquer des univers lointains…

10 mars 2018

Pour cette nouvelle conférence organisée par le Cercle progressiste carnussien le 22 février dernier et qui a attiré un public particulièrement nombreux d’environ 65 personnes, ce sont Jacques Boulesteix et Michel Motré, qui en introduction ont présenté le conférencier, Jean-Gabriel Cuby, astronome au laboratoire d’astrophysique de Marseille et résident à Carnoux. Jacques Boulesteix a rappelé les différents aspects qu’englobe l’astronomie à ce jour, que ce soient l’étude de modélisation théorique de l’univers, la conception d’instruments d’observation et d’exploration, ou l’interprétation des enregistrements collectés.

Présentation du conférencier par Jacques Boulesteix (à gauche) – photo © CPC

Jean-Gabriel Cuby a présenté d’abord l’astronomie comme une science ancienne qui utilise aujourd’hui a besoin des outils spatiaux et des télescopes au sol d’une technologie hyper complexe. Ces moyens ne peuvent être que mis en commun au niveau planétaire pour permettre la poursuite des nombreux programmes d’observation de l’univers en cours et ceux prévus dans le futur.

C’est dans ce domaine que notre conférencier excelle puisqu’il a participé à la mise au point de très grands télescopes, ces dernières décennies, installés dans les observatoires répartis dans différents sites à la surface de la terre, notamment à Hawaii et au Chili.

Cela paraît évident mais c’est l’astronomie qui est à la source de nombreux outils utilisés quotidiennement, qui n’auraient pu être mis au point si le ciel avait été constamment recouvert de nuages ! Ainsi, les lois de la physique n’auraient pu être établies sans l’observation des planètes et leurs trajectoires, ou sans celle des étoiles, qui ont donné naissance aux théories élaborées par des savants comme Galilée, Kepler, Newton jusqu’à Einstein qui a modélisé mathématiquement notre univers. Même le GPS ne pourrait pas fonctionner sans l’apport de la théorie de la relativité…

Dès l’antiquité la connaissance de l’astronomie a permis l’établissement de calendriers, de cartes du ciel pour la navigation, la prévision d’éclipses. Cette connaissance constituait pour ceux qui les possédaient un outil de pouvoir. D’ailleurs les cultes les plus anciens associaient phénomènes célestes et architecture, tant l’influence sur leurs vies et croyances étaient importantes (pyramides, alignements de Carnac, de Stonehenge,..).

Galileo Galilei et deux de ses lunettes qu’il fit construire aux environs de Bologne un peu avant 1610

Depuis des millénaires et encore aujourd’hui, l’œil humain suffit à observer les astres les plus proches de notre système solaire si les conditions météorologiques le permettent. Mais ce n’est que depuis 1610 que Galilée a ouvert une ère nouvelle à l’astronomie avec la mise au point de sa lunette, prémisse des futurs télescopes constamment améliorés par d’autres savants comme Newton.

L’étape majeure se situe au 19ème siècle lorsque Camille Flammarion établit une cartographie de Mars, et c’est l’invention de la photographie qui permit d’enregistrer l’image de la nébuleuse du « tourbillon », qui est en fait la galaxie de la constellation  des Chiens de chasse.

Depuis 50 ans, l’astronomie a multiplié ses moyens d’observation grâce à l’exploration spatiale (en dehors de l’atmosphère terrestre) par des engins que sont les satellites et sondes interplanétaires ainsi que les missions habitées comme Apollo ou la station orbitale internationale, mais aussi via la mise au point de radio-télescopes.

Représentation de la sonde Rosetta et du robot Philae posé sur la comète 67P/Tchourioumov-Guérassimenko, surnommée « Tchouri » (source © CNES / illustration David Ducros)

Le télescope Hubble permet d’obtenir des clichés d’une finesse incroyable repoussant de plusieurs années lumières les limites de notre vision de l’univers. Les sondes Giotto, Huygens et Voyager après un voyage de plusieurs années aux confins de notre système solaire, de même que des sondes robotisées, explorent et transmettent leurs données enregistrées sur Mars ou sur la comète « Tchouri », avec la sonde « Rosetta » de l’Agence spatiale européenne (ASE/ESA), dont les données sont traitées précisément par le laboratoire de Marseille.

Dans ses propos, Jean-Gabriel Cuby a beaucoup insisté, en s’appuyant sur la projection de nombreuses photos, sur le parallèle entre le perfectionnement des télescopes (la taille de l’optique) et leurs limites d’observation des objets lointains.

Si la lunette de Galilée avait un diamètre de deux centimètres et demi, le perfectionnement permanent des techniques de fabrication et l’adjonction de nouvelles inventions technologiques permettent d’atteindre aujourd’hui un diamètre de l’ordre de 40 mètres.

C’est par un facteur deux, tous les trente ans, que la performance des matériels est améliorée. Mais ceci nécessite de concevoir différemment ce type de télescope. Comme il reste impossible de construire un miroir de 40 m de diamètre d’un seul bloc, on a choisi de juxtaposer 800 miroirs identiques sur une surface de presque 1 000 m² afin d’obtenir le résultat voulu, mais au prix de prouesses technologiques pour ajuster ces multiples miroirs dont la planéité ne tolère pas d’écart. Par comparaison la tolérance recherchée est celle de l’épaisseur d’un cheveu sur une surface équivalente à celle de la ville de Paris !

Différents télescopes installés autour du Mauna Kea à Hawaii (source © Université d’Hawaï)

Il est par ailleurs crucial d’implanter ces télescopes dans des régions où les conditions sont les plus propices à des observations quasi permanentes en toutes saisons, et surtout pour pouvoir observer des longueurs d’onde moins absorbées en altitude (infrarouge, ultra-violet, ondes millimétriques). C’est donc en haute altitude, sous les cieux les plus secs de la planète qu’ils sont installés, comme dans le désert d’Atacama (à 5 000 m d’altitude) au Chili ou sur le site de Mauna Kea à Hawaii (à 4 000 m d’altitude).

Les pôles constitueraient aussi des sites d’observation favorables, peu pollués et avec de faibles turbulences, mais les conditions climatiques et les difficultés logistiques ne permettent d’y implanter que des instruments de taille modeste.

Les très grands télescopes, bien que très puissants, souffrent néanmoins de l’atmosphère terrestre qui agit comme un « dépoli », modifiant les rayons optiques en provenance de l’espace lointain et élargissant les images. Une technologie récente, « l’optique adaptative » permet d’analyser la perturbation due à l’atmosphère et de la corriger en temps réel en utilisant des miroirs déformables. Si les images ainsi obtenues approchent la qualité des images observées par des satellites, elles ne compensent cependant pas l’absorption de certaines radiations par l’atmosphère terrestre.

En fait, l’astronomie moderne utilise d’une manière très complémentaire trois outils : 

  • les grands télescopes optiques, qui disposent des plus grandes surfaces collectrices et donc peuvent observer les signaux les plus faibles. Ils sont notamment utilisés pour analyser la lumière (spectrographie) pour déterminer la composition et la vitesse des objets célestes ; 
  • les satellites ou sondes spatiales, qui, situés hors de l’atmosphère terrestre peuvent détecter des objets dans des longueurs d’onde inobservables sur Terre ;
  • les radiotélescopes, qui permettent d’observer les atomes d’hydrogène et les molécules et qui nous donnent ainsi des informations sur la matière et la formation des étoiles.

Parallèlement, l’astronomie moderne ne se limite plus à la seule observation du rayonnement électromagnétique (spectre visible et spectre radio).

D’une part, depuis quelques années, on tente d’observer les ondes gravitationnelles (suggérées par Einstein). Le succès de la détection par les instruments LIGO (Etats-Unis) et VIRGO (Europe) de fusions de trous noirs ouvre une nouvelle voie à l’observation d’objets très massifs dans l’univers, invisibles par les télescopes classiques.

D’autre part, les observatoires de détection de neutrinos peuvent permettre d’observer dans les régions les plus denses et les plus absorbées comme le centre galactique. En effet, les neutrinos, particules n’interagissant pratiquement pas avec les autres, peuvent traverser l’univers sans absorption. Encore faut-il pouvoir les observer ! C’est ce qui se fait avec l’expérience Antarès située au large de la Seyne ou Amanda, dans les glaces du pôle sud.

La conjonction de tous ces moyens est une contribution essentielle à la découverte de nouvelle planète et à la compréhension de la formation de l’Univers.

Par comparaison, les télescopes spatiaux présentent de nombreux avantages techniques mais leur coût d’entretien (comme celui de Hubble, en fonction depuis 25 ans) est aussi très supérieur.

Un public captivé par les explications de Jean-Gabriel Cuby (photo © CPC)

Pour réduire les coûts de ces installations gigantesques, tout en développant plusieurs programmes d’observation, la solution réside dans une coopération internationale indispensable, cela par le biais d’alliances entre pays. C’est notamment le cas du projet JWST (James Webb Space Telescope, successeur du Hubble Telescope), télescope spatial déployable de 6,50 m de diamètre, prévu pour 2019 entre la NASA (Etats Unis) et l’ESA (Europe).

Le projet qui tient à cœur de Jean-Gabriel Cuby et sur lequel il insiste davantage, est celui auquel il a travaillé depuis 2004, et qui concerne la conception et la construction du télescope géant européen E-ELT (Extremely Large Telescope), installé au Chili sur le complexe déjà existant d’Atacama (VLT). Ce nouveau concept de télescope révolutionnaire au sol aura un miroir primaire de 39 mètres et sera le plus grand télescope optique au monde, capable d’analyser aussi le proche infrarouge. Il devrait faire considérablement progresser les connaissances astrophysiques en permettant une étude détaillée d’objets tels que les exoplanètes (planètes gravitant autour d’autres étoiles que le Soleil), les premiers objets de l’Univers, les trous noirs super-massifs, ainsi que la nature et la distribution de la matière noire et de l’énergie noire qui dominent l’Univers.

Vue d’artiste du futur Extremely Large Telescope en construction dans le désert d’Atacama (source © L. Calcada / European Southern Observatory / AFP)

Devant être inauguré en 2014 il ne sera mis en service qu’en 2024, démontrant que la difficulté de réalisation d’un tel projet n’est pas seulement d’ordre technique mais aussi financier, politique, logistique et environnemental. Pour un tel projet d’observatoire en astronomie, il faut en effet régulièrement compter une trentaine d’années entre sa conception et l’obtention des premiers résultats escomptés !

Si les retombées scientifiques espérées sont immenses, les avancées techniques et industrielles autorisées par un tel projet sont également importantes, avec la mise au point induite de nombreuses innovations technologiques commercialisables.

Pour conclure, le conférencier a rappellé les enjeux scientifiques que représente l’astronomie : l’étude des galaxies, la découverte des exoplanètes, une meilleure connaissance de l’évolution de l’univers, de son origine, de la notion d’énergie, de la possibilité de vie extraterrestre, avec ce caractère, certes irrationnel, qui touche au domaine du rêve.

Un public particulièrement nombreux pour cette nouvelle conférence du CPC (photo © CPC)

Ensuite le public a posé de nombreuses questions, révélant une curiosité inassouvie et de multiples interrogations sur notre univers, régi par des lois physiques mais ayant toujours cette capacité à émerveiller, d’une façon intemporelle, le simple observateur humain.

L’apéritif partagé par le public à l’issue de la conférence a permis de poursuivre le dialogue dans l’attente d’une autre conférence sur l’astronomie concernant les récentes découvertes faites dans l’univers.

C.M.

Gare Saint-Charles, ou la diamétralisation de la quadrature du cercle…

7 mars 2018

La gare Saint-Charles, menacée de diamétralisation…

C’est le Conseil d’orientation des infrastructures (COI de son petit nom) qui l’affirme dans le rapport de 200 pages qu’il vient de remettre, le 1er février 2018, à la ministre des transports, Elisabeth Borne : il convient de « diamétraliser » la gare Saint-Charles ! Et ce n’est pas un scoop puisque le rapport précédent, remis en 2013 et destiné également à hiérarchiser les choix d’investissement dans les infrastrutures de transports, disait déjà exactement la même chose…

Certes, le COI, instauré le 17 octobre 2017 et présidé par Philippe Duron, ex-président de l’Agence de financement des infrastructures de transport en France (AFITF), est une nouvelle structure, installée à l’occasion des Assises nationales de la mobilité, et dont l’objectif est de « définir sous deux mois une stratégie et une programmation soutenables des actions à mener dans la prochaine décennie dans le domaine des transports et des mobilités », rien de moins, mais pour autant, son analyse s’appuie sur des décennies d’études qui convergent toutes vers la nécessité d’améliorer la desserte ferroviaire entre Marseille et Nice, et de rendre plus opérationnelles les deux gares d’extrémité.

Remise du rapport Duron le 1er février 2018 à la ministre Elisabeth Borne (photo © A. Bouissou / MTES / La Gazette des communes)

Pour la ministre, « il ne s’agit pas de dépenser moins. L’enjeu est aussi et d’abord d’investir mieux pour améliorer les réseaux existants et désenclaver les territoires mal desservis ». Et comme l’argent public est de plus en plus rare, il s’agit de phaser les projet en fonction de leur priorité et des moyens financiers qui pourront être dégagés. Trois scénarios ont donc été imaginés selon que l’AFITF sera en capacité de mobiliser pour les 20 ans qui viennent entre 48 milliards d’euros (dans l’hypothèse la plus pessimiste), 60 ou 80 milliards (soyons fous !).

Dans tous les cas, la « diamétralisation » de la gare Saint-Charles est considérée comme une priorité. Pour ceux qui auraient quelques lacunes en matière de géométrie dans l’espace et de langue de bois technocratique, précisons au passage que l’opération de diamétralisation consiste tout simplement à rendre traversante une gare qui fonctionne jusqu’à présent en cul-de-sac et où les trains qui arrivent sont obligés de repartir en marche arrière.

Différents scénarios à l’étude pour la diamétralisation de la gare Saint-Charles

Mais pas question pour autant, bien évidemment, de créer une nouvelle voie ferrée qui sortirait de la façade nouvellement reconfigurée de la gare Saint-Charles et viendrait se faufiler via la Porte d’Aix, encore en chantier… Le but de la manœuvre est purement et simplement de construire une nouvelle gare en souterrain, prolongée de part et d’autre par des voies en tunnel afin de permettre aux TGV de transiter par Saint-Charles tout en laissant le niveau actuel de la gare pour le seul trafic ferroviaire local, un peu comme cela a été fait il y a des années pour la Gare de Lyon à Paris. Comme le précise clairement (ou presque) le rapport du COI : « l’objectif réside dans la limitation des cisaillements et des rebroussements consubstantiels à la gare actuelle en cul-de-sac » : Ah, qu’en termes galants ces choses-là sont dites…

Toujours est-il que le réaménagement de la gare Saint-Charles fait partie des travaux jugés prioritaires, au même titre d’ailleurs que la première phase de déploiement de l’ERTMS, un autre bel acronyme technocratique qui signifie en bon français bruxellois European rail trafic management system, autrement dit l’art et la manière de remplacer la bonne vieille signalisation ferroviaire au sol par un système de régulation en cabine plus souple qui permet d’augmenter de 20 à 30 % le cadencement des trains, en principe sans collision…

Selon le scénario de financement retenu, les travaux de réaménagement du plateau actuel de la gare Saint-Charles devraient débuter au plus tard en 2027, mais peut-être même dès 2020 si les budgets sont au rendez-vous. Ensuite, à savoir entre 2028 et 2032 (voire même dès 2027 si l’AFITF arrive à imposer le scénario 3 à 80 milliards), pourront débuter les travaux de réalisation de la nouvelle gare en souterrain pour atteindre la fameuse diamétralisation.

Le trajet de la ligne nouvelle Provence Côte d’Azur (source © Préfecture de région PACA)

La première étape, qui intègre également, outre le réaménagement des gares de surface de Marseille et de Nice, celle de la Pauline près de Toulon, coûtera 860 millions d’euros pour la seule région PACA. La seconde, qui verra non seulement la réalisation de la gare souterraine Saint-Charles, mais aussi le réaménagement de la ligne classique entre Cannes et Nice, fera grimper la facture à 2,9 milliards d’euros. Viennent ensuite deux autres phases de travaux à programmer. La suivante permettra, pour la bagatelle de 3,9 milliards, de terminer l’aménagement de la gare Saint-Augustin à Nice et de créer la nouvelle gare de La Bocca à Cannes tout en aménageant le tronçon de ligne nouvelle entre Cannes et Nice. Quant à la dernière étape, prévue à partir de 2038 seulement selon les scénarios 1 et 2 les plus probables, son coût prévisionnel est de 6,6 milliards et il verrait la réalisation de deux tronçons supplémentaires de ligne nouvelle, entre Aubagne et Toulon d’une part, entre Cannes et Le Muy d’autre part.

Reste bien entendu à savoir désormais quel accueil sera donné à cette ultime proposition d’ajustement pour un projet qui vivote dans les cartons depuis des années mais qui peine à se concrétiser faute de financement approprié. Il n’y a donc plus qu’à croiser les doigts pour espérer que tout cela s’inscrira bien comme prévu dans le prochain projet de loi d’orientation des mobilités…

L.V. 

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

Biomasse bois : 3 projets retenus en PACA

3 mars 2018

Le bois, source renouvelable d’énergie (photo © Frédéric Douard)

C’est un communiqué du Ministère de la transition écologique et solidaire qui l’a annoncé, le 28 février 2018 : la deuxième tranche de l’appel à projets lancé en vue de soutenir, via un complément de rémunération, des projets de développement d’unités de production de biomasse, a retenu 11 projets dont trois qui se situent en région PACA : un beau succès pour le développement de la production énergétique à partir de la biomasse forestière dans notre région !

La première tranche de cet appel à projets lancé en février 2016 visait explicitement à encourager à la fois les projets de méthanisation, autrement dit la production de biogaz à partir de déchets ou de matière végétale brute, mais aussi la production directe d’électricité à partir de la combustion du bois. Ce développement de la biomasse en France est une nécessité comme l’affirme Nicolas Hulot : « La France a voté en décembre dernier une loi mettant fin à la recherche et à l’exploitation des hydrocarbures sur tout notre territoire. En parallèle, notre pays doit monter en puissance sur le développement des énergies renouvelables pour répondre aux objectifs fixés dans le Plan climat. Les projets annoncés aujourd’hui répondent à cette ambition de soutenir des filières créatrices d’emplois ».

Stock de copeaux de bois destinés à la filière bois énergie (photo © Richard Mayer / La Gazette)

A l’échelle mondiale, on estime que l’électricité produite à partir de la biomasse représente de l’ordre de 58 GW mais que cette puissance pourrait atteindre 86 GW d’ici 2021, ce qui représente un potentiel de croissance remarquable. En France, c’est moins de 1 % de l’électricité produite qui provient de la biomasse, même si cette fillière représentait déjà en 2014 de l’ordre de 7,5 % de la production d’électricité d’origine renouvelable (loin derrière l’hydroélectricité et l’éolien, mais devant le solaire néanmoins).

Le principe de la filière bois-énergie est des plus simples puisqu’il se limite à faire brûler le bois pour chauffer de l’eau et produire de la vapeur qui actionnera une turbine comme dans n’importe quelle centrale électrique. Il faut environ 4 tonnes de bois pour produire autant d’électricité qu’avec une tonne de pétrole, mais le CO2 qui est relâché dans l’atmosphère à cette occasion correspond à la seule quantité qui a été séquestrée durant la croissance des arbres, d’où un bilan neutre en termes d’émission de gaz à effet de serre, contrairement à ce qui se passe via l’utilisation d’un combustible fossile.

Digesteur à méthanisation de Marnay Energie à Feux dans le Cher, construite par Xergi (photo © Xergi)

Dans le cadre de la méthanisation, le procédé est plus complexe puisqu’on récupère d’abord le biogaz issu de la fermentation de la matière organique utilisée (déchets organiques, résidus végétaux, boues issues de stations d’épuration, ou déchets provenant de certaines activités agro-industrielles) et que c’est ce biogaz qui sert ensuite soit pour produire de l’électricité soit pour se chauffer.

Toujours est-il que l’on est désormais rentré dans un véritable processus visant à encourager ce type de production en France et cet appel à projets du ministère y contribue. Ce sont en effet 45 dossiers de candidatures qui ont été reçus à l’occasion de cette seconde tranche de l’appel à projet, sachant que la troisième tranche sera ouverte à compter du 29 juin 2018 et devrait permettre de sélectionner encore de nouveaux projets industiels.

Le ministre Nicolas Hulot visitant la plateforme expérimentale Gaya à Saint-Fons (production de biométhane à partie de biomasse sèche) le 26 juillet 2017 (photo © ENGIE)

Sur les 11 projets ainsi retenus, 2 correspondent à des installations de méthanisation prévues respectivement en Bretagne et dans le Médoc. Tous les autres sont des projet bois-énergie pour des puissances installées unitaires supérieures à 300 kW, l’ensemble des projets totalisant une puissance globale installée de près de 53 MW (à comparer avec une tranche de réacteur nucléaire de type Fessenheim dont la puissance nominale est de 900 MW).

La plus ambitieuse de ces installations est justement prévue dans les Bouches-du-Rhône, à Tarascon, portée par la société marseillaise Bio-Watt, pour une puissance totale de 25 MW. Les deux autres projets implantés en région PACA sont d’ampleur nettement plus limitée avec des puissances visées oscillant entre 1MW pour le projet de Campus SAG Sud Luberon à Villelaure, dans le Vaucluse, et 1,2 MW pour celui porté par la société Pérénia à Clans, une commune forestière située dans la vallée de la Tinée, dans les Alpes-Maritimes.

Ces désignations interviennent alors que le projet de plus grande centrale biomasse de France prévu à Gardanne, porté initialement par le groupe énergétique allemand E.ON puis repris par sa filiale, la société Uniper France Power, continue à faire polémique. Pour rappel, le Tribunal administratif de Marseille avait annulé le 8 juin 2017 l’autorisation d’exploitation accordée par l’État en 2012, au motif que l’étude d’impact n’analysait pas « les effets négatifs indirects et permanents du projet sur les espaces forestiers de la zone d’approvisionnement » de la centrale, située dans un rayon de 400 km.

Vue de l’unité de la centrale thermique de Provence, à Gardanne destinée à produire de l’électricité à partir de la biomasse (photo © Serge Guéroult / La Provence)

Il faut dire que le projet était particulièrement ambitieux, voire totalement démesuré pour ses détracteurs qui évoquent « un véritable aspirateur à forêts » destiné à raser les châtaigneraies des Cévennes et à faire disparaître toute la forêt méditerranéenne… Il consistait à transformer, moyennant un investissement de 265 millions d’euros, la tranche 4 de l’ancienne centrale à lignite de Gardanne, en une vaste centrale à biomasse, d’une puissance de 150 MW (soit 6 % de la consommation totale de la région PACA), capable de brûler d’ici 2024, 850 000 tonnes de bois par an, dont 445 000 tonnes provenant de boisements locaux, le reste étant a priri constitué de déchets verts et de bois recyclé.

Les deux parcs naturels régionaux du Luberon et du Verdon sont vent debout contre ce projet de centrale à biomasse, au grand dam du Président de la Région, Renaud Muselier, qui menace du coup de leur couper les vivres, estimant dans un communiqué que « l’écologie doit être mise au service de l’économie pour faire de la croissance verte un atout ». Mettre l’écologie au service de l’économie, les écologistes apprécieront certainement…

En juillet 2017, Nicolas Hulot a malgré tout décidé de faire appel du jugement du Tribunal administratif. Quant aux parcs naturels régionaux, ils ont fini par rentrer dans le rang. Comme l’a raconté Reporterre, le 29 septembre dernier, les deux PNR réunis à Valensole ont accepté de signer un protocole d’accord avec Uniper, décidant de l’abandon de leurs poursuites devant le Tribunal administratif et de l’accompagnement de la nouvelle étude d’impact qui s’est du coup déroulé fin 2017 dans la plus grande discrétion. L’association France Nature Environnement PACA, elle-même très opposée au projet a aussi rendu les armes, effrayée par les baisses de subvention annoncées par la Région. Un passage en force donc et qui a déjà permis à l’unité de biomasse de produire 250 MWh au cours de 2200 heures de fonctionnement accumulés pendant les phases d’essais en 2017.

Pour l’instant, 55 % de la ressource utilisée à Gardanne est importée, pour l’essentiel de plantations d’eucalyptus situées en Espagne et au Brésil, 20 % étant issu de la production forestière locale, le reste provenant de déchets de récupération et de bois en fin de vie. Un progrès sans doute par rapport au charbon qui alimentait jusque là cette centrale thermique, l’une des 4 dernières encore en activité dans l’hexagone, mais qui est encore loi d’apaiser toutes les craintes des défenseurs locaux de l’environnement !

L.V.  

La voiture électrique est-elle écologique ?

1 mars 2018

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V.