Posts Tagged ‘Idée reçue’

Nucléaire, quel avenir ?

16 octobre 2018

Les catastrophes naturelles de cette année 2018, dont certaines résultent en partie du dérèglement climatique consécutif à nos émissions de gaz à effet de serre nous incitent à réfléchir à nos modes de production d’énergie électrique.

Réacteur nucléaire et éoliennes sur le site de Cruas-Meysse en Ardèche (photo © Colin Matthieu / EDF)

En dehors de l’hydroélectricité, les énergies renouvelables sont pour la plupart intermittentes, ce qui nécessite de disposer d’une source complémentaire stable et suffisamment puissante. Au regard de ces constats, la création ou l’augmentation de cette source par l’intermédiaire de la combustion auto-génératrice de pollution doit être exclue.

Pour mémoire, on considère (même si ces chiffres sont probablement à moduler à la hausse si l’on raisonne en cycle de vie global) que l’éolien génère 20 g de CO2 par KWh produit, le nucléaire 35, le pétrole de 400 à 500 et le charbon ou le lignite 1200 ! La relance de l’industrie charbonnière aux USA, sous l‘impulsion de la présidence Trump et le recours encore important dans plusieurs pays européens, dont l’Allemagne ou la Pologne, à ce combustible fossile fortement émetteur de gaz à effet de serre ont donc des conséquences dramatiques pour l’accélération du réchauffement climatique…

Dans le Mix énergétique français, il est recouru principalement au nucléaire et, de manière très secondaire, à l’hydroélectricité et aux centrales thermiques (gaz principalement, fuel et charbon accessoirement), les autres énergies renouvelables ayant une contribution encore assez faible.

Centrale nucléaire de Bugey dans l’Ain (photo © EDF)

Pour toutes les centrales thermiques, qu’elles fonctionnent par combustion d’énergie fossile ou par fission nucléaire, la chaleur dégagée est utilisée pour obtenir de la vapeur d’eau qui, une fois pressurisée, assure la rotation de la turbine de chacun des turbo-alternateurs nécessaires. Ces ensembles génèrent de l’électricité caractérisée par une tension alternative sinusoïdale qui permet l’utilisation de transformateurs pour adapter facilement sa valeur aux besoins.

La production électrique d’origine nucléaire est réalisée dans des centrales qui sommairement comprennent :

  • 1 réacteur dans lequel la fission contrôlée se produit (une centrale comportant généralement plusieurs réacteurs)
  • 1 ensemble récupérateur de chaleur producteur de vapeur d’eau pressurisée
  • 1 ou plusieurs turbo-alternateurs
  • 1 système de refroidissement (qui suppose la présence d’eau en quantité à proximité immédiate)

Les principaux inconvénients de cette filière sont les suivants :

La matière première (l’uranium) utilisée pour la combustion est limitée et sa ressource connue devrait être épuisée dans environ 120 ans.

La mine d’uranium Ranger, en Australie, dans le Parc national de Kakadu, classé au Patrimoine mondial de l’UNESCO (photo © Gleen Campbell)

L’extraction de l’uranium n’est pas sans risque, y compris sur l’environnement, et se situe dans des pays éloignés des lieux d’implantation des centrales dont l’Afrique et peu stables politiquement.

La fission est une opération maîtrisée mais non sans risque qui fait l’objet de contrôles sérieux afin d’éviter les réactions en chaîne et les explosions.

Les déchets radioactifs ont une durée de vie qui peut atteindre 710 millions d’années !

Globalement, l’énergie nucléaire a mauvaise réputation depuis la réalisation de la bombe atomique. Elle fait peur et elle laisse des déchets radioactifs dangereux et difficiles à neutraliser.

Enfin, la production d’électricité d’origine nucléaire coûte cher. 1MWh nucléaire coûte en moyenne 50 € (et sans doute le double pour celui qui sera produit par l’EPR en construction à Flamanville) alors que la même énergie produite à partir du charbon revient à 10 € si ce dernier est extrait sur place.

En 2015, il existait à la surface de la Terre 432 réacteurs nucléaires (dont 58 en France) et plusieurs graves accidents ont déjà affecté ce parc, trois d’entre eux ayant eu un retentissement particulier.

Une équipe de nettoyage en train de décontaminer Three Mile Island (photo archives DR)

En 1979, à Three Mile Island, l’accident a commencé par la perte d’étanchéité de l’enceinte du circuit d’eau primaire, une vanne de décharge du pressuriseur étant restée bloquée en position ouverte. À la suite d’actions inadaptées, le refroidissement du cœur n’a plus été assuré, entraînant la fusion d’une partie du combustible. L’enceinte de confinement, qui constitue la troisième barrière de sécurité, a joué son rôle pour limiter les rejets radioactifs. Quand six ans plus tard, il a été possible de pénétrer dans l’enceinte, une caméra introduite dans la cuve a montré qu’une partie significative du combustible avait fondu mais qu’il n’avait pas traversé la cuve, le corium s’est stratifié en fond de cuve sans provoquer d’explosion (extrait du site Wikipedia, une analyse détaillée de l’accident étant accessible sur le site de l’IRSN).

En 1986, à Tchernobyl, un réacteur a explosé lors d’un test de contrôle destiné à vérifier l’efficacité des contrôles et de la sécurité du fait d’erreurs dans la conduite de ces tests. Du fait de l’absence d’enceinte de confinement, les conséquences de cette catastrophe ont été planétaires.

Le réacteur n°4 de la centrale de Tchernobyl quelques semaines après l’explosion (photo © Igor Kostine)

En 2011, à Fukushima, un tremblement de terre exceptionnel de magnitude 9 survient auquel la centrale résiste grâce au système de contrôle des quatre réacteurs. Le courant électrique alimentant la centrale est coupé et c’est alors que survient une vague de 15 m de hauteur provoquée par un tsunami. Les barrières de protection de la centrale ne mesurent que 6,50 m pour la première et 10 m pour la seconde. Les groupes électrogènes de secours de la centrale situés en sous-sol sont noyés et hors service. Le refroidissement du cœur du réacteur est interrompu. Les câbles électriques des groupes électrogènes dépêchés sur place sont trop courts ! Toutes sortes de moyens sont utilisés dont l’arrosage des réacteurs pour refroidir ces derniers. Ils s’avèrent inefficaces et des explosions dues à l’hydrogène se produisent engendrant des radiations dans un rayon de 50 km autour de la centrale.

On constate que ces trois accidents résultent d’imprévoyances et/ou d’actions inadaptées.

La fusion nucléaire, si on arrive à la réaliser industriellement, pourrait constituer une alternative à la fission qui est actuellement en forte perte de vitesse dans le monde (en dehors de la France et de certains pays comme la Chine qui vient de mettre en service un réacteur EPR). Elle développe cinq fois plus d’énergie que la fission, ne développe pas de réaction en chaîne car dès qu’on l’arrête, le plasma refroidit. Enfin, les déchets sont moindres. De plus, le Tritium, matière utilisée parmi d’autres, a une durée de vie de radiation limitée à 125 ans. Le rêve pour ceux qui suivent.

En conclusion, la combustion, on en connaît bien tous les effets nuisibles mais on a souvent tendance à oublier les êtres humains qui meurent à cause de la pollution qu’elle dégage (CO2 et microparticules). La fission nucléaire, malgré les risques qui lui sont inhérents, les déchets de très longue durée qu’elle génère et les coûts élevés d’exploitation (surtout si l’on intègre le démantèlement des réacteurs en fin de vie), a donc probablement encore de beaux jours devant elle, en attendant de trouver mieux pour la remplacer totalement…

Michel Bouvier

Publicités

Politique agricole : la tentation helvète…

8 octobre 2018

Epandage de pesticides sur un champ de pommes de terre, dans le nord de la France (photo © Philippe Huguen / AFP in Libération)

En matière de politique agricole, tout le monde, en dehors de la FNSEA, du ministre de l’agriculture et bien sûr de la Commission européenne, sait que l’on va droit dans le mur. Le tournant productiviste pris dans les années 1950, consistant à spécialiser et industrialiser les exploitations agricoles tout en libéraliser au maximum les marchés a fait des ravages.

Plus de la moitié des exploitations agricoles a disparu au cours des 25 dernières années. La part de l’agriculture dans le PIB français a été divisée par deux depuis les années 1980 et les suicides d’exploitants s’enchaînent tandis que 30 % des agriculteurs touchent moins de 350 € par mois, étranglés par des choix technologiques qui leur sont imposés par les filières agro-alimentaires alors que les prix d’achat de leur production leur sont imposés par la grande distribution.

Quant aux conséquences des pratiques agricoles sur notre environnement, elles sont devenues catastrophiques avec une perte irréversible de la biodiversité, un appauvrissement massif des sols et une pollution généralisée des nappes souterraines et des cours d’eau par des taux de nitrates et de pesticides qui obligent à fermer toujours davantage de captages pour l’eau potable.

Curieusement, c’est de Suisse, où se situe pourtant le siège de l’Organisation mondiale du commerce, qu’a failli venir un sursaut salutaire contre cette orientation ultralibérale qui fait des ravages dans nos campagnes. Le 23 septembre dernier en effet, dans le cadre du système de démocratie participative qui permet aux citoyens helvètes de s’exprimer directement sur des sujets qui les concernent au quotidien, chacun pouvait se prononcer sur deux propositions touchant au cœur des systèmes de production agricole.

Le premier motif de votation soumis à l’arbitrage citoyen à l’initiative des Verts, était intitulé « pour des aliments équitables » et venait après une consultation largement plébiscitée en 2017 qui avait permis d’inscrire dans un nouvel article constitutionnel des critères de durabilité et de protection de l’environnement en vue d’une plus grande sécurité alimentaire. Il s’agissait désormais d’aller plus loin en vue de développer la production d’aliments équitables via un renforcement du contrôle des conditions dans lesquelles les aliments sont produits, en ce qui concerne les droits des travailleurs, les règles sanitaires et le bien-être animal.

Affiche dans le cadre de la campagne pour la votation suisse sur la sécurité alimentaire en 2017 (photo © Keystone / la Tribune de Genève)

Mais c’est surtout la seconde proposition, émise par le syndicat paysan Uniterre, lui dont les mots d’ordres sont Production – Solidarité – Responsabilité – Emplois et qualité de vie, qui a fait beaucoup parler de lui dans les villes et surtout les campagnes. Cette initiative « pour la souveraineté alimentaire » visait en effet, ni plus ni moins, qu’à introduire une dose de protectionnisme en matière agricole dans un pays qui importe 50 % des produits agricoles qu’il consomme et dont le secteur agricole a perdu en 40 ans la moitié de ses effectifs, tandis que la consommation de pesticide a augmenté de 35 % entre 2000 et 2014.

L’idée, selon Fernand Cuche, secrétaire général d’Uniterre, « c’est que les peuples ont le droit de définir la politique agricole qu’ils veulent conduire, sans se laisser imposer leurs choix par les grands groupes et les règles du commerce international ». Exactement le discours que tenait l’agronome René Dumont dans les années 1970, ou l’un de ses successeurs, Marc Dufumier, dans les années 2000… Un concept typiquement altermondialiste, en droite ligne des revendications portées par l’association Via Campesina dans les années 1990, mouvement d’ailleurs dont est membre Uniterre, tout comme la Confédération paysanne en France.

En l’occurrence, la proposition soumise à référendum consistait à instaurer des droits de douane sur les produits agricoles importés qui ne respectent pas les mêmes normes sociales et environnementales que celles en vigueur en Suisse, ceci dans le but de favoriser les circuits courts et permettre aux exploitations locales de retrouver un minimum de rentabilité. Et en toute logique, il s’agissait aussi, par réciprocité, de s’engager à ne plus exporter à prix cassés comme le fait la Suisse qui écoule à l’étranger ses excédents laitiers à vil prix.

Robot agricole traitant des salades à Galmiz en Suisse (photo © Anthony Anex / Keystone in Le Temps)

Une logique en tout cas qui a rapidement séduit la population helvète puisque, à la mi-août, un mois avant le scrutin, les sondages indiquaient que trois-quarts des citoyens envisageaient de voter en faveur de ces propositions. Aussitôt, branle-bas de combat dans Landerneau ! les gros exploitants agricoles et l’industrie agro-alimentaire suisse ainsi que les représentants de la grande distribution, appuyés par le patronat et certains partis politiques, se sont illico mis au travail et ont déclenché un matraquage médiatique intense pour convaincre l’électeur suisse qu’une telle démarche ne pouvait que contribuer à renchérir les prix des denrées alimentaires…

Un argument certainement contestable car, en Suisse comme ailleurs, les prix de l’alimentation sont pour l’essentiel dictés par les marges qu’empochent les actionnaires de la grande distribution et de l’industrie agro-alimentaire, beaucoup plus que par la rémunération des producteurs eux-mêmes. Mais un argument massue qui a su convaincre la ménagère suisse. En moins d’un mois, le taux d’adhésion à la proposition d’Uniterre a perdu près de 30 points !

Une affiche d’En vert et contre tout pour la votation du 23 septembre 2018

De fait, les résultats de la votation qui s’est tenue comme prévu le 23 septembre dernier sont sans appel. Les deux initiatives ont été très largement rejetées, à plus de 61 % pour celle en faveur des aliments équitables, et même à plus de 68 % pour celle qui prônait davantage de souveraineté alimentaire, alors que dans le même temps, la proposition d’inscrire l’usage du vélo dans la constitution helvète remportait un large succès, plébiscitée par 73,6 % de la population, en l’absence sans doute de mouvements lobbyistes à son encontre….

Ce n’est donc pas pour demain que la politique agricole suisse devrait évoluer en faveur d’une approche plus raisonnée et plus humaniste. Nul doute en tout cas que la même consultation organisée en France aurait conduit à un résultat similaire. Cela aurait été au moins l’occasion de faire parler d’une seule voix, géants de la grande distribution, multinationales de l’agro-alimentaire et gros producteurs céréaliers…

L. V. 

Pas d’allocation familiale sans vaccination ?

1 septembre 2018

Le choix des familles de ne pas faire vacciner leurs enfants, au risque d’aggraver certains risques sanitaires pour la collectivité, doit-il être soutenu par les contribuables ?

Depuis plusieurs années la vaccination est devenue un sujet polémique. Les vaccins sont accusés de multiples méfaits. On a pu croire (à tort) qu’ils favoriseraient l’autisme ou la maladie de Crohn. On les soupçonne, sans preuve, de liens avec les affections démyélinisantes. On les suspecte à cause de leurs adjuvants…

Un dessin signé Beltramo

Selon Le Figaro, deux études d’opinion menées par l’Institut national de prévention et d’éducation pour la santé (INPES) en témoignent : entre 2005 et 2010, le pourcentage de Français favorables à la vaccination est passé de 90 à… 61,5 % ! Une chute de confiance survenue toutefois après l’échec de la campagne de vaccination contre la grippe A, et qui semble partiellement oubliée puisque 81 % des personnes interrogées par l’INPES en avril 2011 étaient globalement favorables à la vaccination.

Une conférence sur cette question avait d’ailleurs été organisée à Carnoux par le CPC en 2016…

Cette méfiance a pu grandir et se maintenir à un niveau tel que de nouveaux risques sanitaires pourraient survenir. Elle inquiète les autorités, notamment le Haut conseil de la santé publique qui, s’il s’est récemment interrogé sur la pertinence de l’obligation vaccinale, s’est ému d’« une baisse assez inquiétante de la vaccination, en particulier (contre) des pathologies qui risquent d’être graves ». Et on l’on assiste à la résurgence de maladies qui avaient quasiment disparu, comme les récentes épidémies de rougeole en Allemagne ou aux États-Unis.

Des trous, des p’tits trous… Dessin de Lasserpe

La vaccination, qui a fait disparaître de nos contrées un certain nombre de maladies infectieuses, est d’ailleurs considérée comme la plus efficace et la plus rentable des mesures de santé publique. Se faire vacciner permet, non seulement de se protéger soi-même, mais aussi de protéger les membres de son entourage (jeunes enfants, femmes enceintes, personnes âgées ou malades chroniques) ne pouvant pas se faire vacciner ou rendus plus fragiles par leur âge ou leurs pathologies.

Alors que de plus en plus de personnes se détournent de la vaccination dans les pays occidentaux, le gouvernement australien a annoncé en 2015 que les parents refusant de faire vacciner leurs enfants se verraient privés d’une partie des allocations familiales. « Ce choix fait par les familles de ne pas immuniser leurs enfants n’a aucun fondement médical ni de santé publique, et ne devrait pas être soutenu par les contribuables », a expliqué le Premier ministre conservateur australien Tony Abbott.

Un dessin de Mutio publié par Urtikan

Le taux de vaccination des enfants âgés de un à cinq ans est d’environ 97 % en Australie, mais plus de 39.000 enfants de moins de sept ans ne sont pas immunisés selon le Registre australien de la vaccination infantile, un chiffre en hausse depuis les dix dernières années avec 24.000 cas supplémentaires. Seules deux exceptions pourraient permettre aux parents d’enfants non vaccinés de recevoir l’ensemble des allocations familiales : des raisons médicales, ou l’affiliation à un groupe religieux dont les instances dirigeantes présenteraient contre les vaccins une objection formellement reconnue par les autorités. En revanche, les parents inscrits sur le registre des « objecteurs de conscience » cesseraient de recevoir une série d’allocations qui peuvent représenter jusqu’à 15.000 dollars australiens (10.800 euros) par an et par enfant

La vaccination, une mesure efficace de santé publique (photo © Istock)

Selon l’hebdomadaire Courrier International, le pro­gramme australien No Jab, No Pay (« Pas de piqûre, pas d’argent ») est entré en vigueur depuis le 3 juil­let 2018. Les parents qui ne font pas vacciner leurs enfants perdront une partie de leurs prestations sociales, rapporte le site News.com.au.

Chaque famille qui envoie son enfant à l’école sans que ses vaccins soient à jour perdra ainsi la somme de 28 dollars austra­liens (17 euros) tous les quinze jours. D’après le ministre des Services sociaux, Dan Tehan, « les parents qui n’immunisent pas leurs enfants les mettent en danger, ainsi que les enfants, d’autres personnes ».

Voilà une parade efficace qui pourrait inspirer nos politiques face à l’individualisme et l’égoïsme. Il faut néanmoins pour l’adopter un certain courage…

S. J.

A Paris, l’urinoir qui fait débat

21 août 2018

A Paris, la bataille pour les municipales de 2020 a déjà commencé et tous les coups sont permis pour commencer à descendre en flammes Anne Hidalgo et sa majorité de gauche plutôt brinquebalante. Après les attaques en règle contre la piétonisation des voies sur berge et les critiques tous azimuts suite aux ratés du renouvellement du marché des Vélib, sans parler de l’échec des Autolib de Bolloré, voilà que le débat prend de la hauteur en se focalisant autour d’un malheureux urinoir placé sur un quai de la Seine, en plein cœur de l’Ile Saint-Louis…

Un uritrottoir installé sur l’île Saint-Louis le 13 août 2018 (photo © Philippe Wojazer / Reuters)

En politique, la pissotière a souvent été aux cœur des débats publics. L’empereur romain Vespasien y a gagné une renommée internationale qui a traversé les âges, lui à qui on attribue, à tort, l’implantation d’urinoirs publics dans les rues de Rome, alors qu’il s’était plus prosaïquement contenté de lever un impôt public sur la collecte de l’urine, source précieuse d’ammoniac pour l’industrie teinturière de l’époque, justifiant sa décision par le constat, largement utilisé depuis, selon lequel « l’argent n’a pas d’odeur ».

Plus près de nous, l’inoubliable roman publié en 1934 par Gabriel Chevallier est resté comme un monument de l’analyse des débats citoyens locaux, lui qui raconte par le menu comment le maire de Clochemerle décide un jour de faire entrer le Progrès et l’Hygiène dans sa petite commune rurale du Beaujolais, sous la forme d’un urinoir moderne installé contre le mur de l’église, déclenchant les protestations horrifiées et la mobilisation acharnée de tout le clan clérical que compte la commune.

Un dessin signé Lacombe, publié dans Marianne le 17 août 2018

Le journaliste Guy Konopnicki, dans sa dernière chronique de Marianne, a beau jeu de faire le parallèle entre cette histoire croquignolesque et celle qui agite depuis quelques jours le microcosme de la politique parisienne, poussant l’ancienne patronne du MEDEF à s’interroger avec la plus extrême finesse qui la caractérise : « Mais qu’est-ce que cette très élégante nouvelle connerie parisienne ? », tandis que le journaliste déplore que « ce mobilier urbain ne semble pas du plus bel effet », ajoutant, un rien vachard, « le goût de chiotte des élus parisiens n’a jamais été pris en défaut »…

Il faut bien reconnaître pourtant, pour être honnête, que l’édicule en question n’a pas été conçu en conseil municipal parisien mais bien par les designers de l’agence nantaise Faltazi qui les commercialise sous le doux nom de marque déposée « uritrottoir ». Concepteur déjà de systèmes d’urinoirs secs destinés à équiper les festivals champêtres, la société a développé spécialement des pissotières urbaines écologiques installées depuis mai 2017 dans les rues de Nantes sans la moindre polémique locale. Même la petite commune bretonne de Locminé a adopté l’uritrottoir depuis plus d’un an sans faire d’histoire…

Un uritrottoir Stout installé rue de la Bléterie à Nantes (photo © Uritrottoir)

Le dispositif est astucieux, constitué grosso modo d’une botte de paille qui recueille les urines et est ensuite valorisée en compost, grâce à son enrichissement en ammoniac, permettant le développement des plantes à fleurs qui s’épanouissent en partie supérieure dans un bac dont le compost est renouvelé périodiquement. Un concept de « pipi fleuri » parfaitement maîtrisé, permettant des économies d’eau conséquentes, un entretien aisé et à moindre frais, ainsi que la valorisation d’un sous-produit de l’activité humaine tout en évitant la pollution olfactive liée à tous ces quidams qui se soulagent discrètement à tous les coins de rue.

Schéma de principe du fonctionnement des uritrottoirs (source © Uritrottoir)

L’appareil n’est pas donné, à raison de 3000 € pièce, mais il présente l’avantage de pouvoir être déposé partout sans le moindre raccordement, et déplacé à la demande. Une fonction qui ne devrait pas manquer d’être actionnée prochainement au vu des innombrables critiques qui se sont élevées lorsqu’il a été installé l’un de ces édicules sur l’Ile Saint-Louis, en plein cœur du Paris touristique. Deux premiers dispositifs similaires sont pourtant en fonction depuis janvier 2017 à proximité de la Gare de Lyon sans que cela ait déclenché la moindre réaction, et d’autre ont été installés depuis Place de Clichy et sur le quai Saint-Bernard, dans le 5ème arrondissement.

Uritrottoirs placés près de la Gare de Lyon (photo © Sylvie Charbonnier / Radio France)

Bien entendu, les féministes se sont emparés de l’affaire, tirant à boulets rouges contre cette initiative qui ne serait destinée qu’aux seuls représentants du sexe masculin, même si les initiateurs du projet se défendent tant bien que mal en expliquant que cela permettra au moins de désengorger les sanisettes locales, qui elles sont plus facilement adaptées aux deux sexes, et que cela vaut mieux en tout cas que de voir des hommes se soulager en pleine rue en se contentant de pisser contre un mur ou le tronc d’un platane comme si de rien n’était…

Curieusement, la polémique qui enfle autour de ce mobilier urbain renouvelé et qui meuble les conversations en cette période de creux estival, passe largement à côté de ce qui est pourtant un sujet majeur qui anime de plus en plus les milieux professionnels de l’assainissement urbain, à savoir : comment faire pour enclencher la collecte séparée des urines ?

La question paraît triviale mais elle fait d’ores et déjà l’objet de très sérieux projets de recherche. Le SIAAP (Syndicat intercommunal d’assainissement de l’agglomération parisienne) qui traite les effluents de près de 9 millions de Franciliens, constate en effet que la capacité épuratoire de ses usines est fortement impactée par les fortes teneurs des eaux usées en azote et en phosphore, deux composés qui proviennent justement à 80 % des urines humaine, alors que ces dernières ne représentent que 1 % des volumes à traiter !

On aurait donc tout intérêt à recueillir de manière séparée les urines humaines pour les valoriser, après nitrification qui transforme l’ammoniac et permet de valoriser de fortes quantités d’azote et de phosphore, très utiles comme fertilisants agricoles. Sachant que, chaque jour, l’humanité produit de l’ordre de 7 millions de tonnes d’urines, une telle valorisation permettrait de ne plus recourir aux exploitations minières de phosphore, et assainirait significativement les milieux aquatiques largement pollués par l’azote et le phosphore issus du rejet des effluents de station d’épuration.

Toilettes permettant le recueil séparé des urines (source SIAAP / colloque ARCEAU)

Une évolution vertueuse donc, mais qui nécessite de sortir de décennies de fonctionnement de nos toilettes classique et suppose une petite révolution culturelle… Techniquement, les systèmes sont au point avec des toilettes qui permettent de recueillir séparément les urines et de les stocker dans des cuves spécifiques avec un système de collecte adapté. Tout l’enjeu est maintenant de convaincre les aménageurs d’inclure cette évolution dans leurs nouveaux programmes de construction afin d’amorcer progressivement le changement.

Peut-être que les uritrottoirs de Nantes et de Paris, en attirant l’attention sur le pouvoir fertilisant des urines ainsi recueillies, auront-elles au moins l’avantage de faire avancer le débat sur ce dossier pressant…

L.V. 

Nucléaire : les centrales françaises ont eu chaud !

11 août 2018

Un dessin signé Deligne

La France, c’est bien connu, fait entièrement confiance à l’énergie nucléaire pour assurer son approvisionnement en électricité : le risque d’accident technologique n’est pas négligeable et les coûts de production sont un peu élevés, surtout si l’on devait prendre en compte les coûts réels de traitement des déchets radioactifs et de démantèlement des centrales, mais au moins cela ne produit pas trop d’émission de gaz à effet de serre. C’est même d’ailleurs l’argument principal mis en avant par EDF pour justifier de continuer à investir autant dans la filière malgré les innombrables déboires rencontrés, notamment sur le chantier de l’EPR de Flamanville.

Un dessin signé Lara publié dans le Canard enchaîné du 8 août 2018

Pour autant, le réchauffement climatique global dont les effets sont chaque jour un peu plus visibles, commence à faire planer des menaces supplémentaires sur cette filière. La période de canicule que vient de connaître la France s’est ainsi traduit par la mise à l’arrêt de quatre réacteurs nucléaires et le ralentissement de deux autres. Ajoutés aux 15 réacteurs arrêtés cet été pour cause de maintenance, cela représente 21 réacteurs actuellement hors service sur les 58 que compte le parc électronucléaire français, répartis sur 19 sites en activité.

Cela n’empêche pas EDF de continuer à exporter une partie de sa production encore excédentaire en cette période estivale où la consommation électrique des industriels est généralement moindre, et ceci même si le développement exponentiel de la climatisation fait régulièrement augmenter la demande d’électricité en période chaude.

Arrosage de la centrale de Fessenheim en 2003 (source : Sortir du nucléaire)

Ce n’est certes pas la première fois que les centrales nucléaires françaises révèlent leur vulnérabilité en cas de forte chaleur. En 2003 déjà, en pleine canicule, la France avait découvert, éberluée, les images d’un réacteur de la centrale nucléaire de Fessenheim arrosé à grands coups de jet d’eau pour tenter de refroidir la température de l’enceinte qui menaçait de dépasser les 50 °C autorisés ! Une tentative assez maladroite d’ailleurs cas il aurait fallu des semaines pour abaisser réellement par cette méthode la température à l’intérieur de l’enceinte dont le mur fait plus de 80 cm d’épaisseur…

Sur d’autres sites, dont ceux de Bugey, Tricastin et Saint-Alban, en bordure du Rhône, ou encore à Golfech, le long de la Garonne, EDF avait été alors été contraint de rejeter de l’eau plus chaude que les règles d’exploitation du nucléaire ne l’autorisent. Une entorse qui a ensuite été régularisée par des dérogations officielles. Et c’est la même situation qui se reproduit régulièrement depuis, lors de chaque période estivale un peu chaude, avec un risque d’emballement inquiétant maintenant que les périodes caniculaires sont de plus en plus fréquentes dans nos contrées.

Centrale nucléaire de Nogent-sur-Seine

En 2017, par exemple, sans les lâchers d’eau réalisés en permanence par les barrages situés en amont du Bassin Parisiens et gérés par l’établissement public de bassin Seine Grands lacs, les débits dans la Seine au droit de la centrale nucléaire de Nogent-sur-Seine, auraient été trop faibles pour permettre la poursuite de l’exploitation des réacteurs, descendant en dessous des seuils critiques et ceci pendant plusieurs semaines consécutives.

Cette année, dès le 27 juillet, une des unités de production de la centrale de Bugey, située en bordure du Rhône, a ainsi dû être arrêtée car la température du fleuve excédait les seuils admissibles. Le surlendemain, c’était le tour de l’unité de production n°1 de Saint-Alban, située le long du Rhône, qui subissait le même sort, les deux tranches de cette centrale ayant finalement dû être arrêtée jusqu’au 8 août, ainsi qu’une seconde unité de Bugey et finalement l’une des tranches de Fessenheim.

Comme l’explique l’IRSN, l’Institut de radioprotection et de sureté nucléaire, la forte dépendance des centrales nucléaires aux milieux naturels aquatiques tient à deux facteurs.

Un dessin signé Romboussard

Une centrale thermique, qu’elle soit nucléaire ou pas, n’est jamais qu’une grosse cocotte-minute produisant de la vapeur, laquelle fait tourner un alternateur. Pour chaque MWh d’électricité produite, il faut évacuer dans la nature 2 MWh de chaleur. Pour cela, il faut de grosses quantités d’eau pour refroidir le dispositif, eau qui est prélevée soit en rivière (c’est le cas de 44 des réacteurs français), soit dans la mer (pour les 14 autres tels que Flamanville, Paluel ou le Blayais). Cette eau de refroidissement est pour l’essentiel (à 98 % selon EDF) rejetée ensuite dans le milieu naturel soit sous forme de vapeur (ce sont les panaches blancs qui s’échappent des tours de refroidissement) soit sous forme liquide.

Le problème vient de ce l’eau qui est rejetée dans les cours d’eau en aval des centrales est plus chaude de quelques degrés par rapport à celle du milieu naturel. Cela ne prête pas à conséquence la majeure partie du temps, sauf justement en période de canicule, lorsque les débits dans les rivières sont au plus bas et que la température du milieu est déjà élevée. Au-delà d’un certain seuil, une augmentation même minime de la température peut alors avoir des conséquences écologiques dramatiques, entrainant des mortalités massives de certains poissons ou des développement d’algues toxiques. C’est la raison pour laquelle à partir de certaines limites de débit et de température, EDF n’a plus l’autorisation de prélever de l’eau pour refroidir ses centrales, n’ayant alors d’autres solution que de les mettre à l’arrêt.

Un dessin signé Cabu

Et il y a une deuxième raison qui oblige EDF à installer ses centrales nucléaires à proximité d’un milieu naturel aquatique, tout simplement pour y rejeter ses multiples effluents chimiques et radioactifs issus de ses installations. Comme tout site industriel, une centrale nucléaire produit en effet de nombreux effluents chimiques issus de certains procédés tels que la production d’eaux déminéralisée, mais aussi des rejets de sa propre station d’épuration.

A cela s’ajoutent certains effluents liquides radioactifs, riches notamment en bore, carbone 14 et surtout en tritium. Les rejets de toutes ces matières directement dans le milieu naturel doivent respecter des seuils de concentration maximale. Plus les débits des cours d’eau sont faibles, plus ces seuils sont atteints rapidement car l’effet de dilution est réduit. EDF est alors contraint de stocker ces éléments indésirables dans des bassins de rétention en attendant des jours meilleurs, mais ses capacités de stockage ne sont pas illimitées…

L’épisode de canicule récent, comme ceux de ces dernières années, dont l’amplitude et la fréquence semblent augmenter régulièrement sous l’effet du changement climatique, ne fait donc que confirmer cette forte vulnérabilité de la filière électronucléaire face à l’évolution de son environnement et au risque de diminution significative du débit d’étiage des cours d’eau qui se profile dans les années à venir. Quand on sait qu’une seule journée d’arrêt d’un réacteur nucléaire coûte de l’ordre de 1 million d’euros à EDF, on imagine avec quelle attention ses ingénieurs scrutent l’évolution des débits en période estivale !

Comme l’indiquait en 2011 Stéphane Lhomme, président de l’Observatoire du nucléaire, « contrairement à ce qu’on essaie de nous faire croire, c’est le changement climatique qui s’attaque au nucléaire et non l’inverse ». Un beau sujet de réflexion pour une prochaine épreuve de philosophe du baccalauréat ?

L. V.

Le PC s’accroche au Colonel-Fabien

6 août 2018

La place du Colonel-Fabien, située dans le XIXe arrondissement de Paris, fait partie de ces institutions de la vie politique française. Le Parti communiste français y a installé son siège en 1971 et il n’en a pas changé depuis. Il faut dire que le lieu est emblématique. Le nom même de Place du Colonel-Fabien, dont les initiales (P. C. F.) évoquent vaguement celles du Parti, est un hommage à un résistant communiste valeureux, décédé en 1944 sous ce nom de guerre de « Colonel Fabien ».

Pierre Georges, alias Colonel Fabien

Pierre Georges, puisque tel était son véritable patronyme, était le fils d’un boulanger de Villeneuve-Saint-Georges. Né en 1919, il avait adhéré au PCF à l’âge de 14 ans et s’était engagé à 17 ans dans les Brigades internationales aux côté des Républicains espagnols. Il y bénéficie d’une formation militaire dans une école d’officiers et écope d’une grave blessure qui l’oblige à rentrer en France deux ans plus tard, en juin 1938.

Engagé comme ouvrier dans une usine de Bréguet aviation, il devient membre du Comité national du Mouvement des Jeunes communistes de France, ce qui lui vaut d’être interné fin 1939 puisque l’URSS était alors l’alliée des Allemands. Évadé en juin 1940, il se réfugie en zone libre à Marseille. L’attaque de l’Union soviétique par les armées hitlériennes en juin 1941 incite le Parti communiste à mettre en place une Organisation spéciale pour développer des actes de guérilla armée contre l’occupant allemand. Pierre Georges en devient le commissaire militaire, aux côtés du commissaire politique Albert Ouzoulias, alias « Colonel André ».

Pierre Georges prend le pseudonyme de « Frédo » et réalise lui-même ce qui est considéré comme le premier attentat meurtrier contre les troupes d’occupation, en assassinant, le 21 août 1941, sur le quai de la station Barbès-Rochechouart, un aspirant de la Kriegsmarine. Cet attentat, qui marque l’entrée officielle du PCF dans la résistance armée, est aussi le point de départ de lourdes représailles qui coûteront la vie à de multiples militants et otages, ce qui amènera de nombreuses personnalités dont Marcel Cachin, Henri Frenay et même le Général de Gaulle, à désavouer cette stratégie.

Plaque commémorative au 34 rue Gandon, dans le 13e arrondissement de Paris, à l’emplacement du poste de commandement du colonel Fabien lors de la Libération de Paris

En mars 1942, Pierre Georges est d’ailleurs l’un des derniers survivants de cette organisation, lorsqu’il quitte Paris pour se réfugier dans le Doubs où il met en place les premiers groupes de FTP (Francs-tireurs et partisans) sous le nom de guerre de « Capitaine Henri ». Blessé en juillet 1942 après avoir participé au sabotage du transformateur des usines Lip, il est arrêté à Paris en novembre, condamné à mort mais transféré au Fort de Romainville d’où il parvient à s’évader en mai 1943.

En août 1944, alors qu’il a adopté son nouveau pseudonyme de « Colonel Fabien » et qu’il est devenu responsable des FTP pour le sud de la région parisienne, il participe aux combats de la libération de Paris, appuyé par les blindés de la 2ème DB du général Leclerc, et rassemble à l’automne un groupe de 500 hommes qui s’engagent aux côté de l’armée régulière dans son avancée vers l’Est. Il n’atteindra cependant pas le sol allemand puisqu’il meurt le 27 décembre 1944 en tentant de désamorcer une mine près de Mulhouse.

Au delà de la valeur symbolique que représente le nom de ce militant de la première heure, si le PCF est aussi attaché à son siège, c’est qu’il a la chance d’être abrité dans un bâtiment lui-même emblématique, construit entre 1968 et 1971 sur la base d’une conception dessinée à partir de 1965 par le célèbre architecte brésilien Oscar Niemeyer, auréolé d’une notoriété internationale pour avoir été l’architecte des principaux bâtiments publics de la nouvelle capitale Brasilia, inaugurée en 1960. Membre de longue date du PC brésilien, Oscar Niemeyer avait dû s’ exiler en France lors de la prise de pouvoir de la dictature militaire en 1964.

L’immeuble siège du PCF place du Colonel-Fabien, conçu par Oscar Niemeyer

Dans l’esprit de son concepteur, «  le siège du PCF constituera dans cette ville, un exemple d’architecture contemporaine, un point d’attraction et de tourisme. Un bâtiment aux formes nouvelles, simple sans finitions luxueuses et superflues. La maison du travailleur. Et le siège du PCF ne sera pas simplement un bon exemple d’architecture, mais une marque de la société socialiste ». Une vision très politique donc préside à la création de cette vaste barre d’immeuble en forme de S, reposant sur 5 poteaux, ce qui donne l’impression qu’il flotte comme une bannière. Le bâtiment comporte 3 vastes sous-sols hébergeant notamment le foyer de la classe ouvrière et de nombreux couloirs d’exposition.

Foyer du siège du PCF, place du Colonel Fabien, en 2002 (photo © Daniel Janin / AFP)

Quant à la vaste coupole blanche qui, selon son concepteur évoque le ventre d’une femme enceinte, elle abrite, non pas des chars russes à l’affût comme certaines mauvaises langues l’ont longtemps soupçonné, mais la salle de réunion du Comité national du Parti.

En ces temps de disette pour de nombreux partis politiques dont les effectifs de militants ont fondu comme neige au soleil (le PCF revendiquait 700 000 adhérents en 1978 et en annonçait 57 000 en 2016), il devient nécessaire d’adapter la voilure, et le changement des locaux du siège est une variable d’ajustement naturelle. En dehors du Parti radical qui occupe toujours, depuis sa création en 1933, son siège historique situé rue de Valois dans le 1er arrondissement parisien, rares sont les partis qui n’ont pas dû se résoudre à vendre leur siège devenu trop grand et trop coûteux à entretenir.

La salle du conseil national du PCF, place du Colonel-Fabien (photo © Jacques Demarthon / AFP)

C’est ainsi qu’en 2008, le Front national a quitté son siège emblématique de Saint-Cloud, connu sous le nom de « Paquebot », un imposant bâtiment situé à proximité du domaine familial des Le Pen à Montretout, dans les Hauts-de-Seine. Racheté en 2011 par une chaîne de maisons de retraite, le bâtiment a été transformé en une résidence haut de gamme pour seniors... Les Verts également ont dû vendre en 2016 leur siège situé dans une ancienne chocolaterie le long du canal Saint-Martin, tandis que le Parti socialiste a signé en début d’année 2018 l’acte de vente de son siège de la rue de Solférino et que Les Républicains ont mis en vente le leur, situé rue de Vaugirard.

Mais si tous les autres partis vendent, souvent avec difficultés, le PC lui préfère rester dans ses murs et en tirer profit en le louant afin de couvrir les énormes frais d’entretien de ce bâtiment immense de 15 000 m2, classé monument historique en 2007. « Nous nous sommes professionnalisés dans la location de tout ou partie des étages, sur du long terme comme plus ponctuellement, pour des événements particuliers », explique ainsi sans ciller au Figaro Jean-Louis Frostin, membre du comité exécutif du PCF et administrateur du siège.

Défilé de haute-couture de Jean-Paul Gaultier en 2014 dans les locaux du PCF (photo © Imaxtree / Madame Figaro)

De fait, le PCF ne conserve pour son usage propre que l’ensemble des sous-sol et deux des cinq étages du bâtiment principal, le reste étant loué principalement à une start-up, Believe Digital, spécialisée dans la musique en streaming. Et ce n’est pas tout car le siège du PCF abrite chaque année plus de 200 événements commerciaux ou privés, dont les tournages de plusieurs films récents (tels que la série Trepalium en 2015), qui permettent de faire entrer de l’argent dans les caisses du parti. Les défilés de mode de haute-couture en particulier prisent beaucoup ce lieu emblématique qui a vu en 2000 défiler la nouvelle collection de Prada, suivie depuis par celles de Yves Saint-Laurent, de Vuitton, ou encore de Jean-Paul Gaultier qui, pour sa collection 2014-2015 avait transformé la coupole du Comité central du PCF en vaste vaisseau spatial…

Une valorisation commerciale qui fait grincer les dents de nombreux militants communistes, agacés par ce grand écart idéologique permanent, le prix à payer pour conserver dans le giron du parti un bâtiment aussi prestigieux que symbolique, dans lequel avait été signé en 1972 le Programme commun avec le Parti socialiste, une histoire déjà ancienne…

L.V. 

La Mède : la raffinerie de tous les dangers…

26 juin 2018

Mise en route en juin 1935, en bordure de l’étang de Berre, sur la commune de Châteauneuf-les-Martigues, la raffinerie de La Mède, qui n’en finit pas de faire parler d’elle, fait partie de ces monstres technologiques engendrés par notre société de consommation empêtrée dans ses contradictions et ses choix technologiques hasardeux !

Raffinerie de La Mède, en bordure de l’étang de Barre (photo © MaxPPP)

Lors de sa construction, par ce qui s’appelait alors la Compagnie française de raffinage et qui s’est fondu depuis dans le groupe pétrolier Total, la raffinerie dite alors « de Provence » était alimentée par un port pétrolier dédié, désormais désaffecté, et disposait d’une capacité de raffinage de 400 000 t de pétrole brut par an, une misère à l’aune des standards actuels, mais largement suffisant à une époque où l’automobile commençait tout juste à se démocratiser.

Le 9 novembre 1992, alors que la raffinerie de la Mède, qui emploie alors 430 personnes et dont la capacité de raffinage dépasse désormais les 6,6 millions de tonnes tourne à plein régime, malgré un état de délabrement et de vétusté sans cesse dénoncé, une forte explosion se produit à 5h20 du matin. Entendue à 30 km à la ronde, cette explosion, qui provoque l’embrasement des unités de traitement les plus proches, est suivie de plusieurs autres. Deux réservoirs d’hydrocarbure et plusieurs canalisations prennent feu, ainsi qu’un réservoir de soude usée et d’essence qui explose à son tour vers 9h50.

Vue de la salle de contrôle de la raffinerie lors de l’accident de 1992 (source DGPR / BARPI)

Il faut attendre 13h pour que les pompiers parviennent tant bien que mal à maîtriser le sinistre, laissant néanmoins plusieurs brasiers se poursuivre pour achever de brûler les gaz et réduire la pression. Le bilan est sévère puisqu’il fait état de 6 morts et un blessé grave parmi le personnel, mais aussi 37 blessés plus légers dont 2 pompiers. La raffinerie est dévastée sur au moins 2 ha et il faudra attendre 2 ans avant que son activité puisse reprendre.

Le voisinage a été sérieusement atteint avec des bris de vitres constatés dans un rayon de 1 km et, ponctuellement jusqu’à 8 km du site. Lors du procès, qui intervient en 2002, quelques mois après la catastrophe d’AZF et alors que Total Fina annonce des bénéfices records, le procureur juge accablante la responsabilité des dirigeants de Total, mais se contente de simples condamnations avec sursis.

Vue aérienne des traces de relâchement d’hydrocarbure à la raffinerie de La Mède en 2005 (source DGPR / IMPEL)

Le 7 août 2005, rebelote avec cette fois un nuage de 10 à 20 tonnes d’hydrocarbures liquides et gazeux qui s’échappent accidentellement de la raffinerie. Un vent fort pousse ce nuage vers la commune de Sausset-les-Pins, à 7 km de là, endommageant une centaine d’habitations mais évitant une nouvelle catastrophe qui se serait inévitablement produite si les vapeurs d’hydrocarbures avaient stagné sur le site à proximité des torchères… Total sera d’ailleurs lourdement condamné en 2007 pour négligence et non-respect des procédures suite à cet accident.

Et en novembre 2014, le site fait de nouveau parler de lui, suite cette fois au débordement de deux bassins d’hydrocarbures qui se déversent directement dans l’étang de Berre, souillant sa rive sud.

En avril 2015, le site est paralysé par des grèves suite à l’annonce d’un plan de restructuration qui prévoit la disparition de 180 postes, alors que les capacités de raffinage sur le sol français sont jugées excédentaires. La raffinerie de la Mède, lourdement déficitaire, est fermée par Total fin 2015 mais reconvertie afin d’y sauvegarder 250 emplois.

Il s’agit alors de transformer, d’ici mi-2018, le site en « bio-raffinerie » pour y produire 500 000 tonnes par an de biodiesel à partir d’un tiers d’huiles alimentaires usagées recyclées et de deux-tiers d’huile végétale, projet consacré par la délivrance en mars 2018 d’une autorisation préfectorale, imposant le recours à au moins 25 % d’huile recyclée.

Vue des nouvelles installations de production de bio-carburant à la raffinerie de La mède (photo © IMRE Nedim / TOTAL)

Un projet qui déclenche la fureur des associations environnementales, dont l’ONG Les amis de la Terre, qui dénonce l’importation massive, pour alimenter la raffinerie, de 300 à 400 000 t d’huile de palme par an, en provenance de Malaisie et d’Indonésie, où ces plantations industrielles de palmiers à huile se font en rognant sans cesse davantage sur les forêts tropicales primaires : pour produire de telles quantités d’huile de palme, on considère qu’il faut détruire 1500 km2 de forêt, ce qui revient à hâter d’autant plus la disparition de la faune associée, sachant qu’il faut par exemple 1 km2 de forêt pour permettre à un orang outang de survivre.

Mais curieusement, ce ne sont pas les défenseurs de l’environnement qui se sont fait le plus entendre dans ce dossier polémique à souhait, mais plutôt les agriculteurs de la FNSEA qui ont défrayé la chronique en venant manifester en juin 2018 contre ce projet, n’hésitant pas à bloquer 13 raffineries et dépôts de carburant sur toute la France.

Manifestation d’agriculteurs de la FNSEA devant la raffinerie Total La Mède, le 11 juin 2018 (photo © Jean-Paul Pelissier / Reuters)

Plus que le sort de l’orang outang et du tigre de Sumatra, ces agriculteurs chantres de l’agro-industrie, venaient en réalité défendre les intérêts des producteurs d’oléagineux, colza et tournesol en tête, qui servent aussi à produire du biodiesel. Une filière industrielle dominée par le géant de l’agro-business, la société Avril, dont le regretté patron était l’ex-président de la FNSEA, le richissime Xavier Beulin, récemment disparu. Peu connue du grand public, cette société dont le chiffre d’affaire atteint pourtant 7 milliards d’euros et qui emploie pas moins de 8200 salariés, est le premier producteur et transformateur européen d’oléagineux, un concurrent direct de Total donc, propriétaire accessoirement des marques Lessieur et Puget, mais aussi leader français de la nutrition animale et qui commercialise un quart des œufs vendus sur le territoire national…

Une petite entreprise, en pointe donc contre la déforestation en Indonésie, mais qui n’hésite pas à importer, pour son compte 200 000 t d’huile de palme chaque année, garantie « zéro déforestation », cela va de soi, car, pour des raisons économiques fort respectables, le biodiesel produit intègre une forte proportion d’huile de palme, nettement moins chère sur le marché mondial que le colza français. D’ailleurs le groupe Avril détient, selon le Canard enchaîné, 34 % des actions de la société PalmElit, leader mondial des semences de palmier à huile.

Plantations de palmiers à huile en Indonésie (photo © François de Sury / voir-et-agir CH)

Et n’allez surtout pas vous demander s’il est bien raisonnable de développer ainsi des « carburants verts » pour alimenter le réservoir de votre voiture, tandis que les terres arables nécessaires à l’alimentation humaine se dégradent à vue d’œil. Une étude récente commandée par la Commission européenne et publiée par Transport et environnement, indique qu’utiliser du biodiesel à base d’huile de palme revient à émettre trois fois plus de gaz à effet de serre que d’utiliser du diesel classique !

Encore un choix technologique manifestement soigneusement réfléchi et qui devrait nous permettre d’avancer à grande vitesse vers le mur où l’humanité ne devrait pas tarder à s’écraser en klaxonnant bien fort…

L. V.

Les tribulation d’un Groenlandais à Marseille…

15 juin 2018

Fin mai 2018 se tenait au palais du Pharo à Marseille le 97ème congrès de l’ASTEE, l’Association scientifique et technique pour l’eau et l’environnement, laquelle avait invité, en ouverture de son grand raout annuel, un soi-disant expert groenlandais venu expliquer doctement aux 400 congressistes, tous professionnels du domaine de l’eau et de la gestion des déchets, comment ses ancêtres vikings avaient dû abandonner les terres du Groenland à la fin du XVe siècle, un peu avant que Christophe Colomb ne découvre l’Amérique.

L’expert en question n’était en réalité qu’un acteur jouant le rôle d’un universitaire groenlandais, venu retracer devant un parterre d’experts français de l’eau et de l’environnement, un fait historique un peu tombé dans les oubliettes de l’Histoire mais dont le rappel ne manque pourtant pas d’intérêt en ces temps où l’on parle beaucoup de transition énergétique et d’adaptation au changement climatique.

Le Saga Siglar, copie d’un navire viking découvert au Danemark

Petit retour en arrière donc, jusqu’en l’an de grâce 983 (ou à peu près car les dates varient selon les sources). A cette date, comme le rappelle un article de Science et Avenir, un certain Erik le Rouge, débarque sur les côtes du Groenland à la tête d’un groupe de quelques centaines de Vikings en provenance de l’Islande et qui ont fait la traversée sur leurs navires aux proues sculptées de monstres marins. L’aventure n’est pas sans danger comme le relatent les sagas scandinaves puisque 11 des 25 navires de l’expédition sombrent en route.

Le « pays vert » (Green Land) où ils abordent n’est pas si verdoyant que son nom l’indique mais plutôt inhospitalier, orné d’un maigre tapis de bruyère arctique et partiellement recouvert d’une épaisse calotte glaciaire. On est alors à l’optimum climatique médiéval qui permet la survie de quelques pâturages herbeux et de saules clairsemés, aujourd’hui quasiment disparus, mais c’est quand même un territoire particulièrement rude où s’installent ces pionniers qui ne peuvent s’en remettre pour leur survie qu’à Thor, Odin ou encore Jésus puisque certains viennent depuis peu de se convertir au christianisme.

Vestiges de l’église viking de Brattahild, près de la ferme d’Erik-le-rouge

Malgré ces difficultés, les Viking fondent deux colonies distinctes, l’une au sud de l’île et l’autre à 400 km au nord, près de Nuuk, la capitale actuelle, leur population atteignant sans doute autour de 5000 individus à son apogée. Les colons scandinaves qui sont venus avec leur bétail développent un peu d’élevage. Mais les recherches archéologiques les plus récentes montrent qu’ils vivent en réalité surtout du commerce. Les bateaux vikings qui desservent régulièrement le territoire permettent d’exporter les fourrures de renards arctiques et d’ours polaires, mais surtout les défenses de morses et de narval dont l’ivoire était particulièrement prisé au Moyen-Age.

Figurines de jeu d’échec en ivoire du Groenland, retrouvées en Ecossse

En échange, les colons font venir pour leurs besoins le blé qu’ils n’arrivent pas à faire pousser sur l’île à cause de la brièveté de la période estivale, mais surtout le bois et le fer qui sont inexistants sur place. Mais malgré cette relative prospérité liée au commerce, la vie est rude d’autant que le climat est de plus en plus froid au cours du Petit âge glaciaire : à partir du milieu du XIIIe siècle, les glaciers progressent sensiblement au Groenland. Les Viking ont de plus en plus de mal à poursuivre leurs activités d’élevage et se tournent davantage, pour se nourrir, vers les produits de la mer, poissons et phoques en particulier, qui finissent par constituer 80 % de leur alimentation.

En 1367, le navire qui desservait régulièrement le Groenland fait naufrage et il ne sera pas remplacé de sitôt, laissant les colons vikings dans un isolement fatal. Il faut dire qu’entre-temps l’Europe a découvert l’ivoire des éléphants d’Afrique qui remplace avantageusement celui des morses…

Avec le refroidissement climatique, les Vikings du Groenland se retrouvent désormais confrontés à un autre groupe ethnique, les Inuits, venus du Canada pour se réfugier sur des terres plus hospitalières.

Inuit du Groenland avec ses chiens

Contrairement aux Viking, les Inuits sont parfaitement adaptés à ces terres glacées. Ils maîtrisent parfaitement la chasse hivernale au phoque, lorsqu’il s’agit de découper un trou dans la banquise, technique que les Viking ignorent et qui rend leur subsistance si précaire durant les longs hivers. Leurs igloos et leurs tentes sont nettement plus confortables que les huttes en pierres sèches où s’abritent les Vikings. Leurs kayaks légers et effilés leur donnent une extrême mobilité et en font de redoutables chasseurs et pêcheurs. Ils s’habillent de cuirs et de fourrures, beaucoup plus faciles à se procurer que les lainages des Vikings. Leurs armes sont taillées dans l’os et l’ivoire local, certes moins efficaces que celles en bois et en fer des Scandinaves, sauf que celles-ci viennent rapidement à manquer lorsque les liaisons maritimes s’espacent. Les Inuits n’ont pas besoin de tourbe ou de bois pour se chauffer et s’éclairer, préférant pour cela plutôt la graisse animale.

En kayak au milieu des icebergs

Les Vikings méprisent souverainement ces Esquimaux avec leur anorak graisseux et leurs armes rudimentaires. Ils se gardent bien de les côtoyer de trop près, ce qui ne leur permet pas de s’approprier leurs techniques de chasse et leur mode de vie. Du coup, leur isolement et leurs difficultés d’adaptation au climat local les rend particulièrement vulnérables. Contre toute attente, ce sont donc les Inuits qui prennent le dessus tandis que les Vikings finissent par disparaître. Les derniers contacts écrits avec la colonie groenlandaise datent de 1408 et il semble que la colonie se sont complètement éteinte autour des années 1450, sans qu’on sache très bien si les derniers colons survivants ont été rapatriés vers la mère patrie où s’ils sont morts sur place.

Vestiges d’une implantation viking à Gardar, dans l’Est du Groenland

La disparition des Vikings du Groenland, racontée notamment dans l’ouvrage intitulé Effondrement, publié en 2006 par Jared Diamond, est emblématique de ces situations de crise où une population a besoin de s’adapter à un monde en profonde mutation, climatique mais aussi sociale, économique, technologique. En l’occurrence, ils n’ont pas réussi à s’imposer durablement sur ce territoire arctique, malgré les exploits guerriers et la formidable expansion dont ont su faire preuve ces populations qui avaient, entre le IXe et le XIe siècle, pillé et colonisé une bonne partie de l’Europe.

Plus frustres et plus aptes à tirer profit des ressources locales, les Inuits au contraire, ont réussi à traverser les siècles et à coloniser durablement le Groenland. De là à conclure que l’adaptation au changement climatique nécessitera d’abandonner quelques-uns de nos préjugés et certains acquis de notre civilisation, voire de sacrifier une part de notre confort auquel nous sommes tant habitués, il y a un grand pas que l’on se gardera bien évidemment de franchir, quoique…

L.V. 

 

Pourquoi la France devrait gagner le prochain Mondial de foot

11 juin 2018

Comme chacun sait, ou en tout cas le saura bientôt, au vu du matraquage médiatique lié habituellement à un tel événement sportif, cette semaine débute en Russie la 21ème édition de la Coupe du monde de football. Elle verra s’affronter entre le 14 juin, date du match d’ouverture entre l’équipe russe et celle d’Arabie saoudite, et le 15 juillet, date prévue pour la finale de cette compétition, les 32 meilleures équipes nationales du moment.

On a tous en tête l’analyse, tout en finesse, formulée en 1990 par le footballeur anglais Gary Lineker : « Le football est un sport simple : 22 joueurs courent après un ballon pendant 90 minutes, et à la fin, ce sont les Allemands qui gagnent ». Sauf qu’une nouvelle théorie beaucoup plus sérieuse vient d’émerger qui remet totalement en cause cette vision excessivement réductrice de la compétition footballistique.

C’est un article signé par Vincent Grimault pour le magazine Alternatives économiques qui vient éclairer d’un jour nouveau les mécanismes qui régissent ce domaine où néanmoins l’aléa garde toute sa place, surtout en matière de football, un des sports où la chance joue malgré tout une certaine part et où le talent, la motivation, la force physique et la technicité des joueurs ne sont pas toujours suffisant pour expliquer les résultats.

Si l’on fait néanmoins abstraction de cette part liée aux impondérables de toute nature qui peuvent conduire à des scores parfois inattendus, l’analyse pseudo-économique à laquelle s’est livrée Alter Eco pour prédire les résultats du prochain Mondial de foot ne manque pas de sel et elle mérite d’être détaillée. Elle se base sur un constat simple qui saute aux yeux lorsqu’on décortique les résultats de l’Euro 2016 sous l’angle du taux de prélèvements obligatoires en vigueur dans les différents pays qui s’y sont affrontés : les pays où la pression fiscale est la plus forte sont ceux qui ont obtenu les meilleurs résultats dans cette compétition !

Taux de prélèvement obligatoire des participants à l’Euro 2016 en fonction de leur résultats (infographie © Alternatives économiques)

Comme toute théorie (surtout dans le domaine économique, et peut-être plus encore lorsqu’il s’agit de spéculation liée à la compétition sportive), celle-ci souffre naturellement quelques exceptions dont la Suède éliminée dès le premier tour malgré son taux de prélèvement supérieur à 50 %, ou la Pologne parvenue en quart de finale avec pourtant un taux de fiscalité dérisoire de 18,5 %. Il n’empêche que les 4 équipes arrivées jusqu’en demi-finales présentent toutes un taux de prélèvement élevé, qui approche les 49 % en moyenne.

A première vue, on pourrait certes s’interroger sur le lien qui existe entre l’aptitude à marquer des buts et ce taux de prélèvements obligatoires, lequel est le rapport entre l’ensemble des taxes, impôts et cotisations sociales d’un pays et son produit intérieur brut (PIB). Mais en réalité, la corrélation est évidente comme l’explique l’article de Vincent Grimault : « les pays à haut niveau de fiscalité sont, de façon générale, les plus développés. Grâce aux dépenses publiques, et à des systèmes de protection sociale de qualité, les habitants y sont en bonne santé et ont du temps libre pour pratiquer le sport. Par ailleurs, grâce à un haut niveau d’investissement public, les pratiquants de football de ces pays peuvent s’entraîner sur des équipements de qualité, encadrés par des éducateurs, au sein de clubs structurés, souvent payés en partie par les collectivités. », CQFD…

Les joueurs de l’équipe nationale d’Islande lors de l’Euro 2016 (photo © Denis Balibouse / Reuters)

Et l’auteur de l’article en veut pour preuve « le miracle islandais, qui a vu l’Islande et ses 320 000 habitants se qualifier pour les quarts de finale de l’Euro 2016, puis se qualifier cette année pour la première Coupe du monde de son histoire », une performance qui s’explique très bien grâce à des équipements sportifs de haut niveau et à des éducateurs compétents, comme quoi le service public a du bon, même dans ce domaine du football professionnel…

Dans ces conditions, cela devient un jeu d’enfant que de prédire les résultats du prochain Mondial de football ! L’équipe d’Alternatives économiques s’est bien entendu livré à l’exercice selon une méthodologie parfaitement rigoureuse, quoique mâtinée néanmoins d’une petite dose de chauvinisme et sans oublier totalement l’expertise sportive lorsque le seul critère fiscal ne permet pas de trancher de manière définitive.

Taux de prélèvement obligatoire (valeurs 2013) des participants à la Coupe du monde 2018 (infographie © Alternatives économiques)

Il faut dire que, sous cet angle, les écarts entre compétiteurs sont plutôt larges, entre un pays comme le Nigeria où le taux de prélèvements obligatoires dépasse à peine 11 % et le champion du monde qu’est le Danemark avec son taux de 58,7 % tandis que la moyenne des pays engagés dans le Mondial s’établit à 33,5 %.

A cette aune, on ne s’étonnera donc pas que les prévisions de nos économistes amateurs de football annoncent une finale entre le Danemark et la France, cette dernière étant particulièrement bien placée avec son taux de prélèvements obligatoires de 53,5 % ! De là à affirmer que la France a toutes les chances de remporter cette prochaine coupe du monde de football, comme le fait le journaliste d’Alter Eco, c’est peut-être aller un peu vite en besogne et oublier quelques menus détails d’ordre plus sportif qui ne plaident sans doute pas autant en faveur de notre équipe nationale…

Emmanuel Macron poussant la balle à l’occasion d’une visite au centre d’entraînement de l’OM le 15 août 2017 (photo © DR)

Quoi qu’il en soit, voilà en tout cas un argument massue qui plaide sans conteste en défaveur d’une baisse de la pression fiscale pourtant mise en avant par nombre de nos responsables politiques, Emmanuel Macron en tête : espérons que son attirance affichée pour le ballon rond l’amènera à revoir sa politique en la matière !

L.V.  

Vers une privatisation des barrages hydroélectriques ?

21 avril 2018

Voilà une information qui a fait le buzz dans tous les médias, de Libération à La Dépêche du midi, en passant par le blogger Ludo Torbey dont la vidéo d’Osons causer sur le sujet fait un tabac : Macron ose s’attaquer à notre patrimoine hydroélectrique et veut privatiser les barrages d’EDF, pour le plus grand bénéfice des multinationales, Total en tête, mais aussi les Allemands EON et Vattenfall, l’Italien Enel, le Canadien Hydro-Québec, voire des entreprises chinoises qui vont donc s’emparer de nos grands barrages, fleurons du génie industriel français.

Un véritable cauchemar pour les 160 000 salariés d’EDF dont 21 000 dans le secteur de l’hydroélectricité, et principalement les syndicalistes de la CGT qui ont été les premiers à monter au créneau après avoir appris, à l’occasion d’une réunion intersyndicale à Matignon le 7 février dernier, de la bouche de Thibaud Normand et Antoine Peillon, conseillers énergie du Premier ministre, que la France avait fini par céder aux exigences de la Commission européenne et acceptait d’ouvrir à la concurrence certaines des 433 concessions hydroélectriques françaises, et ceci dès 2018.

Barrage EDF de Sainte-Croix sur le Verdon, mis en service en 1974 (source © photothèque EDF)

On dénombre en France de l’ordre de 2300 installations hydroélectriques dont 433 donc qui relèvent du régime de la concession car d’une puissance supérieure à 4,5 MW. Elles totalisent à elles-seules 95 % de la puissance installée, soit de l’ordre de 24 GW. La part de l’hydroélectricité dans le mix énergétique français est relativement modeste, autour de 12 % (deux fois moins qu’au Portugal par exemple), même si l’hydroélectricité représente plus des deux tiers de l’énergie renouvelable produite en France.

Quoi qu’on en dise, la France reste totalement dépendante de la filière nucléaire pour son alimentation électrique et EDF fait tout pour que cette situation perdure, s’opposant de toutes ses forces à la volonté politique de réduire la part du nucléaire, refusant obstinément de fermer ces centrales même en fin de vie.

Or sur ces 433 concessions hydroélectriques, l’entreprise EDF en gère près de 85 %, le reste se partageant entre la CNR (Compagnie nationale du Rhône) et la SHEM (Société hydro-électrique du Midi). La CNR, créée en 1933, privatisée en 2001 et premier producteur français d’énergie exclusivement renouvelable est détenue principalement par le groupe public Caisse des Dépôts et des collectivités territoriales, avec comme actionnaire de référence minoritaire ENGIE (ex GDF-Suez). La SHEM, également producteur d’énergie 100 % renouvelable et lointaine héritière de la Compagnie des chemins de fer du Midi est aussi une filiale d’ENGIE.

C’est cette position dominante, quasi exclusive, d’EDF sur le parc hydroélectrique français, que l’Union européenne conteste depuis des années, prônant pour une ouverture à la concurrence. Car, contrairement à ce qu’on pourrait imaginer, les barrages en question n’appartiennent pas à EDF mais à l’État qui en a financé la construction (un gros investissement puisque l’on considère qu’il faut de l’ordre de 1 milliard d’euros pour aménager de quoi produire 1 GW).

Marcel Paul, syndicaliste et résistant, ministre de la production industrielle dans le gouvernement de Charles de Gaulle et instigateur de la création d’EDF-GDF en 1946

A l’époque où la plupart de ces barrages ont été construits, juste après la guerre, EDF était un service public, créé en 1946 sous l’impulsion du ministre et ancien résistant Marcel Paul avec un statut d’établissement public à caractère industriel et commercial. Bénéficiant alors d’un régime de monopole, EDF a pu s’arroger la quasi-totalité des concessions hydroélectriques, pour des durées de 75 ans.

Depuis, on s’est rendu compte que les situations de monopole jouaient rarement en faveur de l’usager ou du consommateur. La loi Sapin, adoptée en 2013 pour tenter de lutter contre les pratiques de corruption, a réduit la durée des délégations de services publics précisément pour éviter les dérives liées aux rentes de situation. En parallèle, l’ouverture progressive du marché de l’électricité à la concurrence sous l’impulsion politique de l’Union européenne et la transformation du statut d’EDF, devenue en 2004 une société anonyme cotée en bourse, ont radicalement changé la donne.

Certes, EDF reste détenue à près de 85 % par l’État français, ses autres actionnaires étant pour l’essentiel des investisseurs institutionnels (majoritairement étrangers). Mais l’entreprise se comporte désormais comme un champion de l’ultralibéralisme qui semble avoir totalement tourné le dos à ses valeurs initiales, ouvrant des filiales dans des paradis fiscaux, refusant de développer les énergies renouvelables, confiant la maintenance de ses centrales nucléaires à près de 20 000 sous-traitants en situation de grande précarité, exigeant sans cesse de nouvelles hausses des tarifs de l’électricité tout en amassant de juteux bénéfices.

EDF, fortement critiquée pour la gestion peu durable de son parc électronucléaire

Et l’hydroélectricité participe pour beaucoup à la constitution de ces bénéfices puisqu’on estime qu’ils s’élèvent à 1,25 milliards par an du seul fait de l’exploitation des concessions hydroélectriques depuis longtemps amorties, au point que l’électricité produite ainsi ne coûte de 20 à 30 € le MWh, contre 50 € le MWh d’origine nucléaire. Ces bénéfices sont principalement réinvestis à l’étranger et notamment au Royaume Uni où EDF a racheté British Energy en 2008 et lancé fin 2016 la construction des deux réacteurs nucléaires très controversés d’Hinkley Point, pour la modique somme d’au moins 21 milliards d’euros.

En 2010, l’État français avait annoncé une première vague d’appels d’offres pour la reprise de certaines concessions hydroélectriques mais sans jamais y donner suite. Au contraire, les concessions d’EDF déjà arrivées à échéance avaient été subrepticement rallongées moyennant quelques menus travaux supplémentaires de maintenance des ouvrages, au point qu’en octobre 2015, la commissaire européenne chargée de la concurrence, Margrethe Vestager, a adressé à Laurent Fabius, alors ministre des affaires étrangères et responsable à ce titre des questions européennes, un courrier pour l’informer de l’ouverture d’une enquête sur les concessions hydrauliques accordées en France à EDF.

Travaux de rénovation sur le barrage de Sarrans sur la Truyère en 2014 après vidange complète de la cuvette (source © L’Usine nouvelle)

Depuis, les acteurs français jouaient la montre alors que d’autres pays européens dont l’Allemagne avaient dès 2011 obtenu de sortir leurs barrages hydroélectriques du champ de la directive européenne sur les concessions, au même titre que les centrales nucléaires sont exclues du domaine concurrentiel car relevant d’activités « d’importante vitale ».

A l’époque, la France était déjà en position de faiblesse à cause de son taux d’endettement colossal totalement dérogatoire aux critères de Maastricht. Et désormais il se murmure que si le gouvernement a été contraint de céder aux injonctions de Bruxelles c’est pour faire baisser la pression contre le maintien des aides publiques françaises à l’agriculture…

Barrage de Bort-les-Orgues, sur la haute vallée de la Dordogne, mis en service en 1952 (source © Corrèze tourisme)

Toujours est-il que l’on annonce dès 2018 la remise en concurrence de certaines concessions hydroélectriques dont les barrages de Haute-Dordogne, celui de Beaufortain en Savoie et celui du Lac Mort en Isère. Les autres concessions suivront progressivement jusqu’en 2050, au fur et à mesure que les concessions initiales arriveront à échéance, conformément aux conventions signées initialement mais qu’EDF espérait bien ne jamais voir appliquer : dura lex, sed lex…

L.V. 

Coca-Cola se jette à l’eau…

14 avril 2018

Un dessin signé Nagy

Décidément, ces commerciaux sont vraiment trop forts, ou les consommateurs trop crédules ! Voilà que le géant de l’agro-alimentaire, la firme créée à Atlanta en 1885, The Coca-Cola Company, à l’origine de moult scandales de corruption, d’actions musclées de lobbying et d’études pseudo-scientifiques mensongères, voilà que cette société multinationale s’apprête à vouloir vendre aux Français de l’eau en bouteille au prix astronomique de 2,80 € le litre !

Voyant en effet les ventes de ses sodas stagner dans les pays européens où le marché est depuis longtemps saturé, la société cherche à se diversifier. Elle a déjà investi dans le domaine du bio avec les thés et infusions Honest et Fuze Tea. Mais son calcul vise surtout le marché de l’eau en bouteille, particulièrement florissant notamment en France où la consommation par habitant d’eau en bouteille est la deuxième du monde ! En 2015, la vente d’eau embouteillée en France représentait un chiffre d’affaire colossal de 2 milliards d’euros, avec une croissance estimée à 4,9 % pour l’année 2017, tant en volume qu’en valeur.

Un dessin d’Olivero

C’est incontestablement une victoire impressionnante des rois du marketing que d’avoir ainsi réussi à instiller aux Français l’idée que les eaux vendues dans des bouteilles en plastiques sont meilleures que celle qui sort du robinet alors que cette dernière est nettement plus contrôlée et infiniment moins chère.

En tout cas, Coca-Cola a bien repéré qu’il y avait là des bénéfices à engranger et s’apprête donc à venir tailler des croupières aux trois grands groupes qui se partagent actuellement 80 % de ce marché juteux. Nestlé Waters caracole en tête des ventes avec notamment ses marques d’eaux minérales Perrier, Vittel, Hépar ou encore Contrex, suivi de près par Danone, propriétaire entre autres des marques Evian, Badoit ou Volvic. Le troisième larron est le groupe Neptune qui commercialise par exemple Vichy Célestins, Saint-Yorre ou Pierval.

Mais Coca-Cola, troisième producteur mondial d’eau en bouteille, est prêt à en découdre et il met donc un pied sur le marché hexagonal en lançant la commercialisation de son eau en bouteille Smartwater après trois ans d’étude de marché. Lancée en 1996 aux États-Unis, puis en 2014 au Royaume Uni, cette marque, bien que vendue 5 fois plus cher que ses concurrents, s’est rapidement imposée sur le marché américain où elle truste 63 % des ventes, tandis que chez nos voisins anglais elle a déjà conquis 11 % de parts du marché en moins de 4 ans.

Un succès commercial d’autant plus étonnant qu’il s’agit d’une eau captée à la source de Morpeth, une ville du Northumberland, dans le nord de l’Angleterre, mais cette eau naturelle est ensuite distillée par évaporation puis reconstituée en y introduisant des sels minéraux, ceux-là même que le processus de distillation a éliminés. Une véritable aberration en matière de traitement d’eau, qui explique d’ailleurs le coût particulièrement élevé de cette eau totalement artificielle. Mais cela ne semble guère gêner les consommateurs qui retiennent seulement l’argument commercial de la purification à outrance…

Dès le mois d’avril, les consommateurs français qui ne regardent pas à la dépense trouveront donc, pour l’instant uniquement dans les magasins de la chaîne Monoprix, les bouteilles étiquetées Smartwater. De contenance 600 ml, ces bouteilles seront vendues au prix exorbitant de 1,40 € le flacon pour l’eau plate, et jusqu’à 1,75 € pour l’eau gazeuse. Un vrai luxe quand on compare avec l’eau du robinet qui revient en moyenne à moins de 4 € le mètre cube, soit 0,4 centimes le litre…

Dasani, l’eau en bouteille de Coca-Cola qui a fait un flop en Europe

Rien ne dit que le succès commercial sera au rendez-vous, d’autant que Coca-Cola a déjà subi un échec cuisant sur le marché européen. C’était en mars 2004. La firme d’Atlanta venait de dépenser 20 millions d’euros en budget publicitaire pour préparer l’ouverture du marché français à accueillir son eau en bouteille vendue sous la marque Dasani.

Un beau succès commercial aux USA où cette marque introduite en 1999 avait réussi à se placer parmi les eaux les plus vendues, mais un véritable accident industriel au Royaume Uni où la compagnie américaine se trouvait alors confrontée à une levée de bouclier totalement inattendue malgré le matraquage publicitaire qui avait accompagné l’arrivée de Dasani Outre-Manche. Il faut dire que les commerciaux américains ne faisaient pas dans la dentelle, présentant leur « pure eau plate » vendue en petite bouteille bleu clair comme un véritable concentré de pureté, contrairement aux eaux douteuses distribuées au robinet.

Le hic, c’est que l’eau en question, vendue 1,40 € la bouteille de 500 ml, n’était ni plus ni moins que de l’eau du robinet acheminée directement à l’usine Coca-Cola de Sidcup, située dans la banlieue londonienne, par le réseau public géré par Thames Water, une compagnie britannique de distribution d’eau, laquelle facture cette même eau à 0,4 centimes le demi-litre. La compagnie de service public en question ne s’est bien entendu pas privée de faire remarquer que le procédé frisait l’escroquerie…

Coca-Cola a certes fait valoir que l’eau en question subissait une purification supplémentaire par osmose inverse avant ajout de sels minéraux. Mais quand, de surcroît, la firme a été contraint de retirer de la vente 500 000 bouteilles en raison d’un taux de bromates supérieur aux normes britanniques autorisées, elle a alors préféré jeter l’éponge et renoncer à introduire son eau en bouteille Dasani tant en France qu’en Allemagne, se limitant à y commercialiser l’eau minérale issue de la source belge de Chaudfontaine acquise par les Américains en 2003.

A l’époque, la firme Coca-Cola s’était même vu décerner le prix Ig Nobel (prononcez « ignoble » en anglais, un prix satirique attribué chaque année par le magazine scientifique Annals of Improbable Research) de chimie 2004 « pour son usage de la technologie avancée pour convertir l’eau contaminée de la Tamise en Dasani, une eau minérale embouteillée… qu’il a fallu finalement retirer des étalages, pour présence d’un produit cancérigène ». Une distinction dont la firme d’Atlanta se serait sans doute bien passée mais que chacun a déjà oubliée… Vive le marketing !

L.V. 

Le Bulgare et la cigogne

30 mars 2018

Décimées dans les années 1970, date à laquelle les populations de cigognes blanches avaient quasiment disparu du sol français, sous l’effet cumulé des pratiques agricoles, de la pollution, de la chasse mais aussi des épisodes de sécheresse en Afrique, ces populations d’échassiers migrateurs, désormais protégés en France depuis 1981, se sont peu à peu reconstituées.

Nids de cigognes sur les toits alsaciens

Alors qu’il ne subsistait que 11 couples nicheurs recensés sur le sol national en 1974, principalement en Alsace, les efforts menés depuis pour réintroduire l’espèce mais surtout protéger son habitat en restaurant certaines zones humides ont porté leurs fruits puisque l’on comptait en France plus de 1600 couples en 2010.

Pour autant, certaines régions d’Europe orientale restent nettement plus attractives pour ces oiseaux migrateurs que l’on voit arriver au printemps et repartir à l’automne pour leur migration africaine. Ainsi, on estime que plus de 50 000 cigognes, soit 20 % de la population mondiale connue, passent l’été en Pologne. Sciences et Avenir cite ainsi en exemple le petit hameau de Zywkowo situé à l’extrême nord du territoire polonais, tout près de l’enclave russe de Kaliningrad : dans les années 1960, on y dénombrait 120 habitants et 20 cigognes, mais désormais les chiffres se sont inversés et les rares habitants restés sur place consacrent tout leur temps à entretenir les mares et installer des plateformes sur leur toit pour faciliter l’accueil de ces migrateurs africains.

Nid de cigognes à Zywkowo en Pologne (source © Sciences et Avenir)

Et la Pologne n’est pas le seul pays d’Europe de l’Est à se montrer aussi accueillant envers ces populations émigrées, malgré les dérives nationalistes de ses responsables politiques. C’est une dépêche de l’AFP, relayées par plusieurs médias dont le Point, qui s’en est fait récemment l’écho : en Bulgarie, les premières cigognes arrivées en mars en pleine vague de froid polaire, se sont retrouvées littéralement congelées et ont dû être secourues par les habitants du cru.

Safet Halil, un employé de voirie quinquagénaire de Zarista, au nord-est de la Bulgarie, s’est ainsi distingué en recueillant au bord de la route cinq cigognes blanches aux ailes gelées. Il les a transportées dans sa demeure, par ailleurs fort modeste, a allumé le poêle pour les réchauffer et leur a acheté du poisson. Deux jours plus tard, les cigognes étaient toujours installées dans leur foyer d’hébergement provisoire, profitant de l’hospitalité du Bulgare au grand cœur avec qui elles avaient manifestement sympathisé, poussant même la familiarité jusqu’à lui donner quelques coups de bec amicaux.

Safet Halil et les cigognes qu’il héberge à domicile (photo © Dimitar Dilkoff / AFP)

Et le cas n’est pas isolé puisqu’une quarantaine d’habitants de la région l’auraient imité, récupérant de nombreuses cigognes en détresse du fait de la vague de froid et des chutes de neige qui ont sévi toute la semaine dernière dans ce secteur. Mises à l’abri dans des garages et des hangars agricoles, nombre de cigognes ont ainsi pu être sauvées. Une situation peu courante et qui a suscité de nombreux échanges sur les réseaux sociaux dans un pays où la population de cigognes est en hausse puisque le dernier recensement effectué en 2016 fait état de plus de 6000 de ces volatiles soit 1000 de plus qu’en 2010 : un afflux migratoire sans précédent mais dont les Bulgares se réjouissent.

Puissent tous les populations de migrants en provenance de régions africaines bénéficier d’un accueil aussi chaleureux dans nos contrées…

L.V. 

Classement Forbes : les milliardaires vont bien, merci

17 mars 2018

Bernard Arnault, première fortune française et quatrième mondiale, à la une de l’édition française du magazine Forbes

Cela fait partie des marronniers traditionnels de la presse mondiale qui adore publier des classements de toutes sortes. La liste des milliardaires mondiaux, que le magazine économique américain Forbes édite chaque année, fait partie des références qui font toujours couler beaucoup d’encre. Celle qui vient d’être diffusée pour l’année 2018 et qui prend pour référence la date du 9 février, dénombre exactement 2043 milliardaires en dollars, détenant à eux seuls une fortune cumulée de près de 7 700 milliards de dollars, soit trois fois le PIB de la France… Le chiffre a doublé depuis 2010, tant en montant qu’en nombre, ce qui traduit une remarquable progression dans l’art de concentrer la fortune mondiale aux mains d’une poignée d’heureux élus. Et comme les précédents, ce classement par nature arbitraire et incomplet fait jaser.

Le Monde mais aussi Arrêt sur image se sont ainsi empressés de critiquer ce classement 2018 qui, comme les précédents, passe « à côté de fortunes gigantesques dissimulées par leurs propriétaires dans des juridictions discrètes et des structures opaques, comme les sociétés écran, les fondations ou les trusts ».

Par nature, le classement proposé ne peut guère représenter fidèlement la répartition mondiale de la richesse, quelle que soit la qualité des enquêtes journalistiques, tout simplement parce que les plus riches s’ingénient à masquer une partie de leur fortune pour s’épargner des prélèvements fiscaux trop importants. C’est ainsi que l’enquête sur les Paradise Papers, publiée en novembre 2017, avait révélé que l’homme d’affaires américain Jim Simons, fondateur et gérant du fonds spéculatif new-yorkais Renaissance Technologies, avait dissimulé entre 7 et 15 milliards de dollars qui s’ajoutent donc a minima à sa fortune estimée en 2017 par Forbes à 18,5 milliards, ce qui change quand même significativement la donne…

Le prince saoudien Mohamed ben Slaman (photo © Reuters)

On reproche souvent aussi au magazine Forbes de ne volontairement prendre en compte qu’une partie seulement des magnats de la planète, excluant délibérément tous les dirigeants politiques et les monarques alors que plusieurs d’entre eux auraient largement leur place dans cette liste d’heureux privilégiés. C’est ainsi que, contre toute attente, le prince héritier et nouvel homme fort d’Arabie saoudite, Mohamed ben Salman, qui s’était offert en 2015 la maison la plus chère du monde, pour la modique somme de 275 millions d’euros et qui est également l’heureux propriétaire d’un yacht estimé à 420 millions d’euros, ne fait pas partie de la liste Forbes des milliardaires mondiaux. Pas plus d’ailleurs que les nombreux autres milliardaires saudiens dont la fortune est pour le moins menacée dans le cadre de la récente campagne anti-corruption qui s’est traduite, depuis novembre 2017, par l’arrestation de 381 hauts dignitaires du régime dont une cinquantaine dort encore en prison et qui ont déjà dû verser à l’État la bagatelle de 107 milliards de dollards !

On ne trouvera pas non plus dans la liste de Forbes des dirigeants comme Vladimir Poutine alors que les Panama Papers ont révélé qu’il détenait des actifs conséquents dans certains paradis fiscaux, pas plus d’ailleurs que la famille royale d’Angleterre. Il faut dire que le classement de Forbes a quelques difficulté à rendre compte de la gestion familiale des grandes fortunes. Il fait ainsi apparaître de manière groupée les deux frères Martin et Olivier Bouygues, à la tête du groupe de BTP et de médias du même nom, avec une fortune globale de 4 milliards d’euros.

Emmanuel Besnier, dirigeant du groupe Lactalis et 5ème fortune française (photo © Eric Dessons/JDD)

Mais il dissocie d’une part le PDG de Lactalis, Emmanuel Besnier (5ème fortune de France avec un joli pactole de 11,3 milliards d’euros, malgré les déboires de son usine de lait infantile de Caen contaminée depuis des années à la salmonelle, et surtout grâce à ses pratiques commerciales qui étranglent les éleveurs laitiers) et d’autre part l’un de ses frères, Jean-François, et sa sœur, Marie, qui figurent tous deux également dans le classement Forbes en 14ème position des fortunes française avec 4 milliards d’euros chacun, excusez du peu...

Forbes ne cite pas en revanche des entrepreneurs comme Christian Courtins-Clarins, possesseur avec sa famille d’un empire du cosmétique qui réalisait, en 2016, 4,5 milliards de chiffre d’affaire. Il ne cite pas non plus les PDG de grosses sociétés de spiritueux tels que Pierre Castel ou Alexandre Ricard, ni même Benjamin de Rothschild, le président du groupe financier du même nom, pourtant crédité par Challenges de 4,5 milliards d’euros. Pas de trace non plus dans ce classement des familles Peugeot ou Michelin, ni même de la famille Mulliez dont la fortune est pourtant évaluée autour de 40 milliards d’euros, un oubli sans doute...

Dessin de Gros publié dans Marianne

Ces approximations incitent donc à traiter avec prudence un tel classement. Il présente néanmoins le mérite de montrer qu’il existe en France au moins de 40 milliardaires en dollars. Le magazine économique Challenges en avait dénombré 88 en 2017 et son prochain classement attendu en juillet sera probablement plus proche de la vérité. Quoi qu’il en soit, la bonne nouvelle, pour ceux qui s’inquiéteraient éventuellement de la bonne santé financière des grandes fortunes françaises, c’est que nombre de ceux qui figurent dans ce classement ont vu leur fortune s’accroître confortablement depuis l’an dernier.

A l’exception de quelques maladroits comme Patrick Drahi dont la fortune est passée de 13 milliards en 2017 à 6 milliards cette année du fait des difficultés que rencontre Altice, la maison-mère de SFR, nombre d’entre eux ont vu leurs actifs s’étendre de manière assez spectaculaire. Félicitations en particulier à Bernard Arnault, l’heureux patron du groupe LVMH qui, avec une fortune estimée à 72,2 milliards de dollars, occupe désormais la première place du classement français et est considéré par Forbes comme la quatrième fortune mondiale, certes derrière Jeff Bezos (Amazon) et Bill Gates (Apple), mais devant Mark Zuckerberg, le patron de Facebook. En un an, sa fortune a tout simplement doublé, passant de 30 à 60 milliards d’euros, de quoi rassurer les porte-parole du patronat français, toujours inquiets quant à la rentabilité de nos entreprises hexagonales et au faible taux de rémunération de leurs dirigeants…

Tout ceci est d’autant plus encourageant que le cas n’est pas isolé puisque la troisième fortune de France (derrière la fille de Liliane Bettencourt, désormais 18ème fortune mondiale et détentrice d’un beau magot évalué à 42,2 milliards de dollars : on comprend mieux a posteriori pourquoi certains s’étaient donnés tant de mal pour tenter de capter l’héritage de l’empire l’Oréal…), le délicieux François Pinault, a lui aussi quasiment doublé son capital en un an grâce à la bonne santé de son groupe Kering, ex Pinault-Printemps-Redoute, dont le chiffre d’affaires a augmenté de près de 45 % depuis 2017 et les bénéfices de 120 % : merci patron ! Citons aussi au passage l’inénarrable Serge Dassault, patron du Figaro et vendeur de Rafale à ses heures perdues, dont la fortune s’est nettement consolidée, passant en un an de 16,1 à 22 milliards de dollars.

Dessin publié dans le Canard enchaîné du 14 mars 2018

Voilà certainement qui devrait mettre du baume au cœur au reste des Français, certes moins fortunés et qui n’ont pas nécessairement connu une progression aussi fulgurante de leur fortune personnelle, mais c’est en tout cas sans doute la première fois que le classement Forbes fait état de 2 Français dans le Top 20 des plus grandes fortunes mondiales : la preuve assurément que l’économie du pays est sur la bonne voie…

L.V.  

Camp des Milles : entre devoir de mémoire et incitation à la résistance

12 mars 2018

C’est un endroit que l’on a tout fait pour oublier pendant près de 40 ans et qui, grâce à l’obstination de certains, a fini par devenir un lieu de mémoire. Dans cette ancienne tuilerie proche du village des Milles, à côté d’Aix-en-Provence, désaffectée en 1939 du fait de la crise économique, ce sont plus de 10 000 personnes qui ont été internées entre 1939 et 1942, dont plus de 2000 ont été déportées, à l’instigation du régime de Vichy, vers le camp d’extermination d’Auschwitz, via les autres camps français de Drancy et de Rivesaltes.

Le bâtiment de la tuilerie du Camp des Milles (crédit photo AMCM)

Il a fallu attendre 1982 pourtant, pour que certains, anciens déportés et résistants mais aussi universitaires, se mobilisent pour tenter de sauver les vestiges de cet ancien camp d’internement, le seul grand camp français encore intact datant de cette période sombre. Un arrêté de classement est alors pris afin de sauver la grande fresque murale du réfectoire et en 2004 ce sont finalement l’ensemble des bâtiments du site qui font l’objet d’un classement au titre des monuments historiques.

En 1985, une première stèle commémorative est inaugurée et se crée un Comité de coordination pour la sauvegarde du camp des Milles et la création d’un musée mémorial de la Déportation, de la Résistance et de l’Internement, relayé à partir de 1991 par l’Association du wagon-souvenir et du site-mémorial du Camp des Milles, puis, à compter de 2009, par la Fondation du Camp des Milles – Mémoire et Éducation, présidée par Alain Chouraqui, directeur de recherche au CNRS.

Alain Chouraqui et Jean-Marc Ayrault devant le Wagon du Souvenir le 10 septembre 2012, lors de l’inauguration du site-mémorial

Et le 10 septembre 2012 enfin, 70 ans, jour pour jour, après le départ du dernier convoi de déportés du Camp des Milles vers Auschwitz, a été inauguré, en présence du Premier Ministre d’alors, Jean-Marc Ayrault, et dès lors ouvert au public, le site-mémorial qui se donne pour fonction d’informer de manière scientifique et objective sur l’histoire de ce lieu, mais aussi d’entretenir la mémoire des événements tragiques qui s’y sont déroulés et enfin d’amener chacun, et notamment les plus jeunes, à réfléchir sur les mécanismes qui peuvent conduire aux génocides et sur les comportements à adopter pour résister à de tels engrenages.

L’histoire elle-même de ce lieu exceptionnel est étonnante. En septembre 1939, lorsque le camp est ouvert, à l’initiative du gouvernement français dirigé par le radical-socialiste Edouard Daladier, l’objectif est d’y interner des ressortissants étrangers, d’origine allemande ou autrichienne pour la plupart d’entre eux et considérés comme des ennemis du fait de l’entrée en guerre contre le Reich Allemand alors que, paradoxalement, il s’agit pour l’essentiel d’intellectuels et d’opposants anti-fascistes réfugiés en France pour échapper à la montée du nazisme.

Parmi eux figurent notamment le peintre dadaïste allemand Max Ernst, proche de Paul Éluard et de Joan Miro, qui finira par rejoindre les États-Unis en 1941 avec l’aide de Peggy Guggenheim. On y retrouve aussi un autre peintre surréaliste Hans Bellmer, de nombreux musiciens, architectes, sculpteurs, écrivains, journalistes, hommes politiques et même deux Prix Nobel, Otto Meyerhof, distingué en 1922, et Thadeus Reichstein qui le sera en 1950 pour sa découverte de la cortisone. Cette forte proportion d’intellectuels et d’artistes explique le foisonnement de la production artistique qui se déroule dans les murs du camp à cette période et qui laisse de nombreux vestiges dont les fameuses fresques murales du réfectoire.

Fresque peinte dans le réfectoire du Camp des Milles par des internés

A partir de juin 1940 et la défaite militaire de la France, le camp accueille de très nombreux étangers transférés depuis d’autres camps du Sud-Ouest, en particulier nombre d’anciens des Brigades internationales d’Espagne, mais aussi des Juifs expulsés du Palatinat, du Wȕrtemberg ou du Pays de Bade. La population hébergée dans le camp s’accroît fortement et les conditions d’hygiène se dégradent très rapidement. En novembre 1940, le camp, passé sous l’autorité du Ministère de l’Intérieur, devient le seul camp de rétention français destiné au transit, légal ou illégal, vers l’Outre-Mer.

Photo d’archive du Camp des Milles pendant la période d’internement

Enfin, en juillet 1942, le gouvernement de Laval, qui vient de déclarer officiellement son souhait de voir l’Allemagne gagner la guerre, engage les rafles de milliers de Juifs, y compris dans la zone sud encore non occupée par les Allemands. Ces rafles en zone libre, qui concernent près de 7000 juifs étrangers ou apatrides, dont de nombreux enfants, ont lieu fin août 1942. Le Camp des Milles sert alors de lieu de transit pour nombre d’entre eux avant leur déportation par convois ferroviaires vers le camp d’extermination d’Auschwitz, d’où la plupart ne reviendront pas.

Outre le rôle mémoriel de ce lieu où une exposition montée par Serge Karlsfed liste le nom de tous les enfants juifs victimes de la déportation en France durant la guerre le mémorial du Camp des Milles se veut aussi un lieu pédagogique pour former l’esprit citoyen à empêcher de nouveaux génocides.

Capture d’écran d’une vidéo intitulée « Fais-le pour toi, résiste ! », accessible sur le site du Camp des Milles

Il accueille pour cela de très nombreux scolaires et s’appuie sur un matériel pédagogique très élaboré, à base de nombreuses vidéos, pour démontrer les mécanismes qui peuvent conduire au génocide. Pour cela il s’appuie non seulement sur la Shoah (6 millions de morts), mais aussi sur la persécution des populations tsiganes d’Europe, décimées à hauteur de 25 à 50 % pendant la deuxième guerre mondiale, sur le génocide arménien de 1915 (1,5 millions de morts, soit les deux tiers de la population arménienne de l’empire ottoman), et sur celui des Tutsis au Rwanda en 1994, qui s’est soldé par 1 million de morts, soit 80 % des Tutsis du pays, sous le regard absent des Nations-Unies.

Un des nombreux outils pédagogiques édités pour aider chacun à résister aux extrémismes

Les conditions qui ont rendu possibles ces tragédies sont décortiquées pas à pas : exacerbation des tensions et des frustrations sociales qui se développent dans les périodes de crise économique et sociale, recherche de boucs émissaires sur la base de préjugés, agitation des esprits par une minorité extrémiste très organisée, fausses rumeurs, insultes et violences de rues, appel à l’exclusion puis à la purification ethnique sous le regard passif de la majorité de la population, manipulation des médias, propagande d’État, réduction du champ de la démocratie et mise en place de pouvoirs dictatoriaux…

Face à un tel engrenage, le message est clair : il s’agit, pour chacun d’entre nous, de résister pendant qu’il en est encore temps ! Car comme aimait à le souligner Albert Einstein, « Le monde est dangereux à vivre, non pas tant à cause de ceux qui font le mal, mais à cause de ceux qui regardent et laissent faire ». C’est en cela que le message pédagogique que cherche à porter le site mémorial du Camp des Milles est particulièrement intéressant et d’actualité : chacun doit se sentir concerné et doit se rebeller contre tous les extrémismes, les discriminations, les formes de racismes et d’exclusion.

Il faut sans cesse s’appuyer sur les leçons de l’Histoire pour se souvenir que les situations de totalitarisme et de génocide ne peuvent se développer qu’en s’appuyant sur une population passive : résister c’est éviter que de telles situations ne se reproduisent ici et maintenant. Un beau message à l’attention de tous les citoyens dans un monde en proie aux crises et aux doutes !

L.V.  

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

La voiture électrique est-elle écologique ?

1 mars 2018

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V. 

France-Allemagne : l’analyse de Thomas Piketty

27 février 2018

Thomas Piketty en conférence à Washington le 15 avril 2014 (crédit photo © Ivan Couronne / AFP)

Est-il besoin de présenter Thomas Piketty ? Docteur en économie de l’École des hautes études en sciences sociales et directeur d’études dans cette même institution après avoir été fondateur et premier directeur de l’École d’économie de Paris en 2006, cet économiste engagé, spécialiste des inégalités économiques, s’est notamment fait mondialement connaître pour la parution en 2013 de son ouvrage intitulé Le Capital au XXIe siècle, une somme de plus de 1000 pages qui le conduisit à donner de nombreuses conférences mondiales très remarquées y compris aux États-Unis.

Proche du Parti socialiste, il s’était engagé comme conseiller économique de Ségolène Royal lors de la campagne présidentielle de cette dernière en 2007, avant de soutenir François Hollande en 2012, pour reconnaître néanmoins sa forte déception a posteriori, allant jusqu’à estimer que « le gouvernement fait exactement le contraire de ce qu’il faudrait ». En 2015, il fait partie, avec Joseph Stiglitz des économistes qui conseillent le candidat du Labour britannique Jeremy Corbyn, et en 2017 on le retrouve dans l’équipe de campagne de Benoît Hamon, favorable à « un revenu universel crédible et audacieux ».

Les idées que soutient Thomas Piketty, en faveur notamment d’une réduction des inégalités par une réforme fiscale ambitieuse via une imposition progressive basée sur l’ensemble des revenus effectifs, ne font certes pas l’unanimité et suscitent même un rejet viscéral de la part des tenants du néolibéralisme, allergiques à toute idée de redistribution des richesses. Une chose est sûre pourtant, rares sont ceux qui contestent la compétence de cet économiste reconnu et ses analyses font souvent autorité.

Ainsi, l’un des articles publiés sur son blog en janvier 2017 et intitulé « De la productivité en France et en Allemagne » a conservé toute son actualité et mérite d’être lu en détail pour préciser certaines de nos idées reçues quant au fameux différentiel de compétitivité entre les deux pays moteurs de la construction européenne. Il n’est pas question ici d’évoquer toute la richesse du raisonnement mais on retiendra néanmoins à titre d’illustration trois ou quatre idées parmi d’autres.

Première affirmation, qui heurtera sans doute certains adeptes du déclinisme à la française : la productivité des économies mesurées en rapportant le PIB (c’est-à-dire la valeur totale des biens et services produits dans un pays au cours d’une année) au nombre total d’heures travaillées (salariés et non-salariés confondus) est quasiment identique en France et en Allemagne, comme d’ailleurs aux États-Unis. Elle représente environ 55 euros par heure travaillée en 2015, et est de plus de 25 % supérieure à celle enregistrée au Royaume-Uni ou en Italie, et près de trois fois plus élevée qu’en 1970 (après prise en compte de l’inflation et du niveau des prix dans les différents pays).

PIB par heure travaillée en parité de pouvoir d’achat et en euros 2015 (source © T. Piketty)

Contrairement à ce que certains voudraient faire croire, la France fait donc partie des quelques pays à forte productivité, de tels taux n’étant en effet dépassés que dans certaines économies très spécifiques basées sur la rente pétrolière (Norvège ou Émirats Arabes Unis par exemple) ou sur les paradis fiscaux (comme le Luxembourg).

Plus instructif encore, on observe que jusque dans les années 1970, la productivité américaine était très supérieure à celle des économies européennes, France comprise. Si la France et l’Allemagne ont pu grosso modo rattraper leur retard dès la fin des années 1980, c’est pour l’essentiel en ayant investi massivement dans l’éducation de leur population en généralisant l’accès à l’enseignement secondaire puis supérieur, avec plus de réussite que nos voisins britanniques et italiens, et davantage d’équité aussi que nos concurrents américains… Comme quoi, miser sur l’éducation est une nécessité absolue !

Nombre d’heures travaillées par an et par emploi (source © T. Piketty)

Deuxième idée intéressante qui ressort de cette analyse de Thomas Piketty : si le PIB par habitant est supérieur aux États-Unis qu’en Europe où il est finalement très comparable entre la France, l’Allemagne et le Royaume Uni (de l’ordre de 3000 € par mois et par personne), c’est parce que le volume d’heures travaillées y est très différent.

Thomas Piketty (crédit photo © Ekko von Schwichow)

Si l’on rapporte le nombre d’heures travaillées au nombre d’emplois, on observe ainsi que ce chiffre est en diminution régulière depuis les années 1970 en France et plus encore en Allemagne (où le phénomène est encore accentué par le développement du temps partiel imposé) alors qu’il est resté nettement plus élevé au Royaume Uni et surtout aux États-Unis. Les 1500 heures travaillées actuellement en moyenne par an en France correspondent peu ou prou à 35 heures hebdomadaires pendant 44 semaines alors que la durée des congés aux USA n’a quasiment pas augmenté depuis les années 1980, ce qui traduit une différence notable de choix de société.

Troisième notion évoquée dans cette analyse : le taux d’emploi par habitant qui, en France, stagne autour de 42 % alors qu’en Allemagne il s’accroit régulièrement depuis le début des années 2000 pour s’approcher désormais de la barre des 50 %. Ce décrochage très significatif de l’emploi en France depuis une quinzaine d’années est particulièrement significatif chez les moins de 25 ans et les plus de 55 ans, reflétant des faiblesses manifestes et inquiétantes en matière de formation professionnelle, de structuration du tissu industriel, de gouvernance des entreprises, mais aussi de financement de la protection sociale.

Dernier point qui mérite aussi d’être cité, sans prétendre tout dévoiler de cette analyse comparative très complète développée ici par Thomas Piketty : la question de l’excédent commercial allemand qui depuis les années 2000 représente toujours plus de 5 % de son PIB, atteignant même jusqu’à 8 % en 2015. Une situation totalement inédite pour un grand pays développé.

Le port à containers d’Hambourg, porte ouverte vers l’exportation

Le Japon a connu lui aussi dans les années 1980 des périodes d’excédent commercial qui lui ont permis d’accumuler des liquidités destinées à anticiper le vieillissement de sa population mais est depuis revenu à l’équilibre et présente même actuellement de nouveau une situation de léger déficit. Au même titre que la France d’ailleurs qui oscille régulièrement entre léger excédent et déficit modéré, alors que les États-Unis se distinguent depuis les années 1980 par un déficit chronique rendu possible par le rôle particulier de leur monnaie qui leur permet de rendre tolérable leur situation d’endettement financier permanent.

Reste que cette situation très particulière d’excédent commercial paraît peu durable à terme car elle suppose d’une part que les autres pays puissent absorber un tel excédent et d’autre part que l’Allemagne soit capable d’investir de manière judicieuse les liquidités ainsi accumulées, ce qui ne semble guère être le cas. La logique voudrait que le pays investisse désormais de manière plus significative dans les salaires (longtemps gelés), dans la consommation et dans l’investissement en Allemagne, afin de rééquilibrer son économie : un véritable défi pour la chancelière Angela Merkel qui peine toujours à former un gouvernement de coalition, cinq mois après les dernières élections législatives, mais un défi aussi pour la construction européenne et la solidité du tandem moteur franco-allemand !

L.V.  

Changement climatique : pourquoi personne ne bouge ?

22 février 2018

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

Jura : la consigne remise au goût du jour

5 février 2018

Consigner les bouteilles en verre : voilà une pratique autrefois très courante et qui a quasiment disparu de notre environnement quotidien. Dans les années 1960, le geste était pourtant des plus banal, qui consistait à rapporter à son épicier où dans les grandes surfaces alors en plein expansion ses bouteilles vides de lait, de vin ou de bière, et ceci en échange de quelques pièces de monnaie ou d’un bon d’achat de valeur modique.

La pratique ne date d’ailleurs pas d’hier puisqu’elle aurait été initiée, dit-on, en 1799 à Dublin par un vendeur d’eau minérale gazeuse, imité dès 1800 par la marque Schweppes. En 1884, la Suède a généralisé le dispositif à grande échelle, allant jusqu’à imposer une standardisation des bouteilles pour en faciliter le recyclage.

Stockage de verre brisé issu du recyclage (source © Verre avenir)

Car le dispositif de la consigne ne présente que des avantages, tant écologiques qu’économiques. Une bouteille consignée (conçue spécifiquement à cet effet pour être plus résistante) peut être réutilisée une cinquantaine de fois moyennant un simple lavage. Ce qui permet d’économiser, selon une étude menée en Alsace et reprise par la fondation Nicolas Hulot, jusqu’à 75 % d’énergie et 33 % d’eau par rapport au recyclage classique qui nécessite de broyer les bouteilles, de débarraser le verre de ses impuretés puis de le fondre dans un four à 1 500 °C afin de fabriquer de nouveaux flacons…

Et pourtant, la France a presque complètement abandonné cette démarche dans les années 1980, alors que la filière des bouteilles en verre se trouvait fortement déstabilisée du fait du développement massif des emballages jetables en plastique. En 1992, lorsqu’a été créé en France le principe de « la responsabilité élargie du producteur », l’objectif prioritaire des industriels était d’éviter qu’on lui impose un système de consigne et ceci pour des raisons purement commerciales. La directive européenne adoptée en 1994 rend en effet désormais obligatoire la reprise ou la collecte des emballages ménagers en vue de leur réutilisation ou leur recyclage.

Récolte sélective du verre : ça déborde parfois… (source © Ouest-France)

La dispositif français oblige quant à lui les entreprises produisant ce qui deviendra des déchets, de verser une contribution financière à des organismes chargés d’organiser les filières de collecte et de traitement de ces déchets, en l’occurrence l’Adelphe, créée en 1993 à l’initiative des opérateurs industriels du secteur des vins et spiritueux. Or le verre pèse pour près de la moitié dans les déchets ménagers des Français, avec environ 2,3 millions de tonnes collectées chaque année par les collectivités. Et les sommes versées par les industriels pour la collecte et le traitement de ces déchets, de l’ordre de 60 millions d’euros par an, ne couvrent qu’une partie du coût, le reste étant pris en charge par les collectivités locales et payé par le contribuable via la taxe d’enlèvement des ordures ménagères.

Automate pour la collecte des bouteilles consignées en Allemagne

Un modèle imposé par les industriels donc, mais qui coûte cher au consommateur comme au contribuable et dont le bilan énergétique est déplorable ! Mais un modèle qui pourrait facilement être changé, à l’exemple de nombreux pays européens dont l’Allemagne où près des trois quarts des bouteilles sont consignées. Il est d’ailleurs cocasse de constater que Verallia, ancienne filiale conditionnement en verre de Saint-Gobain, produit justement des bouteilles consignées destinées au marché allemand

En France, la pratique de la consigne n’a cependant pas totalement disparu puisqu’elle est toujours pratiquée dans les hôtels, cafés et restaurants, ce qui permet ainsi de réutiliser directement environ 500 000 tonnes de verre par an, ce qui représente pas loin d’un milliard de bouteilles, sachant qu’on en produit chaque année de l’ordre de 3,4 milliards…

Et l’Alsace, peut-être en raison de sa proximité culturelle et géographique avec l’Allemagne, n’a jamais abandonné non plus le principe de la consigne, au point de faire des émules puisque l’on assiste depuis quelques années à l’émergence d’un mouvement de réutilisation des bouteilles dans le Jura.

L’initiative date de 2015 et est à porter au crédit de Clus’Ter Jura, une société coopérative d’intérêt collectif, elle-même issue de Juratri, une entreprise d’insertion créée en 1993 à Lons-le-Saunier et spécialisée dans le tri sélectif des déchets. Lauréate de l’appel à projet « Territoire zéro gaspillage, zéro déchet » organisé depuis 2014 par le ministère de l’environnement, l’initiative sobrement intitulée « J’aime mes bouteilles » commence à faire parler d’elle dans les médias.

Aude Weiss, responsable de la filière J’aime mes bouteilles (photo © Laëtitia Achilli)

Une animatrice, Aude Weiss, a été recrutée en septembre dernier pour piloter le projet qui consiste à collecter les bouteilles de vin issus de la production locale et qui sont consommés à 60 % dans le Jura, ce qui rend d’autant plus aisée et rentable leur réutilisation. Depuis un an, ce sont ainsi déjà plus de 50 000 bouteilles de vin qui ont été récupérées dans 25 points de collecte (Biocoop, cavistes, épiceries, etc.) où les clients les rapportent (gratuitement pour l’instant). La structure revend ensuite ces bouteilles aux viticulteurs, au prix de 18 à 20 centimes la bouteille, contre 24 à 27 centimes pour une neuve, ce qui leur permet de les réutiliser moyennant une économie substantielle supérieure à 20 %.

Dispositif de collecte des bouteilles mis en place dans le Jura par J’aime mes bouteilles

Le mouvement ainsi initié est en plein essor et espère augmenter significativement son impact en visant la collecte de 500 000 bouteilles d’ici 2020, avec une extension à d’autres productions locales telles que la bière et les jus de fruits. La mise en place d’une gratification pour inciter davantage les consommateurs à rapporter leurs bouteilles vides est aussi envisagée, comme en Allemagne où les bouteilles sont vendues un peu plus chères, mais où l’acompte est ensuite redonné aux consommateurs qui rapportent les bouteilles : 8 centimes pour une canette de bière, 15 pour une bouteille en plastique recyclable et 25 centimes pour les contenants non recyclables – sous forme de bons en magasin ou via des automates collecteurs.

Non seulement cette pratique est vertueuse sur le plan environnemental en contribuant à diminuer les volumes de déchets, mais de surcroît elle offre aux plus démunis la possibilité d’arrondir leurs fins de mois en ramassant les bouteilles et canettes vides laissées à l’abandon. Comme quoi, bénéfices économiques, sociaux et environnementaux arrivent parfois à se rejoindre !

L.V.  

Inondations : on a trouvé les coupables !

3 février 2018

Une nouvelle fois, la France vient de connaître une vague d’inondations spectaculaires. A Paris, le niveau de la Seine est monté la semaine dernière à 5,85 m et aurait selon toute vraisemblance dépassé les 6,40 m sans l’action des quatre lacs-réservoirs situés en amont du Bassin parisien. A un tel niveau, certes très inférieur à celui observé en janvier 1910, mais qui n’avait pas été atteint depuis 1955, les dégâts sur les réseaux et infrastructures auraient pu être considérables, en particulier sur le réseau de transports et notamment le RER C qui commence à être sérieusement menacé au-delà de 6,20 m.

Les bords de Seine à Paris le 22 janvier 2018 (photo © Stéphane de Sakutin / AFP)

Et comme toujours dans ces cas-là, on cherche les coupables… Ainsi que lors de chaque épisode de ce type, les rumeurs les plus absurdes courent, alimentées par la certitude, aussi irrationnelle que récurrente, selon laquelle : « ils nous ont inondés pour protéger Paris » (ou tout autre ville d’ailleurs, selon l’endroit où l’on se place…). Il est toujours difficile d’admettre que l’on a été inondé parce qu’il a beaucoup plu et que l’on est situé en zone inondable, dans le lit majeur d’un cours d’eau…

Et ceci malgré tous les dispositifs de protection contre les inondations qui ont pu être mis en place et qui ont souvent joué un rôle atténuateur très bénéfique comme cela a été le cas en janvier 2018 avec les lacs-réservoirs qui ont dérivé et stocké en amont du bassin versant des centaines de millions de mètres cube d’eau, réduisant d’autant les débits en aval.

Alors, puisque l’on a vraiment besoin de trouver un bouc émissaire, ne cherchez-plus. L’explication à ces inondations, exceptionnelles par leur ampleur et leur durée, est parfaitement claire sur la photo suivante, prise le 31 janvier 2018 sur la commune de Montesson, dans les Yvelines, et garantie sans trucage : c’est simplement un étourdi qui a oublié de fermer le robinet…

A Montesson, le 31 janvier 2018 (photo © Frédéric Gache / EPTB Seine Grands Lacs)

Et pour les Parisiens qui ont une dent contre la politique menée depuis des années par la Ville de Paris en faveur de la réduction de la voiture en ville et de la réappropriation des voies sur berges par les piétons, voici une seconde explication, tout aussi recevable…

Dessin de Lacombe publié dans Marianne le 2 février 2018

Lorsque les forces de la nature dépassent l’entendement, il est toujours rassurant de se raccrocher à des explications simples et pleines de bon sens !

L.V.