Posts Tagged ‘Sciences’

Intelligence artificielle : les robots jouent à cache-cache…

29 octobre 2019

En matière d’intelligence artificielle, la recherche avance à grands pas. Depuis que l’ordinateur est devenu capable de battre n’importe quel humain d’abord aux échecs puis au jeu de go, infiniment plus complexe, on ne compte plus les applications qui mobilisent l’intelligence artificielle dans tous les domaines.

Victoire du logiciel Alphago face au joueur coréen Lee Sedol en 2016 (source : capture vidéo © DeepMind)

Mais il s’agit généralement de tâches bien précises pour lesquels l’ordinateur a été programmé et dans lesquelles il progresse en apprenant, sans pour autant être en capacité d’utiliser cette intelligence dans un autre domaine : un robot capable de piloter une voiture ne sera pas en mesure d’interpréter un scanner médical ou de jouer au poker, contrairement à certains humains qui s’adonnent (avec plus ou moins de bonheur et pas forcément simultanément) à ces différentes activités…

C’est donc tout l’enjeu de l’intelligence artificielle générale, pour laquelle le milliardaire visionnaire Elon Musk, fondateur de Tesla et initiateur de l’Hyperloop a investi en créant en 2015 la société Open AI en coopération avec l’investisseur Sam Altman. Une entreprise présentée comme un laboratoire à but non lucratif et dans laquelle Microsoft a également décidé d’investir par moins d’un milliard de dollars comme l’indiquait récemment Le Figaro.

Jusqu’à présent, cette société qui suscite la curiosité de la Silicon Valley, n’avait guère montré de résultats face à la concurrence de Google, en pointe dans le secteur de l’intelligence artificielle après avoir racheté Deep Mind, créateur de la machine championne du jeu de go. Mais Open AI vient de frapper un grand coup en apprenant à de petits robots comment jouer à cache-cache !

Trouvé ! Les petits androïdes jouent à cache-cache… (source © Open AI)

L’affaire paraît bien anodine et ferait se gausser n’importe quel élève de maternelle tant le jeu de cache-cache est à la portée du premier garnement venu. Compter jusqu’à 10 pendant que ses petits copains se planquent et fureter ensuite dans tous les recoins pour les débusquer, voilà qui ne fait pas appel à une stratégie très complexe à première vue.

En l’occurrence, comme l’explique notamment Sciences & Avenir, l’expérience d’Open AI ressemble à un jeu de plateau avec de petits agents dotés d’intelligence artificielle, propulsés par un système informatique constitué de 5 réseaux de neurones artificiels indépendants : les robots qui évoluent au milieu de cloisons et de différents objets, sont en capacité de prendre des décisions de façon autonome et apprennent de leurs erreurs afin de développer de nouveaux comportements.

Vu ! Au début, les bleus se font repérer comme des bleus… (source © Open AI)

L’équipe bleue doit se cacher et les rouges se mettent à leur recherche. Les consignes données aux 2 équipes, constituées chacune de 1 à 3 joueurs, sont assez sommaires : tout joueur bleu qui se retrouve dans le champ de vision à 135 ° d’un joueur rouge est considéré comme repéré et son équipe a perdu la partie.

Au début, les bleus font une prestation pitoyable : ils courent dans tous les sens et tentent vainement de s’abriter derrière une cloison mais il suffit que leurs alter-ego rouges contournent la cloison en question pour les dénicher : pas très futés les petits bonshommes bleus…

Les portes sont bloquées : les bleus sont à l’abri… (source © Open AI)

Mais après 25 millions de parties, le déclic se fait : les bleus à force de perdre comprennent qu’ils peuvent tirer parti des objets qui les entourent. Ils se mettent à pousser les caisses pour bloquer les portes et se constituent un fortin où les rouges ne peuvent pénétrer. Il leur faut pour cela collaborer ensemble puisque tout joueur détecté fait perdre son équipe : avec ce type de règle, la solidarité est naturelle, même en intelligence artificielle !

Dès lors, les rouges sont à la peine et il leur faut 75 millions de parties supplémentaires avant de trouver la parade : ils se mettent alors à utiliser les objets en forme de rampes pour grimper dessus et venir débusquer les bleus retranchés dans leur fortin.

Les rouges ont trouvé la parade en utilisant des rampes… (source © Open AI)

L’espoir a changé de camp mais la guerre n’est pas perdue pour autant… Encore quelques millions de parties et les bleus finissent par mettre au point une nouvelle stratégie : pendant que les rouges comptent, ils leur piquent tous les objets susceptibles de servir de tremplin et viennent les cacher dans le fortin où ils se retranchent avant d’en fermer tous les accès par des blocs.

Les bleus reprennent l’avantage en stockant les rampes dans leur camp retranché (source © Open AI)

Les chercheurs pensaient qu’à ce stade le jeu était terminé et que les bleus, bien rodés, étaient désormais en capacité de se mettre systématiquement à l’abri du regard de leurs poursuivants en toutes circonstances, même avec des objets de formes différentes. Mais c’était sans compter sur l’ingéniosité des petits humanoïdes rouges qui, après 380 millions de parties, ont fini par détecter un bug auquel les développeurs n’avaient pas pensé et qui se sont mis à faire du surf en grimpant sur des boîtes. Cet expédient leur a redonné une supériorité irrépressible pour repérer leurs adversaires, même bien planqués dans leur fortin inexpugnable, jusqu’à ce que ces derniers, à leur tour, viennent verrouiller chaque objet à sa place avant de se mettre à l’abri : à toute stratégie se développe une contre-stratégie adaptée…

Les rouges trouvent la solution en surfant sur les boîtes mobiles (source © Open AI)

Une belle leçon en tout cas qui montre que de petits robots dotés d’intelligence artificielle apprennent plus vite qu’on ne l’imagine et s’avèrent capable d’élaborer en groupe des stratégies guerrières redoutables. De quoi donner des sueurs froides à tous les amateurs de science-fiction qui s’interrogent sur ce qu’il adviendra de l’humanité le jour où les robots androïdes dotés d’intelligence artificielle décideront de s’émanciper du contrôle des humains. Ce jour-là, inutile de se cacher pour tenter de leur échapper : le jeu de cache-cache est justement leur passe-temps favori et sachez qu’ils y sont imbattables…

L. V.

La musique adoucit les mœurs et protège des bactéries…

27 octobre 2019

Le 5 novembre prochain se tiendra à Aubagne une conférence intitulée « Pourquoi et comment les plantes sont sensibles à la musique », sensée nous expliquer en quoi certaines musiques seraient capables de faciliter ou au contraire d’inhiber l’action de protéines cibles, devenant ainsi des auxiliaires utiles pour lutter contre les caries dentaires ou aider les agriculteurs à remplacer les produits phytosanitaires.

Une telle découverte scientifique est de première importance, assurément : plus besoin désormais de s’écharper pour déterminer à quelle distance des habitations il convient de se placer pour pouvoir épandre les pesticides. Le glyphosate lui-même perd d’un seul coup tous ses attraits s’il est démontré qu’il suffit de diffuser quelques notes de musique appropriées au milieu d’un champ de maïs pour le protéger contre toutes les attaques de parasites. Plus besoin d’agrochimistes, c’est désormais de mélomanes dont l’agriculture moderne a besoin…

Claude Touzet en 2010

Organisée dans le cadre des mardis scientifiques par l’Université du temps libre du Pays d’Aubagne et de l’Étoile, on pourrait croire au premier abord à un canular, histoire de distraire les Aubagnais qui disposent de temps libre et ne savent pas comment l’occuper. Mais le conférencier, Claude Touzet, maître de conférences au Laboratoire de neurosciences sensorielles et cognitives de l’Université Aix-Marseille, n’est pas un charlatan.

Spécialisé en neurosciences du comportement et auteur d’une thèse de doctorat intitulée sobrement « Modèles connexionnistes séquentiels de l’apprentissage », il a notamment publié en 2014 un ouvrage relatif à la « Théorie neuronale de la cognition » et enseigne la théorie des réseaux de neurones artificiels devant les élèves en cinquième année de l’école d’ingénieurs PolyTech Marseille. Il développe aussi des programmes d’entraînement de la mémoire et de l’attention pour des personnes âgées et souffrant de maladies neurodégénératives.

Joël Sternheimer en 2009 (source © extrait d’interview / Dailymotion)

Claude Touzet s’intéresse par ailleurs aux travaux d’un autre chercheur français, Joël Sternheimer qui, à l’issue de son doctorat en physique théorique, obtenu en 1966 à l’Université de Princeton est ensuite devenu chanteur sous le nom de scène d’Evariste, tout en poursuivant ses travaux de recherche scientifique de manière indépendante, jusqu’à déposer en 1992 un brevet intitulé en toute simplicité « Procédé de régulation épigénétique de la synthèse des protéines par résonance d’échelles ».

Il s’agit là des fondements d’une théorie tout aussi révolutionnaire que sujette à polémique, au point d’ailleurs que beaucoup la qualifient de « pseudo science » non démontrée. Sa théorie se situe au croisement de la physique quantique et de la biologie moléculaire.

Pour faire simple, la synthèse des protéines dans notre corps se fait à partir d’éléments d’ARN messager contenant une séquence de nucléotides (les fameuses quatre bases : uracile, adénine, cytosine et guanine) copiées à partir d’un gène de notre ADN. Cet ARN messager sort du noyau de la cellule et vient se fixer sur un petit organite du cytoplasme : le ribosome. Celui-ci est chargé de traduire l’information contenue dans l’ARN messager et fait correspondre en face de chaque triplet de bases ou « codon » un acide aminé apporté par un ARN de transfert, lequel vient d’ajouter à la chaîne protéique en cours de synthèse. Lorsque le ribosome reconnaît un codon stop, il arrête la synthèse et la protéine nouvellement formée se détache de l’ARN messager.

Schéma de principe de la fabrication des protéines en biologie cellulaire (source © TPE L’influence de la musique)

Dans ce schéma, Joël Sternheimer imagine que l’acide aminé apporté par l’ARN messager, au moment où il vient se fixer sur la chaîne protéique, passe brièvement d’un état corpusculaire à un état ondulatoire au sens de la théorie quantique, et, ce faisant, émet une onde dite « onde d’échelle ». Il a traduit ces ondes en fréquences audibles, autrement dit en notes de musique. A chaque protéine correspond donc une suite de notes, formant une mélodie qu’il a appelée « protéodie » et il a ainsi identifié, pour chaque protéine une protéodie stimulante, qui favorise la synthèse de la protéine, ainsi qu’une protéodie inhibante qui fait l’effet inverse.

L’approche assez originale développée par ce chercheur sous le nom de « génodique » et qui en laisse plus d’un assez sceptique, semble néanmoins présenter de multiples applications très concrètes. Ainsi, en juillet 1994, une expérience menée en Suisse a permis de comparer la croissance de plants de tomates : une protéodie correspondant à la stimulation du gène de la protéine TAS 14 (Tomato anti-sécheresse) était diffusée 3 mn par jour sur une partie des pieds, lesquels ont montré une croissance bien meilleure que ceux de la parcelle témoin pourtant convenablement arrosée.

Comparaison entre plants de tomates arrosés (à gauche) ou baignés de protéodies (à droite (source © Plantemusique)

L’expérience a été renouvelée en 1996 au Sénégal et a montré, là aussi, une croissance et un rendement bien meilleur pour les plants de tomates non arrosés mais baignés de protéodie du TAS 14…

Diffusion de protéodie contre l’esca dans une vigne de Buzet (source © Genodics / Paris Match)

D’autres utilisations de cette approche ont été expérimentées, notamment pour lutter contre l’esca, une maladie cryptogamique de la vigne, connue depuis les Romains et qui est due à l’action combinée de plusieurs champignons à dissémination aérienne. Longtemps combattue à coups d’arséniate de plomb, on la maîtrise désormais par une taille adaptée mais certains vignerons de Champagne ont aussi testé la diffusion en plein champ de protéodies ad hoc…

Un article paru dans la revue Nexus en juin 2018 évoque une autre application de la méthode, pour la lutte contre les caries dentaires. Les responsables de ce fléau mondial, qui fait la fortune des dentistes, sont les bactéries Streptoccus mutans, identifiées dès 1924 et qui transforment le sucre en acide lactique, à l’origine de l’attaque de l’émail dentaire. Pour cela, la bactérie a besoin d’une enzyme, la L-lactate déshydrogénase, LDH pour les intimes, constitué d’une séquence de 328 acides aminées.

Début de la partition de la protéodie inhibante de la LDH_STRMU (source © Revue Nexus)

Pour éviter la formation de caries, il suffit donc d’activer l’inhibition de la formation de LDH en écoutant la protéodie correspondante qui dure 1 mn 22. Une écoute musicale de 5 à 10 mn par jour est recommandée pour un résultat satisfaisant, sachant qu’une bonne hygiène dentaire est également nécessaire.

Autrement dit, il faut écouter la musique tout en se brossant les dents : on n’arrête pas le progrès, mais il y a des limites quand même !

L. V.

Les trains du futur bientôt sur les rails ?

9 octobre 2019

Jules Verne l’avait imaginé dès 1889 : des capsules propulsées à 1200 km/h dans des tubes aériens pour faciliter les transports rapides. L’action était supposée se déroulée en 2889. On y sera peut-être bien avant… L’idée est en effet en train de faire son chemin, reprise notamment par l’entrepreneur sud-africain Elon Musk, désormais installé à Los Angeles, fondateur d’une entreprise qui creuse des tunnels, The Boring Compagny, mais aussi à l’origine des sociétés Tesla, SolarCity ou encore Space X, dont l’objectif est, en toute modestie, de préparer la colonisation de la planète Mars.

Schéma de principe d’un train hyperloop selon la société néerlandaise Hardt Hyperloop (source © Bluewin)

En 2013, il publie un livre blanc qui pose les bases du concept Hyperloop, un moyen de transport ultra-rapide à propulsion électrique, sous forme de capsules circulant dans un tube dépressurisé pour limiter au minimum les frottements : « la vitesse de l’avion avec la fréquence d’un métro ». Depuis, plusieurs sociétés se sont mises au travail, chacune essayant de développer l’idée pour la rendre opérationnelle.

Prototype en cours de développement par la société Hyperloop TT à Toulouse (source © Midi Libre)

Curieusement, deux d’entre elles ont installé leurs bases en France. C’est le cas de l’entreprise américaine Hyperloop TT qui a installé un centre de recherche près de Toulouse sur l’ancien terrain militaire de Francazal, profitant de l’environnement technologique et scientifique de haut niveau en matière d’aéronautique et de systèmes embarqués liés aux installations d’Airbus et des pôles de compétitivité locaux.

La start-up américaine Hyperloop One a préféré, elle, construire son centre de recherche dans le sud de l’Espagne, mais l’outsider canadien, Transpod, a choisi de s’installer en Haute-Vienne, dans un petit village de 400 habitants, Droux, situé à une cinquantaine de kilomètres de Limoges, pour y construire sa piste d’essai destinée à faire circuler ses futurs prototypes à plus de 1000 km/h dans un tube de 3 km perché sur des pylônes, le long d’une voie ferrée désaffectée.

Vue d’artiste du futur hyperloop imaginé par la société Transpod (source © BFMTV)

Les technologies de ces différents projets hyperloop en pleine phase de développement diffèrent selon les équipes qui restent discrètes sur leurs secrets de fabrication. Le point commun serait de circuler dans un tube parfaitement étanche dans lequel la pression serait abaissée fortement pour réduire au minimum les frottements de l’air et économiser d’autant la consommation d’énergie dont 70 % est due aux friction de l’air et des roues, comme le rappelle le député Cédric Vilani dans une note rédigée en 2018 pour l’Office parlementaire d’évaluation des choix scientifiques et technologiques.

La propulsion électrique ou magnétique (par des moteurs à induction) limite les nuisances sonores et réduit les émissions de CO2. Quant à la friction des roues, le meilleur moyen de la réduire est de faire léviter le train au-dessus du rail, soit sur coussin d’air, comme l’imaginait initialement Elon Musk, soit par sustentation magnétique.

Esquisse de la capsule du futur Spacetrain en cours de développement sur les anciennes infrastructures de l’Aérotrain (source © Spacetrain)

Les deux technologies ont déjà été éprouvées. Celle du coussin d’air est à la base du concept d’Aérotrain développée entre 1965 et 1974 par l’ingénieur français Jean Bertin qui avait fait circuler son aérotrain sur un monorail surélevé traversant la plaine de Beauce au nord de Paris. Le projet n’avait alors pas pu atteindre le stade ultime du développement commercial et avait dû s’effacer face au développement du TGV. Mais le génie civil est toujours en place et la société française Spacetrain est en train d’y tester sa navette du futur propulsée par un moteur à induction linéaire alimenté par une pile à combustible à hydrogène qui fait tourner les turbines alimentant les coussins d’air, le tout pour atteindre une vitesse de croisière de l’ordre de 600 km/h. L’intérêt d’une telle technologie qui envisage une exploitation commerciale dès 2025 est de permettre des liaisons rapides sur des lignes comme Paris-Orléans dont la fréquentation n’est pas suffisante pour rentabiliser une infrastructure LGV.

Le Transrapid de Shangai (source © German China)

L’autre approche est celle de la lévitation magnétique à base d’aimants supraconducteurs fixés à la voie et sur lesquels lévite la capsule munie elle-même de bobines supraconductrices, les deux aimants se repoussant pour éviter le contact et donc les frottements. Le Transrapid développé par les Allemands ThyssenKrupp et Siemens qui devait relier Munich à son aéroport est basé sur ce principe, piloté entièrement à distance de manière totalement automatisé. Le projet, jugé trop coûteux, a finalement été abandonné suite à un accident, mais un train de ce type fonctionne depuis 2002 permettant de rallier l’aéroport de Shangai en quelques minutes.

Prototype du MagLev japonais (source © Japan Rail Pass)

Un autre projet comparable, japonais celui-là, le Maglev, est en cours de développement par la compagnie Central Railway Japan qui espère l’exploiter à partir de 2027, d’après Megamark, pour parcourir en 40 mn les 286 km qui séparent Tokyo de Nagoya, à une vitesse de croisière proche de 500 km/h.

Pour la technologie hyperloop, qui vise plutôt une vitesse de l’ordre de 1000 km/h (pas plus car au-delà le tube dans lequel circulera la capsule subit des ondes de choc potentiellement dommageables), une des difficultés à résoudre est la gestion de l’aérodynamisme. Selon Sciences et Avenir, Il est donc envisagé d’installer à l’avant de la capsule un compresseur axial, destiné à aspirer l’air qui a tendance à s’accumuler en amont, et à le rejeter à l’arrière, toujours dans l’objectif de limiter les frictions.

Une chose est sûre en tout cas, il n’y aura probablement pas de chauffeur dans ces trains du futur. La SNCF annonce d’ailleurs pour 2023 des trains sans conducteur, peut-être même dès 2021 pour le fret. L’objectif est clair : permettre via l’automatisation de la conduite de faire circuler davantage de trains sur une même ligne en optimisant l’accélération et le freinage. La technique est déjà largement éprouvée pour les métros, mais un peu plus complexe pour les trains qui circulent en milieu ouvert et sont donc susceptibles de rencontrer des obstacles sur la voie. Comme la distance nécessaire à un train pour stopper est relativement importante, et que par définition un train ne peut pas faire un écart pour éviter l’obstacle, il faut anticiper et détecter les obstacles éventuels à plus d’1 km en amont, de jour comme de nuit. Il existe d’ailleurs déjà des trains qui circulent en conduite autonome, pour le compte de la compagnie minière Rio Tinto en Australie, mais dans une région semi désertique où les obstacles ne sont pas légion…

Le train autonome AutoHaul piloté à distance par la société Rio Tinto en Australie (source © Détours Canal +)

Et l’innovation ferroviaire ne se limite pas aux seuls trains à grande vitesse puisque le bureau d’innovation breton Exid Concept & Développement travaille de son côté à développer son concept de Taxirail dont un premier démonstrateur est envisagé dès 2020.

Maquette du Taxirail qui pourrait redonner vie aux petites lignes abandonnées de la SNCF (source © Exid C&D / L’Usine nouvelle)

Il s’agirait d’une navette autonome de 40 places seulement destinée à circuler sur les voies SNCF existantes, y compris celles disposant d’ouvrages d’art anciens trop fragiles pour supporter les 50 à 80 tonnes des autorails classiques. Ces navettes circuleraient à la demande, appelées via une application sur smartphones ou via des bornes en gare, et seraient propulsées par un moteur électrique alimenté sur batterie accompagnée d’une réserve de biogaz pour prolonger la charge, leur donnant une autonomie de 600 km, suffisante pour la journée.

On le voit, le domaine du transport ferroviaire est en pleine innovation et pourrait bien connaître dans les années qui viennent de véritables révolutions technologiques que même Jules Verne n’avait pas osé imaginer !

L. V.

Dans le Doubs, absinthe-toi !

2 octobre 2019

Affiche créée par les frères Mourgue vers 1900 pour la distillerie d’absinthe Bourgeois à Pontarlier (source : absinthes.com)

Contrairement au Pastis de Marseille, mis au point en 1932 par Paul Ricard, l’absinthe, auquel cet alcool anisé est apparenté, garde une image quelque peu sulfureuse dans l’inconscient collectif. C’est en 1915, en pleine guerre, que la fabrication de l’absinthe a été interdite en France, au prétexte que cet alcool pouvait rendre fou, sous la pression des ligues antialcooliques, mais aussi des viticulteurs qui se plaignaient de la concurrence de cet alcool fort alors si apprécié.

Pourtant, l’usage d’extraits d’absinthe à des fins médicales est connu depuis l’Antiquité égyptienne et s’est transmis au cours des siècles. Les vins d’absinthe, obtenus par macération de raisins avec des feuilles d’absinthe (Artemisia absinthium, une plante de la famille des Astéracées) étaient appréciés pour leurs vertus médicinales au XVIe siècle. Mais c’est une rebouteuse suisse du canton de Neuchâtel, Henriette Henriod, qui est réputée avoir inventé la recette de l’absinthe distillée, recette qui a permis au major Dubied d’ouvrir en 1797 la première distillerie d’absinthe apéritive à Couvet, en Suisse, avec l’aide de son gendre Henri-Louis Pernod.

En 1805, ce dernier prend ses distances avec son beau-père et fonde sa propre société, Pernod Fils, qui ouvre une distillerie à Pontarlier, dans le Doubs. La ville devient la capitale de l’absinthe et en 1900 on compte pas moins de 25 distilleries qui font travailler plus du tiers des habitants ! Dès 1830, cet apéritif à base d’absinthe (la grande et la petite, Artemisia pontica), d’anis vert, de fenouil, de mélisse et d’hysope, qui titre entre 68 et 72° d’alcool, devient particulièrement populaire auprès des soldats qui colonisent l’Algérie, leurs officiers étant persuadés que cela aide à combattre la malaria et la dysenterie.

En 1870, c’est devenu l’apéritif de loin le plus consommé en France. On le déguste dans des verres spéciaux évasés, sur lesquels on pose une cuillère percée avec un sucre à travers duquel percole l’eau très fraîche qui sert à diluer la liqueur. Un véritable rituel auquel s’adonneront de nombreux poètes et artistes tels que Verlaine ou Van Gogh, au point que cet apéritif finira par concentrer les foudres des ligues antialcooliques jusqu’à son interdiction totale. Ce n’est qu’en 1988 qu’un décret signé par Michel Rocard, lèvera cette interdiction d’utilisation dans les produits alimentaires de la thuyone, principale molécule présente dans l’huile essentielle d’absinthe, tandis que la Suisse autorisera de nouveau la distillation de l’absinthe à partir de 2005.

L’incendie de l’usine Pernod à Pontarlier le 11 août 1901 (photo DR)

En 1910, on produisait en France 36 millions de litres d’absinthe annuellement. L’incendie causé par la foudre qui avait ravagé l’usine Pernod de Pontarlier, le dimanche 11 août 1901, n’était alors plus qu’un mauvais souvenir. Ce jour-là pourtant, la totalité de la production avait dû être rejetée pour éviter que les cuves d’alcool n’explosent sous l’effet de la chaleur. 600 000 litres d’absinthe se sont ainsi déversés dans le Doubs, pour le plus grand bonheur des riverains en aval qui remplissaient leur verre en puisant directement dans la rivière.

La source de la Loue à Ouhans

Cette catastrophe technologique et économique est d’ailleurs à l’origine d’une très belle démonstration scientifique qui est restée dans les annales de l’hydrogéologie. Elle a en effet permis de démontrer de manière magistrale ce que beaucoup pressentaient depuis longtemps, à savoir que les sources karstiques de la Loue, situés à 12 km de Pontarlier, sont alimentées principalement par une résurgence des pertes du Doubs qui se produisent dans le lit de la rivière en aval immédiat de Pontarlier. L’hydrogéologue Eugène Fournier avait déjà tenté de démontrer cette thèse par des essais de coloration, mais le sinistre de l’usine Pernod l’a confirmé puisque la source de la Loue a pris une belle teinte verte et une forte odeur anisée, 48 heures seulement après l’incendie.

Le chimiste André Berthelot en a tiré une communication à l’Académie des Sciences, dans laquelle il analyse en détail le phénomène, insistant au passage sur la vulnérabilité de ces résurgences karstiques qui fournissent une eau ayant circulé très rapidement dans des conduits souterrains sans réelle filtration et qui sont donc particulièrement sensibles à des pollutions même survenues à distance.

La grande sécheresse de l’été 1906 qui a suivi a permis à Eugène Fournier de faire des observations plus précises sur l’origine des communications entre les deux bassins versants et de repérer certaines des failles qui expliquent les pertes du Doubs. Le lit de la rivière s’était alors asséché sur plus de 2 km de long comme cela arrive périodiquement et comme cela s’est encore produit tout récemment durant l’été 2018.

Le lit du Doubs à sec en août 2018 (photo T. Martinez / France 3 Régions)

De longue date d’ailleurs, les industriels qui exploitent la force du courant le long du Doubs, se sont mobilisés pour tenter de colmater ces pertes par où l’eau s’infiltre et va se déverser vers le bassin de la Loue (qui est d’ailleurs un affluent du Doubs). C’est souvent après une forte crue que ces communications se réactivent, provoquant des assecs spectaculaires comme cela a été le cas en 2018 avec quatre tronçons concernés dont un de près de 14 km autour de Pontarlier.

Essai de coloration à la fluorescéine dans le Doubs en septembre 2018 (source : Info Routes Haut-Doubs 25 / Facebook / 20 minutes)

Des nouvelles études avec des colorations (à la fluorescéine cette fois, et non pas à la liqueur d’absinthe) ont été réalisées en septembre 2018 par les services de l’État pour mieux comprendre la géographie de ces circulations souterraines. Un ancien bras de dérivation, permettant au Doubs de contourner les zones de pertes, pourrait être réactivé et des aménagements sous forme de margelle ont été construits autour de certaines des pertes identifiées afin d’en conserver le fonctionnement naturel tout en permettant au Doubs de garder un débit d’étiage suffisant pour ne pas voir tous ses poissons se dessécher sur place dans un lit où l’on marche à pied sec. Un beau défi pour la gestion de ce cours d’eau qui risque d’être de plus en plus exposé à ce type de risque sous l’effet du changement climatique…

L. V.

Bataille de guêpes chinoises dans les châtaigniers ardéchois

7 juillet 2019

En Ardèche, on ne plaisante pas avec la châtaigne dont la production locale, qui bénéficie depuis 2006 d’une appellation d’origine contrôlée est même appuyée par un Syndicat de défense de la châtaigne d’Ardèche.

Aire d’extension de l’Appellation d’origine protégée qui s’étend sur 197 communes, pour l’essentiel dans le département de l’Ardèche (source : Châtaigne d’Ardèche)

Présent à l’état naturel sur le territoire ardéchois, le châtaigner d’Europe, Castanea sativa, est cultivé depuis sans doute le XIIIe siècle lorsque les paysans ont appris à le greffer. Vers 1860, la production de châtaignes ardéchoises atteignait son âge d’or avec pas moins de 60 000 hectares exploités et 40 000 tonnes de châtaignes récoltées !

L’exode rural  et les vicissitudes de la vie économique ont conduit à un très net déclin de cette activité économique qui connait néanmoins un regain sensible depuis les années 1960. L’Ardèche fournit désormais de l’ordre de la moitié de la production nationale de châtaigne avec une récolte annuelle de l’ordre de 5 000 tonnes les bonnes années (mais moins de 2 000 tonnes en 2017, à cause de la sécheresse…)

Mais voilà qu’en 2005, une petite guêpe d’origine chinoise, la cynips du châtaigner, Dryocosmus kuriphilus, présente depuis 2002 en Italie où elle parasite les châtaigniers, se permet de franchir la frontière française et s’implante dans les Alpes-Maritimes. Repéré dès 2010 dans les châtaigneraies ardéchoises, ce ravageur mondialement connu inquiète au plus haut point les castanéiculteurs ardéchois.

Galles de cynips sur un châtaigner (source : ADIV environnement)

L’insecte pond ses œufs au printemps dans les bourgeons. Les larves y passent tout l’hiver bien au chaud sans que leur présence ne puisse être détectée. Au printemps, les larves se développent et libèrent des toxines qui provoquent l’atrophie de la pousse tandis que des galles apparaissent sur les feuilles. Les cynips adultes quittent les galles au début de l’été et vont pondre sur d’autres arbres, entretenant leur cycle. Les arbres infestés voient leur production décliner de 60 à 80 % et finissent même par mourir, d’autant que les galles abandonnées constituent des lieux favorables pour le développement d’un champignon parasite. En 2013, la perte de production sur le seul département de l’Ardèche était ainsi évaluée à plus de 300 tonnes.

Cycle de vie du cynips (photos © N. Borowiec et J.-C. Malausa. Infographie : V. Gavalda / source © INRA)

Face à des perspectives aussi sombres, la filière a sollicité les chercheurs de l’INRA (Institut de recherche agronomique) et du CTIFL (Centre Technique Interprofessionnel des Fruits et Légumes) pour chercher des solutions à ce fléau menaçant. Au vu de l’expérience de leurs collègues italiens, les Ardéchois se sont orientés vers la lutte biologique en s’appuyant sur une autre guêpe d’origine chinoise, prédateur naturel de la première, Torymus sinensis. Celle-ci pond ses œufs dans les galles du châtaignier, et ses propres larves se développent en se nourrissant des larves de cynips.

Torymus sinensis en train de pondre (source : Institut Sophia Agrobiotech)

Grâce à la mobilisation de dons privés et de subventions publiques, des Torymus ont donc été achetés à l’étranger et lâchés dans des vergers isolés pour leur permettre de se développer rapidement sans trop se disséminer. Comme on ne sait pas encore multiplier en laboratoire cet insecte exotique, les galles de cynips parasitées par les nouveaux arrivants doivent ensuite être récoltées pour récupérer les Torymus qui sont soigneusement séparés en mâles et femelles avant d’être relâchés sur d’autres parcelles. Un travail titanesque piloté par la Chambre d’agriculture et qui s’appuie sur le réseau de producteurs eux-mêmes, mobilisant plusieurs centaines de personnes chaque année.

Plus de 2 000 lâchers ont ainsi été opérés en 2 ans à partir de 2015 sur les châtaigneraies ardéchoises. Et ça marche ! Le résultat est variable selon les secteurs mais pour ceux qui sont les plus proches de la vallée du Rhône, là où les premiers lâchers ont été réalisés, le résultat est très prometteur. Le cynips est toujours présent et le restera, mais son activité est fortement contenue du fait de la présence de son prédateur naturel, désormais bien implanté avec en moyenne plus de 2,5 Torymus dans chaque galle de cynips.

Un résultat très spectaculaire également dans les Alpes-Maritimes où, grâce à ce duel de guêpes asiatiques orchestré par les spécialistes de la lutte biologique de l’Institut Sophia Agrobiotech, la proportion de bourgeons infestés est passé en quelques années d’environ 70 % à 2 ou 3 % seulement. Comme quoi, le salut en matière de lutte contre les parasites agricoles ne passe pas nécessairement par le développement de nouvelles molécules chimiques dont on ne maîtrise pas forcément très bien l’impact à long terme sur le milieu naturel voire la santé humaine…

L. V.

Hécatombe sur le Bolmon…

3 juillet 2019

Le maire de Marignane commentant la mortalité piscicole en bordure du Bolmon à l’Estéou (source © extrait vidéo Maritima media)

Très mauvaise surprise pour le maire de Marignane, Eric Le Dissès, dimanche 30 juin 2019, vers 7 h du matin, lorsqu’il apprend que des milliers de poissons morts flottent le ventre en l’air sur l’étang de Bolmon, alors que la canicule règne depuis plusieurs jours et que le mercure était monté à 39,6 °C l’avant-veille. Le spectacle, filmé notamment par Maritima médias n’est effectivement pas très ragoûtant et les témoignages recueillis auprès des riverains confirment que l’odeur est à l’avenant…

Le maire s’inquiète surtout pour les cygnes qui s’ébattent au bord de l’étang pour la plus grande joie des enfants, pour lesquels la commune a aménagé une aire de jeu dans ce secteur autrefois naturel de l’Estéou, où la Cadière vient se jeter dans l’étang de Bolmon.

Un tas de cadavres de poissons sur le bord de l’étang du Bolmon (photo © Adrien Max / 20 Minutes)

Des lances à incendies sont mises en place pour tenter d’apporter aux cygnes un peu d’eau pure tandis que les employés municipaux s’affairent, toute la journée du 1er juillet à ramasser les cadavres d’anguilles, carpes et autres muges qui sont entassés sur la berge en attendant d’être évacués pour l’équarrissage : près de 3  tonnes de poissons morts à éliminer selon un témoignage recueilli auprès du guide nature Jean-François Lion par Sciences et Avenir.

Ce n’est certes pas la première fois qu’une telle mortalité piscicole se produit sur cet étang. C’est même un phénomène quasi récurrent même si cet épisode surprend par sa précocité dans la saison. Le Bolmon est en réalité une lagune, séparée de l’étang de Berre par le cordon littoral du Jaï. Le site est complexe et largement transformé par la main de l’Homme, à commencer peut-être par celle des Romains qui auraient déjà aménagé le chenal naturel entre l’étang de Berre et la mer Méditerranée. En 1847, le chenal est creusé à 3 m puis approfondi à 9 m à partir de 1863, avant d’être de nouveau élargi et rectifié au tout début du XXe siècle puis encore en 1925.

Carte montrant la configuration des étangs de Berre, de Vaïne et de Bolmon (source © GIPREB)

A la même époque, en 1926 est creusé le tunnel du Rove, qui relie sous le massif de la Nerthe, le port de Marseille à l’étang de Berre en longeant la rive sud du Bolmon. Sous l’effet de cette circulation marine intense, ces étangs qui étaient jusque là principalement alimentés en eau douce car réceptacles des eaux de la Cadière mais aussi de l’Arc et de la Touloubre, se sont transformés en lagunes marines salées. Mais l’effondrement brutal du tunnel du Rove en 1963 suivi en 1966 de l’arrivée du déversement des eaux douces de la Durance, via le canal usinier EDF et l’usine hydroélectrique de Saint-Chamas, ont profondément transformé le milieu.

Usine hydroélectrique de Saint-Chamas qui déverse depuis 1966 ses eaux douces limoneuses dans l’étang de Berre

L’arrivée massive de cette eau douce chargée de sédiments, à raison de 3,3 milliards de m3 chaque année jusqu’en 1994, et de 680 000 t de limon par an, a par ailleurs coïncidé avec le développement d’activités industrielles particulièrement polluantes, combinée à une urbanisation mal maîtrisée du secteur : les rejets d’eau usées domestiques et industrielles ainsi que le ruissellement et le lessivage des berges ne tardent pas à transformer ce milieu naturel en un gigantesque égout à ciel ouvert. Dès 1957, la pêche doit y être interdite pour des raisons sanitaires, ce qui n’empêche pas le braconnage.

A partir de 1994, une timide reconquête de ce milieu écologique dégradé s’est amorcée avec la réouverture de la pêche en même temps que se faisaient les premières restrictions de rejets d’eau douce en provenance de l’usine de Saint-Chamas. Alors qu’on y recensait en 1949 101 espèces benthiques et que les fonds de l’étang étaient couverts sur environ 6000 ha d’herbiers, on ne compte plus depuis 1995 qu’une quinzaine d’espèces benthiques et les herbiers ne s’étendent pas au-delà de 1,5 ha sur quelques poches résiduelles. Même les tentatives de recolonisation des fonds par des herbiers à zostères, menées par le GIPREB (Groupement d’intérêt public pour la réhabilitation de l’étang de Berre, créé en 2000) ont échoué et la qualité de ces milieux aquatiques reste désespéramment mauvaise.

Herbier à zostères dans l’étang de Berre (source © vidéo YouTube)

Au-delà de l’héritage industriel particulièrement lourd qui se traduit par des sédiments très largement chargés en métaux lourds, PCB et autres joyeusetés, ces milieux lagunaires méditerranéens sont en réalité d’une grande fragilité. Les eaux de lessivage et celles charriées par les petits fleuves côtiers sont riches en nitrates et phosphates malgré les efforts récents pour traiter les effluents domestiques. Un phytoplancton abondant se développe donc en surface, selon le phénomène classique de l’eutrophisation, se traduisant périodiquement par des accumulations d’algues vertes nauséabondes sur les rives.

L’étang de Berre, un milieu naturel menacé par l’urbanisation et les industries polluantes (source © blog Monique Cisello)

Faute de faune adaptée pour consommer le phytoplancton, ce dernier empêche le développement de plantes aptes à la photosynthèse, donc à l’oxygénation de l’eau, tandis que sa décomposition consomme l’oxygène dissous disponible. L’eau salée ayant une densité supérieure, tend à à se concentrer à la base de la colonne d’eau, ce qui se traduit par une stratification des eaux, également nuisible à la qualité du milieu, et qui explique ces crises fréquentes d’anoxie : les poissons n’ayant plus assez d’oxygène dissous dans l’eau meurent…

Pour le maire de Marignane, la solution est évidente. Il est vrai qu’on en parle depuis une bonne vingtaine d’années et que sa mise en œuvre a reçu un aval du Ministère de l’environnement dès 2003. Elle consisterait à rouvrir le canal du Rove en provoquant par pompage un apport permanent d’eau de mer propre et riche en oxygène qui, par brassage, redonnerait toute sa vitalité à l’étang de Bolmon. Les études scientifiques se succèdent depuis des années pour étudier les impacts potentiels d’une telle solution et un rapport spécifique a même été commandé au Conseil général de l’environnement et du développement durable en février 2017 par Ségolène Royal pour tenter de faire le point sur ce dossier complexe pour lequel les acteurs s’écharpent depuis des années sans arriver à trouver de solution viable.

Vue de l’intérieur du tunnel du Rove (photo © Thibaut Vergoz/Zeppelin Network / Chasse marée)

L’affaire est d’autant moins simple que c’est le Conservatoire du Littoral qui est propriétaire de l’étang de Bolmon et des milieux humides associés, et que ce dernier s’oppose farouchement à la réouverture du canal du Rove, estimant notamment que le brassage occasionné pourrait remettre en suspension les polluants accumulés depuis des années dans les sédiments. Quant aux études techniques pilotées par le Service annexe des voies navigables, rattaché au Grand port maritime de Marseille et gestionnaire du canal du Rove, elles ont surtout mis en évidence l’ampleur des investissements nécessaires pour remettre en circulation l’eau de mer via une galerie qui contourne la partie effondrée du tunnel.

Mortalité piscicole à l’étang de Bolmon le 1er juillet 2019

Il faudrait pour cela mobiliser des débits de pompage très élevés, non seulement pour assurer un courant suffisant dans le canal lui-même mais aussi entre le canal et l’étang de Bolmon, afin de permettre une réoxygénation significative de ce dernier. Inutile d’y songer en revanche pour l’étang de Berre lui-même car les volumes en jeu sont bien trop conséquents pour espérer un résultat visible. Et en cas de crue de la Cadière, déversant en quelques heures de gros volumes d’eau douce dans l’étang de Bolmon, ce serait rapidement l’hécatombe pour les espèces développées dans un milieu nettement plus salé que dans son état actuel. Au point que certains songent plutôt à d’autres alternatives telles que l’injection d’oxygène dans le milieu, comme le fait le SIAAP dans la Seine en aval de Paris en insufflant localement de l’oxygène dans l’eau pour constituer des îlots de survie pour la faune piscicole lorsque les conditions physico-chimiques du milieu deviennent critique.

Nul ne sait quand on arrivera enfin à trouver les bonnes solutions pour que les étangs de Berre et de Bolmon redeviennent des milieux naturels de qualité dans lesquels les poissons pourront évoluer sans risquer à tout moment l’asphyxie ou l’intoxication. Le maire de Marignane n’a sans doute pas fini de se mettre en colère devant les caméras…

L. V.

ITER : où en est-on ?

3 juin 2019

A Cadarache, situé dans le nord des Bouches-du-Rhône, près de la confluence du Verdon et de la Durance, à une quarantaine de kilomètres d’Aix-en-Provence, le Commissariat à l’énergie atomique (CEA) est chez lui depuis 1959. L’écrivain du cru, Jean Giono, s’était opposé en vain à cette installation qui avait pour objectif premier le développement du réacteur Rapsodie destiné à la propulsion des sous-marins nucléaires.

Le site du chantier d’ITER filmé par drone en février 2019 (photo © EJF Riche / ITER Organization)

Le 28 juin 2005, c’est pourtant bien loin de là, à Moscou, qu’à été prise la décision d’y construire le projet international ITER. Un acronyme qui signifie, comme chacun sait, International Thermonuclear Experimental Reactor, même si le nom évoque plutôt pour les latinistes le chemin, l’itinéraire vers le nouveau graal de la science moderne, rien de moins que le rêve prométhéen de reconstituer en laboratoire les forces cosmiques qui donnent l’énergie du soleil.

Contrairement à la fission nucléaire, à l’œuvre dans les réacteurs nucléaires classiques et qui consiste schématiquement à briser un atome lourd (l’uranium) pour dégager de l’énergie, la fusion nucléaire revient au contraire à fusionner, dans des conditions de pression et de température extrêmes comme celles qui règnent à la surface des étoiles, des atomes légers d’hydrogène pour créer de l’hélium. L’intérêt d’une telle démarche est multiple, d’une part parce que les quantités d’énergie produite peuvent être (en théorie) colossales, d’autre part du fait que la matière première est nettement plus abondante et surtout parce que le processus ne produit pas de déchet radioactif ingérable et ne présente pas de risque d’emballement incontrôlable : avec la fusion, la difficulté n’est pas d’arrêter les réactions en chaîne mais plutôt d’arriver à les amorcer…

Principe de fonctionnement d’une usine électrique à fusion par confinement magnétique (source © Ph. Magaud / CEA-IRFM)

L’idée de départ est russe et on doit les premières avancées en la matière au physicien Andreï Sakharov, inventeur de la bombe H, au travers de la construction d’une chambre de confinement magnétique de forme toroïdale, baptisée Tokamak et dont le premier modèle est entré en service en 1958. Dans les années 1970, le système a été développé un peu partout dans le monde, y compris en France à Fontenay-aux-Roses, puis à l’échelle européenne avec le Joint European Torus (JET) de Culham au Royaume-Uni, entré en service en 1983 et qui fut le premier à créer une fusion contrôlée à partir d’un mélange deutérium-tritium en 1991. Celui installé à Cadarache en 1988 (Tore Supra) est le premier à avoir été équipé d’aimants supraconducteurs permettant de créer de puissants champs magnétiques en continu, et il détient depuis 2003 le record de durée de fonctionnement (6 minutes et 30 secondes).

Vue de l’enceinte plasma du tokamak Tore Supra (photo © P. Stroppa / CEA)

Mais les difficultés à surmonter en vue de créer des conditions favorables à la fusion nucléaire pendant assez longtemps et de manière à produire plus d’énergie qu’on en consomme, sont telles que les scientifiques ont compris depuis des années que les nations avaient tout intérêt à coopérer entre elles plutôt que d’agir de manière concurrente. C’est tout l’intérêt du projet ITER, dont l’idée a été suggérée en 1983 par Mikhaïl Gorbatchev à François Mitterrand, et qui mobilise pas moins de 35 pays puisque se sont associés aux 28 de l’Union européenne, les États-Unis, la Russie, la Chine, l’Inde, la Corée du Sud, le Japon, et même la Suisse.

Si le site de Cadarache a finalement été retenu pour cette première phase du projet, c’est au Japon que devrait se produire l’étape suivante. L’objectif d’ITER est en effet de démontrer uniquement la faisabilité du processus en chauffant à 150 millions de degrés Celsius un plasma composé de deutérium et de tritium (deux isotopes de l’hydrogène), de quoi produire une énergie de 500 MW, soit dix fois plus que l’énergie théoriquement nécessaire pour chauffer le plasma à cette température. Si tout va bien, cette étape devrait être atteinte en 2025 et la pleine exploitation n’est prévue qu’en 2035. C’est alors qu’entrera en scène le versant japonais du projet, DEMO (pour Demonstration Power Plant), un réacteur qui devrait lui fonctionner en continu et alimenter directement le réseau électrique en produisant, d’ici 2048, une énergie de 2 GW, en attendant la prise de relai par des prototypes industriels qui préfigureront peut-être nos générateurs électriques de demain.

Bâtiment de conversion électrique (à gauche) destiné à alimenter les aimants du réacteur et (à droite) usine cryogénique avec les réservoirs de stockage d’hélium (photo © EJF Riche / ITER Organization)

D’ici là, l’assemblage du monstre ITER se poursuit sur le site de Cadarache. L’entreprise est gigantesque et l’on considère qu’il s’agit d’ailleurs du plus ambitieux projet scientifique du monde. Il consiste à assembler avec des moyens de levage monstrueux et avec une précision d’horlogerie des pièces qui ont été construites aux quatre coins du monde et qui sont acheminés par une route spécialement aménagée à cet effet depuis le port de Fos-sur-Mer. Bien entendu, le chantier a pris du retard et a déjà subi de nombreux aléas qui ont fait explosé la facture de 5 à probablement 19 milliards d’euros…

Lancé en 2010, le chantier, qui s’étend sur 42 ha, connaît actuellement un pic d’activité avec pas moins de 5000 personnes mobilisées, ouvriers, ingénieurs, scientifiques, administratifs… Le Tokamak lui-même pèse 400 000 tonnes. Monté sur patins anti-sismique et pourvu d’un bouclier en béton armé de 3 m d’épaisseur pour protéger contre les radiations, il mesure pas moins de 80 m de hauteur. Il est entouré par les tours de refroidissement, les pompes à vide, la salle de contrôle et un dispositif de maintenance robotisé permettant de monter et démonter à distance les éléments de la chambre de combustion. De nombreux ateliers ont été érigés sur le site même pour assembler les composants, dont les cryostats (fabriqués en Inde) ou pour réaliser le bobinage des aimants (dans un bâtiment de 257 m de long !). En mars de cette année ont ainsi eu lieu les premiers essais de fonctionnement du portique de sous-assemblage pour la chambre à vide et en juin sont attendues les premières livraisons des éléments du bouclier thermique fabriqué en Corée.

Vue aérienne du chantier d’ITER sur le site de Cadarache en novembre 2018 (source © ITER Organization)

Depuis le début des travaux, 4 km de galeries ont déjà été creusées uniquement pour faire passer les câblages destinés à l’alimentation électrique (équivalent à celle d’une ville de 12 000 habitants) et aux télécommunications. Des canalisations pour la gestion des eaux pluviales du site ont été installées sur 3,9 km et 36 km de canalisations pour l’acheminement des eaux industrielles et sanitaires sont en cours de déploiement. Plusieurs bâtiments dont celui qui abrite les bassins des tours aéroréfrigérantes ont déjà été livrés ou sont en cours d’achèvement. Vu de haut, le chantier fait figure d’une immense fourmilière en pleine activité.

Espérons désormais que cet ambitieux projet de coopération scientifique internationale comme on en a peu réalisé dans l’histoire de l’humanité et qui se déroule à nos portes tiendra ses promesses et contribuera à fournir l’énergie dont l’on aura besoin pour remplacer rapidement combustibles fossiles et centrales nucléaires d’un autre âge…

L. V.

La lessive au glyphosate ?

31 mai 2019

Le sénateur Pierre Médevielle (photo © Didier Goupy / Site P. Médevielle)

Sénateur UDI de Haute-Garonne, Pierre Médevielle est aussi maire de Boulogne-sur-Gesse, une commune rurale de 1600 habitants située près de Saint-Gaudens, en limite du Gers. Peu connu du grand public en dehors de son Sud-Ouest natal, ce pharmacien est pourtant membre de la Commission du développement durable et de l’aménagement du territoire du Sénat, mais aussi vice-président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques.

Présidé par Gérard Longuet et composé de 18 députés et 18 sénateurs, ce dernier organisme a pour mission, « d’informer le Parlement des conséquences des choix de caractère scientifique et technologique afin, notamment, d’éclairer ses décisions ». Il permet ainsi au Parlement de disposer d’une expertise pour éclairer des choix politiques de long terme. C’est dans ce cadre que quatre parlementaires dont Pierre Médevielle ont déposé le 2 mai 2019, à l’issue de 15 mois d’enquête, un rapport intitulé « Évaluation des risques sanitaires et environnementaux par les agences : trouver le chemin de la confiance ».

La mission qui leur avait été confiée avait pour objet, à partir de l’exemple emblématique du glyphosate, de comprendre comment travaillent les agences chargées d’évaluer la dangerosité des produits chimiques à risque, de passer en revue leurs protocoles d’investigations, et de suggérer, par une harmonisation des pratiques en France et en Europe par exemple, des pistes d’amélioration de nature à restaurer la confiance entre ces instituts scientifiques et l’opinion publique. Un véritable travail de fond, sur un sujet brûlant d’actualité qui déchaîne facilement les passions et pour lequel toute la sagesse et l’expérience de notre pharmacien sénateur était attendue afin de débrouiller avec prudence et objectivité un dossier aussi ardu et sujet à controverses.

Épandage de glyphosate dans la Sarthe en mai 2018 (photo © Jean-François Monier / Archives AFP / Géo)

Apprenant que le rapport allait être rendu public, la Dépêche du Midi a naturellement contacté le sénateur le 12 mai dernier, afin de l’interroger sur les conclusions de ces travaux. Et là, surprise ! Pensant sans doute à ne pas froisser ses électeurs issus pour beaucoup du monde agricole, Pierre Médevielle tient en effet au journaliste qui le questionne des propos assez tranchés, affirmant « qu’aucune preuve scientifique ne démontre formellement aujourd’hui la cancérogénité du glyphosate. A la question : le glyphosate est-il cancérogène : la réponse est non ! ». Voilà qui contredit ouvertement les conclusions du Centre international de recherche sur le cancer et relève vaguement de la provocation, surtout quand le sénateur précise que « le glyphosate est moins cancérogène que la charcuterie ou la viande rouge qui, pourtant, ne sont pas interdites ». Les agriculteurs victimes de graves intoxications pour avoir manipulé ce produit apprécieront…

Un dessin signé Xavier Delucq, publié dans le Huffington Post

Mais le sénateur décidément en verve lors de cet entretien avec la presse locale, a fait une autre confidence des plus étrange, affirmant sans ciller et toujours en parlant du glyphosate, le produit actif du Roundup commercialisé par Monsanto, que « cette molécule est ajoutée à nos lessives pour nettoyer les canalisations ». De quoi rendre perplexe le moins averti des citoyens face à une affirmation énoncée avec un tel aplomb par un parlementaire scientifique faisant nécessairement autorité.

On ignorait en effet jusque là que les fabricants de lessive se préoccupaient non seulement de la propreté de notre linge mais également de celles de nos canalisations d’évacuation des eaux usées. On savait certes que le Coca Cola est un excellent déboucheur liquide, mais pas que que Monsanto se positionnait comme auxiliaire des égoutiers et fournisseur d’adjuvant pour lessive multi-usage. A se demander comment de tels secrets de fabrication avaient pu restés cachés jusqu’ici…

Face au tollé soulevé par ses propos, alors même que Pierre Médevielle n’était pas autorisé à s’exprimer publiquement sur le contenu de ce rapport qui n’est toujours pas accessible sur le site de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, le sénateur a prétendu avoir été piégé par les journalistes de la Dépêche du Midi qui auraient grossièrement déformé ses propos au mépris de toute déontologie. L’argument est convaincant car on sait que certains journalistes, surtout non spécialisés sur des sujets techniques aussi pointus, peuvent parfois se méprendre et traduire mal à propos les propos qu’on leur a tenus, croyant bien faire en les exprimant dans un langage plus simple sans se rendre compte qu’ils en modifient le sens.

Cédric Villani (en 2015)

Sauf que la totalité de l’entretien a été soigneusement enregistré par le journaliste qui a réalisé l’interview, lequel se propose bien volontiers de transmettre l’enregistrement à qui le souhaite. Au point que le premier vice président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, le mathématicien Cédric Villani, a été obligé de se livrer à un délicat exercice de rétropédalage diplomatique pour tenter de venir en aide à son confrère accusé du coup de rouler pour Monsanto : « Je ne vois, à ce stade, aucune raison de douter de l’intégrité de Pierre Médevieille qui, comme ses collègues tout au long des quinze mois de leur mission, a réalisé un excellent travail. Je veux croire qu’il s’agit d’une maladresse : au cours de son entretien, il s’est probablement laissé aller à exprimer des convictions personnelles ».

Reste que la question du glyphosate dans la lessive intrigue… En réalité, il semble que le bon pharmacien de Boulogne-sur-Gesse se soit un peu mélangé les burettes en pensant sans doute à l’acide aminométhylphosphonique, AMPA de son petit nom, qui constitue l’un des composés chimiques les plus fréquemment retrouvé dans les cours d’eau et les nappes souterraines, issu principalement de la dégradation en milieu naturel, du glyphosate utilisé comme herbicide. Mais l’AMPA a aussi une autre origine car il est aussi le résultat de la dégradation des aminométhylène-phosphonates, produits industriels utilisés dans les systèmes de réfrigération et de refroidissement des moteurs, mais aussi dans certains détergents industriels et domestiques (comme adjuvants anticalcaires).

L’eutrophisation des cours d’eau sous l’effet des rejets de phosphates

Ironie de l’histoire, ces phosphonates dans les lessives se sont fortement développés à partir de 2007, lorsqu’a été définitivement interdit l’usage des phosphates dans les détergents textiles ménagers, justement pour limiter les risques d’eutrophisation des cours d’eau. Or les AMPA, qui sont issus de la dégradation de ces phosphonates, ne sont pas éliminés dans les stations de traitement des eaux usées, ce qui explique qu’on les retrouve en proportion croissante dans le milieu naturel. Mais cela n’enlève rien au risque que constitue le glyphosate, non seulement pour la santé humaine, mais aussi pour la qualité de nos milieux aquatiques. Et cela incite en tout état de cause notre sénateur adepte du Roundup à réviser quelque peu ses cours de chimie et ses traités de déontologie…

L. V.

En Écosse, la guerre des écureuils fait rage

5 mai 2019

Chaque pays a sa ligne de démarcation. Pendant longtemps, c’est le mur d’Hadrien, longue fortification de plus de 100 km et flanquée d’environ 300 tours de défense, érigée à partir de 122 après J.C., qui servit de frontière physique entre la province romaine de Bretagne (pas celle d’Astérix, qui était alors l’Armorique, mais celle qui constitue l’Angleterre actuelle) et l’Écosse avec ses redoutables tribus guerrières dont les Calédoniens.

Un écureuil roux (photo © Helen Haden / Flickr.com / BFMTV)

Mais c’est une nouvelle guerre qui fait désormais rage dans cette région : celle qui oppose les écureuils roux autochtones à une population d’envahisseurs, leurs cousins gris américains. Et la frontière mouvante qui sépare les lignes des deux armées en campagne s’appelle la Highland Red Squirrel Protection Line, autrement dit, la ligne de protection des écureuils roux des Highlands. Située au Sud de l’Écosse, cette démarcation fait l’objet de soigneuses observations de la part d’un consortium d’associations menées par le Scottisch Wildlife Trust et le Red Squirrel Survival Trust qui ont pris fait et cause pour protéger les 120.000 écureuils roux de la région présents principalement au nord de l’Écosse, dans les Highlands et à l’état résiduel dans quelques poches des Lowlands.

Autrefois très présents sur tout le territoire britannique, les écureuils roux ont en effet quasiment disparu du paysage en dehors du nord de l’Écosse, puisque leur population totale sur l’ensemble de la Grande-Bretagne est désormais estimée à moins de 140 000 individus. Inversement, la population des écureuils gris, en pleine expansion, dépasse désormais les 2,5 millions et il suffit de se promener dans n’importe quel jardin public, à Londres comme à Édimbourg pour en apercevoir de nombreux spécimens qui viennent manger dans la main des touristes émerveillés.

Écureuil gris à Saint-James Park à Londres (source © Un pied dans les nuages)

L’écureuil roux, Sciurus vulgaris, encore très présent en France où on peut l’observer sur l’ensemble du territoire sauf en Corse et sur les îles méditerranéennes, a une aire de répartition qui couvre l’ensemble de l’Europe et en Asie, et ceci depuis environ 3 millions d’année. On l’observe depuis le Japon jusqu’en Sibérie et en Chine, ainsi que dans la plupart des pays européens à l’exception de quelques zones comme l’Islande ou la Sicile, et désormais l’Angleterre où il a été complètement décimé en quelques années, supplanté par les cohortes d’envahisseurs gris…

La concurrence entre les deux espèces est en effet largement inégale. L’écureuil gris, Sciurus carolinensis, venu des forêts américaines, est beaucoup plus adapté aux forêts de feuillus où il tire notamment profit des glands et se reproduit plus vite, y compris pendant les périodes de disette relative, ce qui lui permet de coloniser très rapidement les milieux forestiers européens où il provoque d’ailleurs des ravages en rongeant l’écorce des jeunes arbres.

Carte de répartition des observations d’écureuils gris et roux en Ecosse (source © Saving Scotland’s Red Squirrels)

Il est de plus porteur sain d’un virus mortel pour son congénère roux, le parapox-virus, si bien que le contact entre les deux espèces se traduit pour l’écureuil roux par la transmission d’une maladie mortelle, dite aussi variole de l’écureuil. Toute ressemblance historique avec la manière dont les populations amérindiennes ont été décimées par l’arrivée des colons espagnols au XVIe siècle serait bien entendu purement fortuite…

Toujours est-il qu’en Grande-Bretagne et désormais surtout sur le front écossais, la guerre à l’écureuil gris fait rage comme l’a bien relaté un documentaire récent diffusé sur Arte et qui montre un garde-chasse s’échinant à piéger et abattre les centaines d’écureuils gris qui pullulent dans le massif forestier dont il a la charge, tandis que certains restaurateurs se font une spécialité de cuisiner ce nouveau gibier très prisé par leurs clients. Comme s’en faisait l’écho récemment Ouest France, croquettes et lasagnes à l’écureuil sont devenues un must de la gastronomie Outre-Manche !

Une situation en réalité quelque peu paradoxale quand on apprend, au détour d’une interview diffusée dans ce reportage aussi pédagogique qu’objectif, que la disparition des écureuils roux en Grande-Bretagne, a été en réalité largement amorcée avant l’invasion de leurs cousins américains. Au XIXe siècle, la population d’écureuils roux dans le pays dépassait les 3,5 millions d’individus. Mais l’animal faisait alors l’objet d’une chasse impitoyable avec des sociétés de chasse qui s’en faisaient une spécialité. Le Club des écureuils des Highlands aurait ainsi à lui seul exterminé pas moins de 150 000 écureuils roux en une cinquantaine d’années !

Un écureuil gris (photo © Ian Prestin / Flickr.com / Ouest France)

Toujours est-il que c’est précisément pour repeupler leurs parcs désertés par ces petites bêtes d’apparence si sympathique que de riches propriétaires terriens britanniques ont importé vers 1870 des écureuils gris d’Amérique, avec le succès que l’on connaît… Et l’histoire est en train de se reproduire en Italie où les populations d’écureuils gris, introduits de la même manière, sont en train de se propager rapidement dans le nord du pays, laissant présager une arrivée probable en France un jour ou l’autre.

D’ailleurs, il existe déjà en France deux espèces d’écureuils considérées comme invasives. La première est l’écureuil à ventre rouge, originaire de Taïwan et observé dans la nature à partir de la fin des années 1960 après avoir été introduit par le propriétaire d’une maison du Cap d’Antibes. Cette espèce est désormais implantée sur une aire qui s’étend sur les communes voisines mais dont l’extension semble pour l’instant contenue par l’autoroute A8. En revanche, le seconde espèce, qui est celle du Tamia de Sibérie ou écureuil de Corée, vendue en animalerie depuis les années 1970, est désormais présente dans une bonne douzaine de sites principalement en région Ile-de-France.

Une martre des pins (photo © University of Aberdeen / Sciences et Avenir)

La bonne nouvelle pour les écureuils roux d’Écosse, est paradoxalement que se développe de nouveau l’un de leurs prédateurs naturels, la martre des pins… C’est en effet ce qu’ont mis en évidence des chercheurs de l’Université d’Aberdeen, à l’issue de patientes observations scientifiques dans le Highlands. Leur publication, astucieusement intitulée Les ennemis de mes ennemis sont mes amis, parue en mars 2018 dans la revue Proceedings of the Royal Society, montre en effet que le retour de ce petit mustélidé, qui fait l’objet de programmes de protection depuis les années 1980 après avoir été décimé, chassé pour sa fourrure et pourchassé pour sa mauvaise réputation de préleveur de gibier, favorise les écureuils roux dans leur combat inégal contre leurs cousins américains.

Ces derniers, moins méfiants car provenant d’un milieu où la martre n’est pas présente, constituent un mets de choix pour leur prédateur comme l’ont bien montré les chercheurs en observant des boîtes à nourriture servant d’appât. Les écureuils gris s’y attardent sans méfiance et sont croqués en priorité par les martres comme l’attestent les poils d’écureuils retrouvés dans les déjections de ces dernières.

Corrélations observées entre les population de martres et d’écureuils gris et roux (source © Sheehy and al., The enemy of my enemy is my friend: native pine marten recovery reverses the decline of the red squirrel by suppressing grey squirrel populations, mars 2018)

Du coup, les écureuils roux s’en portent mieux et on observe une corrélation très nette entre les populations de ces 3 espèces : là où la martre des pins prolifère, l’écureuil gris décline et l’écureuil roux relève la tête : une belle histoire, détaillé notamment sur le site Zoom Nature, à méditer pour quiconque se pique de vouloir réguler les espèces animales dans leur milieu naturel…

L. V.

Glyphosate : enfin un soupçon de transparence européenne ?

19 mars 2019

A quelques mois désormais des prochaines élections au Parlement européen qui se dérouleront en métropole le dimanche 26 mai 2019, voilà une information qui ne devrait pas laisser totalement indifférents les citoyens appelés aux urnes. Surtout ceux qui reprochent à l’Union européenne ses décisions souvent considérées comme opaques et orientées, surtout soucieuses de favoriser l’intérêt des multinationales et du libre-échange, voire de céder aux sirènes des lobbies les moins avouables…

Le Tribunal de l’Union européenne (source © Toute l’Europe)

Le Tribunal de l’Union européenne vient en effet de rendre public, par un communiqué de presse en date du 7 mars 2019, sa décision de désavouer une des agences européennes, l’EFSA, qui refusait obstinément de communiquer les éléments scientifiques sur lesquels elle avait pourtant fondé son avis en novembre 2015 quant à l’absence de nocivité du glyphosate pour la santé humaine. Un avis lourd de conséquences alors que quelques mois plus tôt, en mars 2015, le Centre international de recherche contre le cancer qui dépend de l’OMS, affirmait que le glyphosate, la molécule active du Roundup, l’herbicide fétiche de Bayer-Monsanto, était un « cancérogène probable ».

C’est en tout cas sur la base de l’avis scientifique de l’EFSA, suivi en mars 2017 de celui de l’Agence européenne des produits chimiques (ECHA), que l’Union européenne avait décidé, contre toute attente, le 27 novembre 2017, par 18 pays sur 28, de prolonger de 5 ans l’autorisation d’utilisation du glyphosate, jusqu’en décembre 2022 donc.

L’EFSA (European Food Security Authority, en français dans le texte), créée en 2002, est en effet l’agence européenne en charge d’évaluer les risques environnementaux et sanitaires de toute la chaîne alimentaire, et notamment de donner un avis scientifique, en principe impartial, sur les risques éventuels liés aux produits phytosanitaires dont fait partie le glyphosate.

Sauf que l’instance a été beaucoup critiquée pour les nombreux conflits d’intérêt qui concernent directement près de la moitié de ses membres, mais aussi pour sa très grande proximité avec les industriels de l’agro-business et l’opacité dont elle a fait preuve dans moult dossiers. En septembre 2017, de nombreux médias dont Libération rapportaient des faits troublants dénoncés notamment par La Stampa et The Guardian concernant des échanges très étroits entre l’EFSA et  la Glyphosate Task Force, un consortium de plus d’une vingtaine d’industriels utilisant ce produit et mené par Monsanto.

Le rapport final de l’EFSA comportait une centaine de pages copiées directement du dossier de demande de réautorisation émis par Monsanto. De plus, les lobbyistes de la Glyphosate Task Force ont eu accès direct au rapport de l’EFSA pour le relire et le corriger plus d’une semaine avant sa finalisation afin de bien s’assurer qu’il ne comportait aucune information gênante pour leurs affaires. Un privilège bien évidemment refusé aux associations environnementales impliquées dans le dossier…

Epandage de produit phytosanitaire (photo © Countrypixel / Stock.adobe.com / La Croix)

Plus grave encore, l’EFSA a toujours refusé de fournir les études scientifiques sur lesquelles elle avait fondé ses différents rapports certifiant que le glyphosate ne présentait aucun danger pour la santé humaine. Déjà en 2014, un chercheur indépendant, Anthony Charles Tweetdale, avait soumis à l’EFSA une demande d’accès aux deux études de toxicité sur lesquelles l’agence s’était appuyée pour déterminer la dose journalière admissible de glyphosate.

Une demande qui s’était soldée par un refus, de même que lorsque 4 députés européens, dont la Française Michèle Rivasi, ont réclamé en 2017 à l’EFSA d’accéder aux résultats et analyses des études sur la cancérogénéité du glyphosate. Dans les deux cas, l’EFSA a justifié sa décision en arguant du fait que « la divulgation de ces informations pourrait porter sérieusement atteinte aux intérêts commerciaux et financiers des entreprises ayant soumis les rapports d’étude » ou encore que « il n’existait pas d’intérêt public supérieur justifiant la divulgation ».

Michèle Rivasi, députée européenne EELV (photo © Tim Douet / Le Lanceur)

Une telle attitude ne pouvait naturellement que renforcer la suspicion de collusion, même si Michèle Rivasi reste plus mesurée, constatant simplement que « L’EFSA est une épine dans le pied du Parlement. Ils ont tellement peur des procès que peuvent leur intenter les multinationales comme Monsanto, qu’ils n’osent pas agir contre leurs intérêts ».

Le Tribunal de l’Union européenne a donc été saisi et, bonne surprise !, il vient de rendre son verdict le 7 mars 2019 donc, en donnant raison aux requérants. Son argumentaire est imparable et rejette sans la moindre ambiguïté les arguties mises en avant par l’EFSA. Selon son arrêt, «une institution de l’Union, saisie d’une demande d’accès à un document, ne peut justifier son refus de le divulguer sur le fondement de l’exception relative à la protection des intérêts commerciaux lorsque les informations contenues ont trait à des émissions dans l’environnement ».

Les juges enfoncent le clou en démontrant qu’un herbicide comme le glyphosate est, par nature, destiné à être libéré dans l’environnement, et donc sujet à émettre sa substance active dans l’environnement. Il serait d’ailleurs bien difficile de prétendre le contraire dans la mesure où les analyses effectuées depuis des années à travers toute l’Europe dans les cours d’eau comme dans les nappes souterraines révèlent la présence quasi-systématique de glyphosate et de son dérivé classique l’AMPA (acide aminométhylphosphonique).

Le siège de l’Agence européenne de sécurité des aliments à Parme

Le tribunal conclut donc sans ambage que « le public doit avoir accès non seulement aux informations sur les émissions en tant que telles, mais aussi à celles concernant les conséquences à plus ou moins long terme de ces émissions. En effet, l’intérêt du public est précisément de savoir non seulement ce qui est ou sera rejeté dans l’environnement, mais aussi de comprendre la manière dont l’environnement risque d’être affecté par les émissions en question ».

Un véritable camouflet donc pour l’agence européenne, qui a néanmoins 2 mois pour faire appel de cette décision, de même d’ailleurs que le groupe Monsanto qui est directement concerné par le sujet et s’était allié à l’EFSA pour l’occasion. Un beau succès en tout cas pour les 4 eurodéputés à l’origine de cette bataille homérique, dont l’élue Verts Michèle Rivasi qui a naturellement saluée cette « victoire historique ». Même l’EFSA a feint de s’en réjouir, estimant sans rire que cet arrêt « fournit une orientation à l’EFSA et aux autres organismes chargés d’interpréter la législation de l’UE sur l’accès du public aux documents ». Heureusement en effet que la Justice est en mesure de faire cet effort de pédagogie pour aider de pauvres experts scientifiques (sinon objectifs) à saisir les fondements de notions aussi complexes que celles touchant à l’intérêt général et au respect de l’environnement…

L. V. 

Hommage à Ratatouille, victime du changement climatique

4 mars 2019

C’est un communiqué officiel du ministère de l’environnement australien qui a annoncé la nouvelle à la planète entière le 18 février 2019 : le rat Melomys rubicola, une espèce de rongeur endémique découvert en 1845 sur l’île de Bramble Cay a disparu à jamais, première espèce de mammifère désormais officiellement rayée de la planète, victime directe du réchauffement climatique

Feu Melomys rubicola dans son milieu naturel (photo ©️ Ian Bell / EHP / Futura Science)

Il faut dire que ce petit rat brun qui a de faux airs de Ratatouille, avec sa fourrure brune rougeâtre au-dessus et grisâtre au-dessous, avec des poils noirs sur le dos, n’avait pas forcément été très perspicace dans le choix de son habitat, en l’occurrence une bande de sable minuscule de 250 m de long située à l’extrémité nord de la Grande Barrière de corail, pas très loin des côtes de la Papouasie-Nouvelle-Guinée. Culminant à seulement 3 m au-dessus du niveau de la mer et s’étendant initialement sur 5 ha, l’îlot avait été peu à peu grignoté au gré des tempêtes successives et de la lente mais inexorable montée du niveau de la mer sous l’effet du réchauffement climatique.

Vue aérienne de Bramble Cay en 2008 (source Queensland EPA)

Résultat : la surface émergée de l’île a été réduite de moitié et le petit rat Melomys rubicola a disparu corps et âme. La dernière fois qu’il a été observé remonte à 2009. Une nouvelle expédition scientifique menée en 2014 l’a cherché partout mais peine perdue : le petit rongeur qui avait l’habitude de se nourrir d’œufs de tortue et de plantes succulentes n’existe plus.

En réalité, l’information date de 2016, lorsque les scientifiques ont publié le résultat de leur expédition sur l’île de Bramble Cay. Mais il a fallu plus de 2 ans pour que le gouvernement australien se décide à publier l’avis officiel de décès, une information d’ailleurs confirmée peu après par l’Union internationale pour la conservation de la nature (UICN) : Melomys rubicola est ainsi passé directement du statut d’espèce en danger et celui d’espèce éteinte.

L’îlot d’East Island avant le passage de l’ouragan Walaka (photo ©️ Chip Fletcher / Youtube / Traveller)

Paix à son âme, en attendant les suivants qui ne devraient pas tarder à le rejoindre sur cette liste, car bien d’autres îles à travers le monde sont menacées de disparition à très court terme, à l’exemple de l’îlot East Island, situé au nord-ouest de l’archipel hawaïen dans le Pacifique et qui a été à son tour rayé de la carte à l’issue du passage de l’ouragan Walaka en octobre 2018, mettant gravement en danger de nombreuses espèces qui viennent s’y réfugier.

Un caricaturiste du Guardian, Andrew Malton qui signe ses œuvres sous le pseudonyme First Dog in the Moon, s’est ému de la disparition du petit rat de Bramble Cay et en a tiré une bande dessinée en hommage au rongeur qui nous a quitté définitivement, rappelant au passage qu’un plan avait bel et bien été élaboré pour le sauver pendant qu’il était encore temps, mais que l’inertie coutumière n’avait pas permis de le mettre en œuvre dans les délais.

Dessin d’Andrew Marlton, signé First Dog on the Moon, publié dans The Guardian le 20 février 2019

Le caricaturiste feint d’imaginer qu’une minute de silence va être organisée dans chacune des écoles du pays en hommage à cette première victime du réchauffement climatique et que désormais, tous les 18 février, une journée du souvenir sera organisée pour que chacun se remémore à jamais la disparition de ce petit rongeur et se rappelle que chaque espèce qui s’éteint est une part de nous-même qui disparaît à jamais.

Mais bien sûr, le dessinateur conclut que tout cela ne se produira pas et que chacun a déjà depuis longtemps oublié cette petite bestiole sans la moindre utilité, que bien peu d’ailleurs pouvaient se vanter d’avoir vue et qui aurait sans doute été qualifiée de nuisible et pourchassée en d’autres circonstances. Il n’en reste pas moins que l’affaire mérite réflexion. On sait que les rats ont l’habitude de quitter le navire quand il y a du grabuge à bord, mais quand c’est leur habitat terrestre qui sombre dans l’indifférence générale, ils n’ont d’autre solution que de disparaître : adieu Ratatouille !

L. V.

Un musée sous-marin bientôt à Marseille ?

25 février 2019

Récif artificiel immergé dans le Parc marin de la Côte Bleue (photo © Laurent Piechegut / BIOS / PMCB)

A Marseille, on adore immerger toutes sortes de structures au fond de la mer. Les premières expériences datent de 1983 sur la Côte Bleue, même si l’idée n’est pas nouvelle : les Romains déjà immergeaient des amphores au fond de la mer pour y attirer le poulpe et les Japonais se sont fait une grande spécialité de cette approche qui consiste à mettre en place, sur les fonds marins, des structures immergées durables destinées à favoriser le développement et la fixation de nombreuses espèces animales et végétale qui s’en servent de support et d’abris.

Entre 1986 et 1990, ce sont ainsi 183 structures artificielles en béton qui ont été immergées au large de Carry-le-Rouet et Sausset-les-Pins pour y recréer un habitat favorable au développement de certaines espèces halieutiques. Puis, à l’automne 2007, ce sont pas moins de 401 récifs artificiels de toutes formes et de toutes tailles qui ont été déposés par la Ville de Marseille à 25 m de profondeur entre la Corniche et les Iles du Frioul, afin d’essayer de redonner un peu de vie aux fonds marins totalement ravagés par la construction de la plage du Prado dans les années 1970 et par des années de déversements de toutes sortes. Plus de 10 millions d’euros ont ainsi été investis pour construire et mettre en place près de 30 000 m3 de récifs artificiels sur 220 ha, mais aussi pour assurer un suivi scientifique afin d’étudier l’impact d’un projet aussi ambitieux.

Récifs artificiels immergés au large du Prado dans la rade de Marseille (photo © DR / Made in Marseille)

Dix ans plus tard, la Ville de Marseille a fêté bruyamment la réussite d’un tel pari qui, malgré de nombreuses critiques, a permis de faire revenir de nombreuses espèces qui avaient déserté ces fonds marins et d’augmenter la biodiversité de ce secteur, le nombre d’espèces de poissons ayant été multiplié par trois en 10 ans. Une réussite qui tient sans doute aussi en grande partie au fait que la zone en question est désormais protégée par arrêté préfectoral, interdisant toute pêche, plongée, ou même simple mouillage.

Des plongeurs déposent des récifs artificiels « hôtel à poissons » d’une dizaine de tonnes à 30 mètres de profondeur au large des calanques de Marseille, le 30 janvier 2018 (photo © Boris Horvat / AFP)

C’est en tout cas fort de ce succès que la Ville de Marseille s’est lancée l’an dernier dans l’immersion de nouveaux récifs artificiels, cette fois dans les Calanques, au niveau de l’exutoire de Cortiou qui rejette en mer les eaux issues de la station d’épuration de toute l’agglomération marseillaise, Carnoux y compris. Un secteur où la qualité des eaux reste très médiocre avec des concentrations en métaux lourds, mais aussi en résidus médicamenteux ou en fragments de plastiques qui n’incitent guère à la baignade, comme l’évoque Sciences et Avenir. Une situation qui explique d’ailleurs les critiques soulevées par de nombreux défenseurs de l’environnement, craignant que le fait d’attirer artificiellement la faune aquatique à se fixer dans ce secteur, ne se traduise en réalité par une fragilisation de ces espèces soumises à un environnement très pollué.

Mais cela n’a pas empêché l’immersion en février 2018 de 300 t de récifs artificiels sous forme de blocs de béton déposés par 20 m de fond, sous le pilotage de la start-up montpelliéraine Seaboost et pour un budget de 1 million d’euros. Là aussi, un programme de suivi scientifique est prévu et l’avenir dira si les résultats sont à la hauteur des espérances malgré le contexte a priori guère favorable.

Plan de situation du futur musée sous-marin de la plage des Catalans (source : enquête publique / Made in Marseille)

En tout cas, immerger des objets en béton au fond de la mer est devenue une habitude bien ancrée dans la cité phocéenne puisqu’on y étudie également la faisabilité de créer un musée sous-marin au large de la plage des Catalans, un projet qui devait voir le jour dès le printemps 2017, mais qui a été retardé le temps de recevoir toutes les autorisations réglementaires nécessaires. C’est désormais chose faite puisque le Préfet a finalement donné son accord à l’issue de l’enquête publique qui s’était déroulée entre mai et juin 2018.

En l’occurrence, il s’agit d’immerger par 5 m de fond, à une centaine de mètres du rivage, une dizaine de statues entre lesquelles les visiteurs munis de palmes et de tubas pourront librement se promener, des statues qui serviront elles-aussi de récifs artificiels puisque la faune et le flore sous-marines pourront les coloniser.

Musée subaquatique d’art de Cancun

L’idée n’est d’ailleurs pas nouvelle puisqu’un musée de ce type est ouvert depuis 2009 près de Cancún, sur la presqu’île du Yucatán au Mexique. L’artiste britannique Jason de Caires Taylor y a réalisé 400 sculptures dont certaines particulièrement spectaculaires que l’on peut découvrir au gré de ses plongées. Toutes réalisées avec du ciment alcalin, de la fibre de verre et différentes substances résistantes et écologiques, ces œuvres d’art ont été transportées sur des plateformes flottantes et immergées avec précision dans différents endroits, près de récifs naturels de manière à créer des salles de différentes thématiques.

Et ce n’est pas le seul site de ce genre puisque le même artiste, qui avait déjà créé un premier projet de ce type en 2006 sur l’île de la Grenade dans les Caraïbes, a récidivé cette fois au large de Lanzarote, dans les Canaries, où le Museo Atlántico a ouvert ses portes sous-marines début 2017 après 3 ans de travaux nécessaires pour installer ses 250 sculptures par 12 m de fond.

Lampedusa, une œuvre immergée de l’artiste Jason de Caires Taylor au Museo Atlántico de Lanzarote (photo © Jacon DeCaires Taylor / Underwater sculpture)

Le résultat est saisissant d’autant que les effigies réalisées dans un béton spécifiquement adapté ont été moulées directement sur des habitants de l’île. Certaines sculptures représentent les migrants de Lampedusa venus s’échouer sur les plages des îles Canaries : « Ce travail ne se veut pas un hommage ou un mémorial aux nombreuses vies perdues, mais un rappel brutal de notre responsabilité collective. » explique d’ailleurs l’artiste. L’installation principale, appelée Rubicon, est constituée d’un groupe de 35 personnes marchant vers une porte, un point de non-retour, qui fait référence aux menaces pesant sur les océans de la planète.

Rubicon, œuvre magistrale de l’artiste Jason de Caires Taylor au Museo Atlántico de Lanzarote (photo © Jacon DeCaires Taylor / Underwater sculpture)

Reste que le futur musée sous-marin de la plage des Catalans ne sera probablement pas constitué d’œuvres de Jason de Caires Taylor car l’artiste anglais a semble-t-il perdu patience en attendant la fameuse autorisation préfectorale que l’association des “Amis du musée subaquatique de Marseille” a finalement reçue fin novembre 2018 seulement, comme l’indique Made in Marseille, et ceci pour une durée de 15 ans. L’association qui porte le projet est donc désormais à la recherche d’un nouvel artiste pour meubler les fonds de ce qui sera le premier musée sous-marin en Méditerranée : avis aux amateurs…

L. V. 

Jeanne Calment, l’Arlésienne des records ?

17 février 2019

Née le 21 février 1875 à Arles, Jeanne Calment fait partie de ces casaniers qui sont décédés dans leur ville de naissance après y avoir passé toute la vie. Une vie particulièrement longue puisqu’elle a duré exactement 122 ans, 5 mois et 14 jours.

Jeanne Calment lors de son 121ème anniversaire (photo © AFP)

C’est même très officiellement le record mondial de longévité pour un être humain dont la date de naissance a été enregistrée avec une fiabilité raisonnable dans un registre d’état-civil. Un record qui a d’ailleurs été enregistré deux fois dans le Livre Guinness des Records : en 1988, alors qu’elle est âgée de 112 ans, elle est désignée comme doyenne de l’humanité suite au décès à 114 ans de l’Américaine Florence Knapp. Mais ce titre lui est retiré en 1990 car une autre Américaine, Carrie White, qui prétend être née en 1874, lui conteste cette gloire. Il fallut donc, à l’Arlésienne plus que centenaire, patienter jusqu’à la mort de sa rivale en 1991 pour reconquérir ce titre et figurer de nouveau dans le Livre Guinness des Records à partir de 1993, reconnue même à partir de 1995 comme la personne la plus âgée ayant probablement vécu sur Terre à ce jour.

Tombe de Jeanne Calment dans le cimetière de Trinquetaille à Arles (photo © J. Saint-Marc / 20 minutes)

Une véritable gloire internationale donc pour cette Arlésienne qui est apparue pour la première fois à la télévision à l’occasion d’une interview où elle évoque ses souvenirs de la visite de Vincent Van Gogh à Arles en 1988, alors qu’elle avait 12 ou 13 ans, mais dont les apparitions médiatiques se sont ensuite multipliées, chacun de ses anniversaires étant fêté comme il se doit ainsi que l’évoquera devant les caméras de France 2, Michel Vauzelle, alors maire d’Arles, lors de sa disparition en août 1997 :  « On s’était fait à l’idée que Jeanne Calment ne nous quitterait jamais. Chaque année, on se retrouvait autour d’elle, sa grande famille arlésienne, et elle était notre grande sœur. Elle nous montrait le chemin de la vie, de la curiosité, de l’appétit de vivre, de la force de vivre ».

Née dans une famille aisée et ayant épousé à 21 ans un cousin, riche marchand à Arles et portant comme elle le patronyme de Calment, Jeanne n’a jamais eu besoin de travailler et a pu s’adonner à ses différentes passions parmi lesquelles le tennis, le vélo, le piano, l’opéra, ou encore, paraît-il le patin à roulettes. Sa fille Yvonne décède en 1934 et son mari en 1942, suivis en 1963 par son gendre et son unique petit-fils, le docteur Frédéric Billot.

Sans famille proche ni descendance, elle-même vivra donc seule dans sa maison d’Arles jusqu’à l’âge de 110 ans avant d’intégrer la Maison de retraite du Lac, toujours à Arles, où elle passera les dernières années de sa vie, répétant à qui voulait l’entendre que « Dieu l’avait oublié » tout en sirotant son verre quotidien de porto et en s’enfilant son kg de chocolat hebdomadaire si l’on en croit certains témoignages.

Carte d’identité de Jeanne Calment (source : Jeanne Calment, l’oubliée de Dieu, France Cavalié / Centenaires français)

La vente de son appartement en viager à son notaire, maître André-François Raffray, en 1965, alors qu’elle est déjà âgée de 90 ans, fait partie de ces histoires que tous les notaires ne peuvent s’empêcher d’évoquer avec angoisse : alors âgé de 47 ans, celui-ci était persuadé d’avoir fait une excellente affaire, s’engageant à verser à la quasi-centenaire et jusqu’à la mort de cette dernière une rente de 2 500 francs par mois en vue de devenir ensuite propriétaire de son bien. Sauf que lorsque le notaire est lui-même décédé en 1995 à l’âge de 77 ans, Jeanne Calment était toujours vivante et qu’il a fallu que l’épouse du notaire poursuive les versements pendant encore près de 2 ans avant de pouvoir enfin entrer en possession de l’appartement si longtemps attendu et finalement payé plus de deux fois sa valeur réelle !

Toujours est-il que l’image de cette aimable « plus-que centenaire », vénérée du côté de Saint-Trophime, se retrouve depuis quelque temps au centre d’une polémique dont même Le Monde s’est fait l’écho. Un gérontologue russe, Valeri Novosselov, qui s’intéresse depuis longtemps au cas de Jeanne Calment, a en effet publié début 2019, avec l’aide du mathématicien Nikolay Zak une étude sur le réseau social international scientifique ResearchGate, qui sème le doute sur cette belle histoire de longévité.

Selon ce spécialiste, dont les thèses ont notamment été largement reprises par l’agence de presse russe Sputnik, souvent accusée de complotisme et de propagande, de très nombreux indices concordant laissent en effet penser que, lors de son décès en 1997, Jeanne Calment est plus jeune qu’elle ne le prétendait, ainsi que le montrent l’analyse de son maintien exceptionnel à cet âge, de son absence totale de démence ou encore de la faiblesse d’indices d’ostéoporose.

Jeanne Calment et sa fille Yvonne (source : Les 120 ans de Jeanne Calment, Michel Allard et Jean-Marie Robine)

Mais les soupçons de ces chercheurs russes se trouvent surtout renforcés par l’analyse de certains faits troublants qui les amènent à penser qu’en 1934, ce n’est pas la fille de Jeanne, Yvonne alors âgée de 36 ans qui est décédée d’une pleurésie, mais sa mère qui avait alors 59 ans. Les arguments qu’ils mettent en avant sont multiples, allant de la ressemblance frappante entre les deux femmes sur les (rares) photos existantes, jusqu’à une incohérence dans la couleur des yeux en passant par l’absence de certificat médical produit en 1934 et surtout par le fait que Jeanne Calment a brûlé elle-même tous ses papiers et photos de famille alors que la Ville d’Arles envisageait les transférer aux archives municipales. Une substitution qui aurait pu être motivée par un souci de minimiser des frais de transmission et qui aurait d’ailleurs déjà attiré les doutes d’un expert d’assurance du vivant de Jeanne Calment si l’on en croit les investigations du Monde.

Une accusation qui bien sûr soulève de forts doutes de la part de deux spécialistes qui ont eu à examiner la plus-que centenaire avant sa disparition, en l’occurrence Jean-Marie Robine, directeur de recherche à l’INSERM, et Michel Allard, médecin spécialiste en gérontologie. Leur témoignage, publié notamment par France-Inter, montre néanmoins que au moins le second n’exclut pas totalement l’hypothèse d’une telle substitution, reconnaissant en tout cas n’avoir jamais abordé le sujet avec Jeanne Calment et admettant qu’il arrivait souvent à cette dernière de se tromper en évoquant son mari qu’elle appelait « mon père ». Mais quand on atteint un grand âge, ce type de confusion n’est pas rare.

Comparaison entre une photo de Jeanne Calment âgée (à droite) et de sa fille Yvonne (à gauche) et tentative de superposition (source : Nikolay Zak / RessearchGate)

Faudra-t-il alors exhumer les restes de l’Arlésienne et procéder aux analyses ADN de vigueur pour lever enfin le doute qui titille l’humanité toute entière, à savoir s’il on est bien en droit d’espérer pouvoir encore faire du vélo à 100 ans passés et savourer des chocolats à 115 ans révolus ? Tout compte-fait, peut-être vaut-il mieux laisser planer le doute sur le sujet et laisser quelque espoir à ceux qui escomptent encore vivre quelques années supplémentaires en bonne santé…

L. V.  

Chine : on a marché sous la dune, et bientôt sur la lune…

3 février 2019

Les Chinois n’ont pas fini de faire parler d’eux… Dernièrement, c’est un musée enterré sous une dune qui vient d’ouvrir ses portes en octobre 2018 : conçu par l’équipe d’Open Architecture, basée à Pékin, l’UCCA Dune (Ullens Center for Contemporary Art) est, comme son nom le suggère, un petit musée d’art contemporain niché en grande partie sous une dune, en bordure de la côte septentrionale de la Chine à Qinhuangdao.

Vue aérienne du UCCA Dune Art Museum caché sous la dune (photo © Wu Qingshan)

Le concept est pour le moins original. L’espace bâti en béton est constitué comme un réseau de grottes aux formes arrondies organisé en 7 galeries intérieures, sur une superficie totale de 930 m2, le tout ayant ensuite été recouvert par le sable de la dune qui avait été au préalable excavée. Trois entrées à flanc de dune ainsi que plusieurs puits de lumière et des belvédères émergeant du sable donnent un peu de clarté à cet espace souterrain quelque peu atypique et qui permet au visiteur de déambuler en toute sécurité sous la dune.

Les architectes concepteurs de cette curiosité dont s’est notamment fait l’écho le Journal du design, planchent d’ailleurs désormais sur un autre projet sur le même site, le Sea Art Museum, lequel sera partiellement immergé sous l’eau et ne sera accessible qu’à marée basse.

Dans le même style, un autre projet architectural chinois, conçu par le cabinet pékinois MAD architects, avait aussi beaucoup fait parler de lui. Comme l’expliquait Le Moniteur en 2013, ce projet de musée d’art doit être implanté sur l’île de Pingtan, la cinquième plus vaste de Chine, située dans la province de Fujian, juste en face de Taïwan et destinée à devenir un important centre de développement touristique, commercial et culturel.

Maquette du Pingtan Art Musem (photo © MAD architects)

Cet édifice, dont la construction était prévue en 2016, se présente comme une presqu’île flottante en béton de 40 000 m2, implantée dans un plan d’eau et accessible depuis une jetée. Il semble bien cependant que cette structure en forme de trois dunes flottantes émergées à quelques encablures du rivage et à l’intérieur desquelles le visiteur devait se promener de salle en salle, soit à ce jour resté à l’état de maquette…

Ce n’est pas le cas en revanche des projets chinois qui visent non pas la dune mais carrément la Lune. Car l’Empire du Milieu ne cache pas ses ambitions en matière de conquête spatiale. C’est ainsi que le module d’exploration Chang’e 4, qui avait quitté le sol terrestre le 7 décembre 2018 s’est posé dans la nuit du 2 au 3 janvier 2019, sur la face cachée de la Lune, un exploit inédit qui vient prouver s’il en était encore besoin, que la Chine est désormais en pointe en matière de prouesses technologiques.

Une vue de la face cachée de la Lune prise lors de la mission Apollo 16 (source © NASA)

Si les Américains et les Russes se sont déjà posés à plusieurs reprises sur la Lune, du côté qui est tourné en permanence du côté de la Terre, personne n’avait en effet été voir de près ce qui se passait de l’autre côté de notre satellite naturel, sur le versant invisible, dont la surface est d’ailleurs constellée de profonds cratères, bien davantage que sur la face visible largement recouverte de grands épanchements tabulaires de lave. C’est un satellite russe qui avait photographié pour la première fois cet hémisphère invisible de la Lune et il avait fallu attendre 1968 pour que les premiers hommes puissent l’admirer en direct, en l’occurrence ceux de l’équipage d’Apollo 8 en rotation autour de la Lune.

Pour parvenir à guider et faire atterrir un engin spatial sur la face cachée de la Lune, il fallait prévoir un relai positionné derrière la Lune mais restant en contact avec la Terre afin de pouvoir transmettre au futur robot explorateur les ordres venant du plancher des vaches. C’est ce qu’on fait les Chinois en lançant, en mai 2018, le satellite Queqiao (qui signifie « le pont des pies » en Mandarin) placé en orbite à 65 000 km de la Lune.

Le module lunaire lui-même s’est posé au pôle sud de la face cachée de la Lune, dans le cratère Von Kármán, baptisé ainsi en l’honneur d’un astrophysicien tchèque. Tout s’est bien passé et il est même prévu qu’un robot d’exploration parcourt une dizaine de kilomètres pour investiguer la nature du sol dans le secteur. Les nouvelles arrivent au compte-goutte mais on sait déjà que les nuits lunaires sont particulièrement fraîches dans le secteur : – 190 °C, tout de même ! Une nuit lunaire qui n’en finit pas d’ailleurs puisque celle-ci a duré 14 jours, obligeant le robot Yutu-2 à se mettre en hibernation en attendant que le jour se lève enfin, le 31 janvier.

Le robot explorateur Yutu-2 quittant sa rampe de débarquement (source © CNSA / Numerama)

Les premières photos diffusées dès le 4 janvier 2019 du petit robot de 140 kg à 6 roues se dandinant sur le sol lunaire à l’extrémité de ses rails de débarquement avec ses deux ailes déployées recouvertes de panneaux solaires, obligent d’ailleurs à s’interroger sur le petit nom que lui ont octroyé les ingénieurs chinois puisque Yutu signifie « lapin de jade »… L’engin ressemble à tout sauf à un lapin, mais il porte sur ses épaules une lourde responsabilité puisque l’une de ses missions est de déposer sur la face cachée de la Lune un récepteur radio destiné à écouter l’Univers avec une longueur d’ondes que les interférences avec la Terre ne permettent pas ailleurs. « C’est une nouvelle fenêtre qui s’ouvre sur l’univers », explique ainsi aux Echos Francis Rocard, responsable du programme d’exploration du système solaire au CNES. Après les caméras à reconnaissance faciale dans les rues de Pékin et l’espionnage à grande échelle, voilà que la Chine déploie désormais ses grandes oreilles à l’échelle de l’Univers…

L’espace lunaire dans lequel s’aventure le « Lapin de Jade » : image prise depuis le module Chang’e 4 (source © CNSA / Le Figaro)

Et ce n’est pas tout car les Chinois ne comptent pas s’arrêter en si bon chemin. Dès cette année, une nouvelle mission, Chang’e 5 (Chang’e étant le nom de la divinité lunaire dans le Panthéon chinois), est prévue avec au programme le recueil d’échantillons de sol lunaire, sur la face visible de la Lune mais dans un secteur que l’on pense avoir été soumis à des éruptions volcaniques plus récentes.

En même temps, la Chine se prépare à envoyer ses taïkonautes sur la Lune vers 2036 et s’active à produire pour 2022 sa première grande station spatiale, pompeusement baptisée « Palais céleste » et qui pourrait prendre le relai de la Station spatiale internationale, l’ISS, dans laquelle Russes, Américains, Européens et Japonais sont associés mais dont la retraite est programmée en 2024. Voilà qui sent de plus en plus la course de vitesse entre puissances en quête d’hégémonie, comme au bon vieux temps de la Guerre froide, de quoi rassurer tout un chacun quant à l’avenir radieux de l’Humanité !

L. V.

Des dunes de sable dans l’Arctique : rêve ou réalité ?

3 janvier 2019

Parmi les risques liés au changement climatique en cours, celui lié à la montée du niveau des océans est sans doute celui qui a été le mieux intégré et auquel on se réfère souvent en premier, mais on ne pense pas toujours à celui de l’ensablement, qui progresse avec l’avancée des zones désertiques et qui menace bien des populations. Et pas seulement celles qui vivent en zone subtropicale, en bordure des zones désertiques déjà bien développées et en voie d’extension.

Maison enfouie sous le sable à Shoyna (photo © Sergey Ponomarev / New York Times)

Carte de situation de Shoyna au nord de la Russie (source © Wikipedia)

Il n’y a pas qu’à Tombouctou qu’on risque de se réveiller un matin dans l’incapacité de sortir de sa maison parce qu’une dune de sable s’est accumulée dans la nuit sous l’effet du vent, bloquant toutes les issues. Le risque existe aussi au niveau du cercle polaire arctique, dans le petit village de pêcheurs de Shoyna, situé à l’extrême nord de la Russie, sur la presqu’île de Kanin qui borde la Mer Blanche, au sud de la Mer de Barents.

Ce village qui abrite désormais moins de 300 habitants, les seuls quasiment à vivre à demeure sur cette péninsule peu hospitalière où la mer est couverte de glace de novembre à avril et où l’été ne dure que quelques mois, a été fondé en 1930.

 

Vue aérienne du village de Shoyna (photo © Sergey Ponomarev / New York Times)

Il a connu son apogée dans les années 1950, comptant jusqu’à 1500 habitants et une flotte de 70 bateaux de pêche qui écumaient les fonds poissonneux de la Mer Blanche. Les chalutiers ayant rapidement raclé toutes les espèces vivantes présentes dans cet écosystème particulièrement fragile, la pêcherie a dû fermer ses portes et les carcasses des bateaux finissent de pourrir sur le rivage, à demi ensevelis sous les dunes de sable qui progressent.

Epave de bateau de pêche abandonnée sur le rivage (photo © Sergey Maximishim et Dimitry Leltschuk / Moya-planeta)

Dans les années1950, les anciens du village se souviennent des pâturages qui s’étendaient encore autour du village. Mais l’écosystème a changé sous l’effet de la disparition des algues qui fixaient les fonds marins et le rivage, sous l’effet aussi sans doute de la déforestation alentours et peut-être même du détournement du cours de la rivière locale. Toujours est-il qu’une vingtaine de maisons a déjà été ensevelie sous le sable et qu’il faut recourir fréquemment au bulldozer pour dégager portes et fenêtres menacées de blocage.

Un gigantesque bac à sable pour les enfants… (photo © Sergey Maximishim et Dimitry Leltschuk / Moya-planeta)

Ce gigantesque bac à sable dans lequel le village se débat fait certes le bonheur des enfants qui y trouvent un superbe terrain de jeu. Mais lorsque le vent souffle et met en suspension les grains de sable qui alimentent le déplacement des dunes, alors chacun doit se calfeutrer en essayant d’empêcher le sable omniprésent de pénétrer à l’intérieur des maisons et en espérant que la porte d’entrée ne sera pas définitivement bloquée à la fin de la tempête. Un avant-goût du monde qui nous attend demain ?

L. V.

Tout compte fait, l’Homme ne pèse pas bien lourd…

29 décembre 2018

Un dessin signé Bar

Que pèse l’Homme sur Terre ? Une bien étrange question mais non dénuée d’intérêt à l’heure où l’on constate que l’activité humaine, surtout depuis l’accélération de l’industrialisation au milieu du XIXème siècle, après avoir largement altéré la biodiversité et les écosystèmes, est en train de bouleverser le climat mondial à une vitesse jamais connue jusque-là, entrainant un risque de dégradation irréversible des conditions de vie sur Terre.

C’est en tout cas une question à laquelle ont tenté de répondre trois chercheurs israéliens et américains qui se sont efforcé de compiler l’ensemble des données les plus récentes disponibles pour évaluer l’importance respective des différentes espèces vivantes présentes à la surface du globe terrestre. Leurs conclusions, accessibles en ligne et publiées en juin 2018 dans la revue scientifique PNAS (Proceedings of the National Academy of Sciences of the United States of America) ont été reprises récemment dans un article du Monde et ne manquent pas de sel…

L’unité de mesure retenue par ces chercheurs pour rendre compte de la masse respective des différentes espèces vivantes n’est pas des plus parlantes pour le commun des mortels puisque leurs résultats sont exprimés en gigatones de carbone (1Gt = 1 milliard de tonnes) ! Le choix peut paraître curieux mais est largement justifié par le fait que le carbone, en s’associant notamment avec l’hydrogène, l’oxygène, le phosphore ou encore l’azote, forme l’élément de base de la plupart des molécules organiques qui constituent le vivant.

L’intérêt principal de prendre un tel critère comme indicateur de comparaison est qu’il permet de faire abstraction de l’eau qui constitue une part majeure de la plupart des êtres vivants, ce qui revient plus ou moins à comparer la matière sèche globale des différentes espèces. Ainsi, un homme de 70 kg contient en moyenne de l’ordre de 45 kg d’eau et sa composition fera ressortir la présence de 43 kg d’oxygène, 7 kg d’hydrogène et 16 kg de carbone. La masse de carbone prise comme référence est donc très loin de représenter la totalité de la masse du vivant mais elle en constitue un indicateur pertinent pour comparer la part respective des différentes espèces vivantes, en particulier vis-à-vis de leur empreinte carbone.

Déforestation en Amazonie (photo © Marcelo Sayao)

A l’aune de cette référence, la biomasse totale présente à la surface du globe serait ainsi estimée à environ 550 Gt de carbone et la surprise est que 82 % de cette biomasse, soit 450 Gt est en réalité constituée par… des plantes vertes ! ce sont en effet les végétaux, présent pour l’essentiel sur les terres émergées de notre planète, qui représentent et de très loin, la majeure partie de la biomasse terrestre. Derrière viennent, seconde surprise, les bactéries qui, avec une biomasse globale évaluée à 70 Gt de carbone, forment donc le second groupe le plus représenté sur Terre…

Répartition de la biomasse terrestre par taxon en Gt carbone (infographie © Biosphoto / Le Monde d’après source PNAS)

Le diagramme ci-dessus, dessiné à partir des résultats de cette étude et qui représente la part des différents taxons (entités regroupant des organismes vivants classés dans une même catégorie) dans la biomasse totale avec pour chacun d’eux une aire proportionnelle à leur importance respective, montre que les autres espèces vivantes occupent une part relativement marginale à la surface du globe terrestre. Le troisième groupe en importance est d’ailleurs celui des champignons qui, avec une biomasse totale évaluée à 12 Gt prennent une part nettement plus importante qu’on aurait pu l’imaginer de prime abord.

Viennent ensuite, selon ce classement, les archées, des organismes unicellulaires procaryotes (dépourvus de noyaux) puis les protistes ou protozoaires, d’autres organismes également unicellulaires mais dont la cellule est munie d’un noyau comme les nôtres. L’ensemble des représentants du règne animal, ne pèse, tout compris, que 2 Gt de carbone : une misère !

Répartition de la biomasse terrestre par taxon en Gt carbone et détail sur la répartition au sein du règne animal (source © The biomass distribution on Earth / PNAS)

Et la répartition des espèces au sein de cette dernière catégorie réserve elle aussi son lot de surprise. Force est d’abord de constater que l’espèce humaine, bien qu’omniprésente, ne pèse pas lourd : à peine 60 millions de tonnes de carbone, soit plus de 1000 fois moins que les bactéries et plus de trois fois moins que les seuls virus pourtant minuscules… A l’échelle du globe, l’Homme n’est qu’un épiphénomène insignifiant !

Elevage industriel de poulets (photo © Fred Tanneau / AFP / Le Dauphiné)

Et pourtant, son empreinte est manifeste quand on regarde la répartition des espèces présentes au sein du règne animal. Ainsi, la totalité des mammifères sauvages présents à la surface de la Terre ne représenterait plus, selon cette étude, que 7 millions de tonnes de carbone (dont 3 pour les seuls mammifères terrestres), soit près de 10 fois moins que la population humaine, tandis que le bétail élevé pour les besoins de notre consommation (bovins et cochons en tête) représente à lui seul 100 millions de tonnes de carbone soit 15 fois plus que ses congénères restés à l’état sauvage ! Il en est d’ailleurs de même chez les oiseaux où les individus domestiqués (poulet principalement) représentent une biomasse près de trois fois supérieure à celle de l’ensemble des oiseaux sauvages (laquelle ne dépasse pas 2 millions de tonnes de carbone).

Chasse à la baleine au Japon (photo © Reuters / Ouest-France)

Certaines études estiment qu’avant le développement de l’activité humaine, il y a environ 50 000 ans, la biomasse des mammifères était de l’ordre de 40 Mt (en millions de tonnes de carbone), répartie à parts sensiblement égales entre les océans et les terres émergées. Ce stock a donc été divisé par 6 du fait de l’Homme, avec un impact encore plus fort sur terre qu’en mer. Quant à la biomasse végétale (dans laquelle les plantes cultivées représentent de l’ordre de 2 % du total), elle aurait été divisée par deux du fait de l’activité humaine, ce qui est considérable et amoindrit considérablement la capacité d’absorption des gaz à effets de serre dont l’émission est par ailleurs sans cesse croissante…

Termites quittant leur terrier (photo © Jean et Fred / Flickr)

Il y aurait beaucoup à dire encore de cette revue de la biomasse existante, même si celle-ci ne reflète pas, loin s’en faut, la perte de biodiversité qui se fait jour en parallèle. Ainsi, les insectes qui représentent pourtant une très large part de cette biodiversité avec plus de 1 millions d’espèces répertoriées, ne constituent qu’une partie minime de la biomasse totale même si certaines espèces comme les termites représentent à elles seules une masse comparable à celle de la population humaine dans son ensemble, avec néanmoins une empreinte nettement plus discrète sur la biodiversité globale : un exemple à méditer ?

L. V.

La biodiversité dans toute sa banale splendeur

5 décembre 2018

La salle du Clos Blancheton à Carnoux accueillait, jeudi 29 novembre 2018, ses adhérents et un public fidèle pour une conférence consacrée à la « biodiversité », animée par Madame Claude Gadbin-Henry, docteur ès- sciences. C’est en déroulant un diaporama extrêmement riche en illustrations d’espèces animales et végétales qui peuplent notre planète que la conférencière évoqua leur interdépendance, et leur contribution à la constitution de ce que l’on nomme la biodiversité.

Un public particulièrement attentif (photo © CPC)

On peut définir la biodiversité comme la diversité des organismes vivants. Elle se construit avec :

– la diversité des écosystèmes : milieux de vie et interactions entre les espèces qu’ils hébergent en un lieu donné, aux conditions édaphiques homogènes. Ce milieu est déterminé par la nature des sols, des sous-sols et des conditions climatiques locales ;

– la diversité des espèces : variété d’espèces existantes ;

– la diversité au sein de chaque espèce : on constate des variations d’origine génétique entre les individus : c’est la biodiversité génétique, liée à l’existence des allèles variables pour chaque gène, à l’intérieur d’une espèce, cette variabilité est un avantage évolutif, car il permet l’adaptation aux changement du milieu de vie.

Les différents niveaux de la biodiversité (source © Académie de Dijon)

Une analyse scientifique internationale, publiée en 2018, met en évidence que la Coccinelle asiatique, espèce introduite, devenue envahissante et mettant en péril la faune locale de coccinelles, présente une variabilité morphologique (coloration et nombre de points) exceptionnelle déterminée cependant par un seul gène, sous diverses formes alléliques.

Les multiples facettes de la coccinelle asiatique (photo © Entomart / Sciences et avenir)

La biodiversité locale dépend toujours également du milieu où se développent les espèces animales et végétales, et ce milieu est parfois modifié par l’homme.

L’adaptation des espèces animales ou végétales à ces milieux est liée à la pression de sélection au cours du temps long de l’évolution, mais on peut l’observer actuellement : à l’occasion de variations du climat, des espèces introduites accidentellement entrent en compétition avec des espèces indigènes et peuvent les faire disparaître, ou devenir des nuisances majeures car elles sont dépourvues de prédateurs ou de concurrents. Ainsi la coccinelle asiatique, introduite à des fins de lutte biologique contre les pucerons, caractérisée par son extrême variabilité génétique, pourtant reposant sur un seul gène, est devenue une espèce envahissante. De même le Frelon asiatique ou le Moustique tigre sont devenus envahissants après des introductions accidentelles.

L’introduction sans précaution d’un végétal parasité peut parfois amener la destruction de l’espèce introduite et des espèces indigènes, ainsi les palmiers porteurs du Charançon rouge, extrêmement nuisible…

Claude Gadbin-Henry, la conférencière (photo © CPC)

C’est avec une intention particulière que notre conférencière oriente son propos sur le monde des insectes. Ils constituent en effet 85 % des espèces animales, sans compter celles non encore connues ! Et ceci, même si, pour la plupart d’entre nous, la biodiversité animale évoque le plus souvent les grands mammifères, les oiseaux, les poissons, et les animaux domestiques. Jean Henri Fabre, connu pour ses « Souvenirs entomologiques », fut en plus de ses talents de conteur, un excellent observateur des insectes, et un éthologue avant que cette science ne voit le jour.

L’histoire nous apprend que l’homme a connu les insectes depuis l’aube de l’humanité : des gravures rupestres, trouvées dans l’Ariège et datant de 14 000 ans, représentent des sauterelles : elles témoignent des nuisances pour l’environnement humain (vols de crickets migrateurs dévastant les champs)…

Papillon vanesse du chardon

Par contre, on sait maintenant, que les insectes ont un rôle majeur et indispensable pour la reproduction, et la fructification des plantes à fleurs car ils permettent le processus de pollinisation, sans lequel de nombreux fruits et légumes disparaitraient de nos assiettes !

La suite du diaporama projeté nous fit rentrer dans le monde minuscule de ces espèces, visualisant ainsi la morphologie spécifique des insectes, tous hexapodes (6 pattes), leur corps étant composé d’une tête, d’un thorax et d’un abdomen. A partir d’images photographiques réalisées à différentes échelles nous avons observé :

– leur tête adaptée et modifiée en fonction du mode de nutrition : mâchoires pour broyer des végétaux (criquet) ou pour déchiqueter des proies (libellules), trompe pour absorber le nectar (papillon)…

– des yeux composés de multiples facettes, qui atteignent un champ de vision proche de 360°.

– leur déplacement est assuré par des pattes adaptées à diverses fonctions (saut, récolte du pollen) et des ailes procurant un vol spécifique pour chaque espèce, tel celui de la mouche qui peut être stationnaire.

Mante religieuse

Une autre particularité des insectes est une carapace rigide ou squelette externe protecteur. Cette peau rigide nécessite d’en changer lors de la croissance (la mue). Certaines espèces possèdent des aspects et couleurs ayant la faculté « d’effrayer » les prédateurs, tandis que d’autres permettent de se dissimuler dans l’environnement (mimétisme).

Abeille pollinisatrice (photo © Maciej Olszewski, Shutterstock / Futura Sciences)

La reproduction et la protection de la descendance ont été illustrées par des exemples spécifiques prouvant cette longue évolution adaptative, telles les antennes des papillons mâles qui détectent leurs femelles à plusieurs kilomètres de distance (antennes constituées de micros-tubes, chacun ayant fonction de récepteur moléculaire).

La diversité du monde floral fut illustrée par la projection d’une multitude de photographies caractéristiques des nombreuses couleurs et formes infinies composant l’univers des fleurs et des végétaux.

La finalité de cette conférence était de sensibiliser au monde inconnu des insectes, adapté à presque tous les milieux naturels. Leur rôle est fondamental pour la conservation de la biodiversité animale; ainsi que pour l’avenir du monde végétal, où leur rôle de pollinisateurs est garant de la variabilité génétique des graines. Cette variabilité permettra les adaptations fonctionnelles nécessaires pour la survie des espèces aux modifications en cours et à venir de notre environnement. Les insectes sont ainsi un des piliers de l’avenir du vivant. Mais l’homme prédateur au sommet de cette chaîne ne mettra-t-il pas fin à cet équilibre harmonieux ? C’est la question abordée entre les participants au cours de l’échange puis de l’apéritif offert par le Cercle à l’issue de cette présentation enrichissante.

C. M.

Une révolution de poids dans les mesures

3 décembre 2018

Les nouvelles unités de mesures adoptées à la Révolution française (gravure d’époque © DR)

C’était l’un des grands acquis de la Révolution française : le 18 Germinal de l’an II (7 avril 1795), dans son souci d’universalisme, la Convention nationale décrète que désormais, « il n’y aura qu’un seul étalon des poids et mesures pour toute la République ; ce sera une règle de platine sur laquelle sera tracée le mètre qui a été adopté pour l’unité fondamentale de tout le système des mesures ».

Contrairement à l’usage alors en vigueur qui se basait sur des étalons distincts et donc des unités de mesures variables selon les régions et les pays, les révolutionnaires français réunis en Assemblée constituante, avaient en effet décidé, dès 1790, sur proposition de Talleyrand, lui-même conseillé par Condorcet, de créer un système de poids et mesures à la fois stable et universel. L’idée n’était d’ailleurs pas nouvelle puisque c’est un religieux lyonnais, Gabriel Mouton, qui avait suggéré, dès 1670, de définir cette unité de mesure par une fraction de l’arc méridien terrestre.

C’est ce principe qui a donc été retenu en 1795, le mètre étant alors défini comme étant « la mesure de longueur égale à la dix-millionième partie de l’arc de méridien compris entre le pôle boréal et l’équateur », ce qui donnera lieu à la formidable épopée de Delambre et Méchain, deux scientifiques chargés, durant 7 ans, de procéder aux mesures géodésiques nécessaires pour évaluer précisément la distance entre Dunkerque et Barcelone

Tout le système métrique décimal, rendu obligatoire en France à partir du 23 septembre 1795, repose ainsi sur quelques unités simples et universelles dont les étalons en platine du mètre et du kilogramme sont déposés aux Archives nationales en 1799. Un siècle plus tard, en 1875, est créée la Convention du Mètre, signée alors par 17 pays et qui instaure le Bureau international des poids et mesures, première étape vers l’instauration du système international d’unités (dénommé SI dans le monde entier) adopté en 1960 et désormais en vigueur dans le monde entier sauf dans trois pays : la Birmanie, le Liberia et… les États-Unis !

La sonde spatiale Mars Climat Orbiter lancée par la NASA le 11 décembre 1998 (vue d’artiste)

Une divergence qui est encore à l’origine de certains dysfonctionnements comme celui qui a conduit la sonde spatiale Mars Climat Orbiter à s’écraser lamentablement à la surface de Mars le 23 septembre 1999 car l’équipe de navigation faisait ses calculs de correction de trajectoire dans un système métrique tout en alimentant ses logiciels avec des données sur la poussée des micro-propulseurs qui, elles, étaient exprimées en unités anglo-saxones : simple erreur de débutant…

Fondé en 1960 sur 6 unités de base (le mètre, unité de longueur, le kilogramme, unité de masse, la seconde, unité de temps, l’Ampère, unité d’intensité électrique, le Kelvin, unité de température et le candela, unité d’intensité lumineuse) auxquelles s’ajoute en 1971 la mole, unité de quantité de matière, le système est resté depuis lors solide sur ses fondements tout en faisant sans cesse progresser la définition des unités de base pour la rendre toujours plus précise et plus universelle.

C’est ainsi qu’en 1967, la seconde, définie jusque-là comme 1/86 400 de la durée d’un jour moyen, est redéfinie de manière beaucoup plus précise à partir d’un nombre d’oscillations lors de la transition entre deux niveaux d’énergie de l’atome de Césium 133. Et en 2011, la 24ème Conférence générale des poids et mesures décide de refonder totalement le Système international en se basant sur 7 constantes de la physique, parmi lesquelles la charge élémentaire e qui vaut, comme chacun l’apprend au lycée, 1,6 x 10-19 C, ou encore la vitesse de la lumière dans le vide, le fameux c de la formule d’Einstein E = mc2, qui approche les 300 000 km/s…

Adoption à l’unanimité du nouveau Système international lors de la 26ème Conférence générale des poids et mesures à Versailles le 16 novembre 2018 (source © Académie des Sciences)

Et la révolution prévue a donc eu lieu lors de la dernière Conférence générale des poids et mesures qui vient de se tenir du 13 au 16 novembre 2018 à Versailles et qui renvoie donc aux oubliettes de l’Histoire, « le grand K », ce cylindre de platine iridié d’1 kg, conservé sous trois cloches de verre au Bureau international des poids et mesures à Sèvres et qui définit depuis 1889 l’unité de masse qu’est le kilogramme. Il était temps puisque la masse de cet étalon avait lentement dérivé, accusant un écart de 50 microgrammes, certes négligeable pour le commun des mortels, mais dérangeant pour l’esprit scientifique et les besoins de l’industrie moderne entrée dans l’ère du nano-monde…

Désormais, le kg, initialement défini comme étant le poids d’un litre d’eau pure, n’est plus défini par référence à celle de l’étalon universel conservé à Sèvres, mais à partir de la valeur de la constante de Planck valant exactement h = 6,626 070 x 10-34 J.s, unité qui correspond à des kg m2 s-1. L’approche révolutionnaire vient de ce qu’on partait jusqu’à présent du kg défini à partir d’un élément de référence et qu’on mesurait la constante de Planck à partir de cet étalon au moyen d’une balance de Kibble (qui permet d’équilibrer les masses avec des forces électromagnétiques). On fera désormais l’inverse puisque cette constante universelle voit sa valeur fixée une fois pour toutes, et on en déduira la masse du kg à partir de cette valeur de référence.

Il en est de même pour le mètre qui était déjà défini depuis 1983 comme « la longueur du trajet parcouru dans le vide par la lumière pendant une durée de 1/299 792 458 de seconde » et dont la nouvelle définition est quasiment inchangée sauf qu’elle se base désormais sur une valeur explicite de la vitesse de la lumière égale exactement à 299 792 458 m/s.

Les autres unités fondamentales du Système international ont aussi subi un profond lifting. C’est le cas en particulier du degré Kelvin, qui était jusque-là défini comme une fraction de la température thermodynamique au point triple de l’eau où coexistent les trois phases solide, liquide et vapeur, définition qui dépendait fortement de la pureté et de la composition isotopique de l’eau utilisée. Il en est de même de l’Ampère, défini à partir de la force mécanique entre deux fils infiniment longs séparés d’un mètre et dans lesquels circule un courant électrique. La nouvelle approche, qui ne change rien pour la plupart des usages habituels, permettra d’obtenir des valeurs plus précises et intangibles pour les unités utilisées, y compris lorsqu’on s’éloigne du domaine de valeurs dans lequel elles ont été établies.

Expérience de spectroscopie à haute résolution au Laboratoire Kastler Brossel, contribuant à déterminer la valeur des constantes fondamentales (photo © Hubert Raguet / LKB / Journal du CNRS)

Plusieurs équipes françaises ont participé étroitement au calcul le plus précis possible des constantes de base sur lesquelles se fondent désormais le Système international. Ainsi, c’est au laboratoire de métrologie commun au LNE et au CNAM qu’a été fournie avec l’incertitude relative la plus faible la constante de Boltzmann k, si bien que la valeur retenue comme référence internationale est très proche de celle calculée par cette équipe de scientifiques français qui se situe dans la droite ligne de l’impulsion fournie sous la Révolution française et qui a permis de fournir au monde entier un système cohérent et universel d’unités de mesures.

L. V. 

Rappel : la biodiversité à Carnoux cette semaine

21 novembre 2018

C’est demain soir, jeudi 22 novembre à 18h30, que se tiendra la prochaine conférence du Cercle Progressiste Carnussien intitulée : La biodiversité comme vous ne l’avez jamais vue…

Qu’est-ce que la biodiversité ? Quelles formes diverses et variées, plus ou moins spectaculaires ou au contraire invisibles à nos yeux prend la biodiversité ? Quelles sont les menaces qui pèsent sur elle ? Faut-il sauvegarder la biodiversité et dans quel but ? La biodiversité est-elle vraiment utile à l’homme ? Autant de questions auxquelles tentera de répondre Claude GADBIN-HENRY, docteur ès Sciences et qui pourront alimenter les échanges avec le public.

Alors venez nous rejoindre nombreux pour cette conférence gratuite et ouverte à tous qui se tiendra jeudi à 18H30 dans la salle du clos Blancheton à Carnoux !

Des Prix Nobel d’économie bien optimistes…

6 novembre 2018

Dessin de Chapatte (source blog Le Monde)

Cette année, le prix de la Banque de Suède en matière d’économie, attribué depuis 1968 par la Banque centrale de Suède en mémoire d’Alfred Nobel et sur le même modèle que les prix concernant les matières scientifiques dûment identifiées par les frères Nobel dans leur testament, est venu récompenser deux économistes américains. L’affaire n’a rien d’étonnant puisque près des trois-quarts des lauréats, depuis que ce prix est décerné, sont de nationalité soit américaine, soit à la rigueur britannique, et en tout cas très largement d’obédience ultralibérale, à tout le mois orthodoxe et, pour certains, franchement réactionnaires.

Le cru 2018 n’échappe pas vraiment à la règle en venant ajouter deux Américains de plus à cette liste de 82 lauréats. Officiellement, ces deux chercheurs ont été récompensés le 8 octobre 2018 pour avoir intégré la prise en compte l’un du changement climatique et l’autre des innovations technologiques dans les analyses macroéconomiques. De véritables précurseur dotés d’une vision écologique donc ?

Attribution du 50ème prix Nobel d’économie, lors d’une conférence de presse à Stockholm le 8 octobre 2018 (photo © Henrik Montgomery / AFP / Libération)

Pas vraiment en réalité si l’on en croit les éléments biographiques que l’on peut lire à leur sujet dans la presse. Paul Romer, pur produit de l’Université de Chicago, fils d’un gouverneur du Colorado et considéré en 1997 comme l’une des 25 personnalités les plus influentes des États-Unis, s’est fait notamment connaître pour sa théorie de la croissance indéfinie. Peu importe à ses yeux que les ressources naturelles soient en nombre limité et en voie de raréfaction après des décennies de surexploitation irresponsable. Il estime en effet que le moteur principal de la croissance vient du génie humain à développer sans cesse de nouvelles inventions, surtout depuis la généralisation de l’informatique et des nouvelles technologies de l’information.

Paul Romer (source Wikipedia)

Cette notion de « croissance endogène » que soutient Paul Romer n’est pas inintéressante puisqu’elle met en avant l’importance pour un gouvernement d’investir dans la formation, la recherche et le développement technologique pour permettre de faire émerger de nouvelles innovations qui seront le moteur de la croissance de demain. Elle fait néanmoins quelque peu abstraction de la réalité qui oblige à constater que les ressources naturelles, même les plus banales comme les terres agricoles, l’air et l’eau, et a fortiori les plus rares comme le gaz, le pétrole, les minerais, sont inégalement accessibles et que tout développement humain harmonieux et durable ne peut faire totalement abstraction de leur partage et de leur gestion à long terme.

Imaginer que l’homme toujours trouvera des solutions techniques nouvelles pour continuer sa course effrénée vers davantage de confort n’est pas vraiment cohérent avec ce qu’on observe de l’histoire des civilisations qui presque toutes se sont heurtées, à un moment ou un autre, à la raréfaction des ressources dont elles avaient besoin et bien souvent aux conflits qui en ont résulté…

Quant à la thèse développée par l’autre lauréat du Prix Nobel d’économie 2018, William Nordhaus, formé au prestigieux Massachussets Institut of Technology et professeur à la non moins prestigieuse Yale University, elle est tout aussi contestable. Fervent opposant dès 1972 aux thèses écologistes du Club de Rome qui alerte, déjà à l’époque, contre les conséquences environnementales et sociales d’une croissance économique aveugle, Nordhaus s’est intéressé dès la fin des années 1980 aux impacts potentiels du changement climatique dont les scientifiques commençaient tout juste à se rendre compte des potentiels effets dévastateurs à long terme.

William Nordhaus (photo © Harold Shapiro / Yale University)

Mais nul catastrophisme dans la thèse de l’économiste américain, contrairement aux mises en garde des scientifiques du GIEC, qui détaillent, dans leur dernier rapport rendu public précisément en ce même jour du 8 octobre 2018, à quel point il est crucial pour la survie de l’humanité de tout faire pour limiter en dessous des 1,5 °C le réchauffement climatique mondial d’ici la fin du siècle. C’est d’ailleurs ce qui explique sans doute que Nordhaus est récompensé par le gratin des économistes bien-pensants par ce prestigieux Prix Nobel d’économie.

Son approche est de fait purement économique et s’appuie sur un modèle mathématique des plus simplistes : quand l’économie se développe, elle produit davantage de gaz à effets de serre. Ces derniers ont des impacts sur l’environnement, ce qui va se traduire par des coûts (davantage de catastrophes naturelles, nécessité d’adapter certains aménagements pour suivre le niveau de l’élévation des mers, ou encore réduction des rendements agricoles dans certaines régions). Pour éviter que ces coûts ne viennent réduire trop fortement la croissance, il va donc falloir investir notamment pour financer une transition énergétique progressive vers des énergies décarbonées. Les modèles développés par Nordhaus ont donc pour but de déterminer le scénario optimal de réchauffement climatique qui permet, d’un strict point de vue économique, d’opérer cette transition énergétique sans impacter la croissance mondiale.

Le résultat de cette approche revient à imaginer une action très graduelle consistant à imposer à tous les pays un prix du carbone qui augmente de manière très progressive. Une vision qui suppose un effort identique de tous les pays, bien peu réaliste et qui a conduit à l’échec tous les sommets sur le climat jusqu’aux avancées de la COP 21 basée justement sur une approche plus différenciée. Mais surtout une analyse très différente de celle du GIEC ou du rapport Stern, établi en 2006 à la demande du gouvernement britannique, et qui chiffre le coût de l’inaction face au changement climatique, préconisant au contraire une action rapide et massive pour infléchir les émissions mondiales de gaz à effet de serre avant qu’il ne soit trop tard.

Evolution des émissions de CO2 en fonction des scénarios de développement : en vert le scénario tendanciel, en rouge celui préconisé par Nordhaus, en noir celui qui permet de ne pas dépasser une augmentation de plus de 2,5 °C et en jaune celui conseillé par le rapport Stern (source © Johan Jarnestad /The ROyal Swedish Academy of Sciences in The Huffington Post)

En réalité, Nordhaus appuie sa démonstration sur des hypothèses totalement irréalistes qui considèrent qu’un réchauffement de 2 °C en 2100 ne se traduirait que par une baisse de 1 % du PIB mondial, et que cette réduction resterait de l’ordre de 10 % pour un réchauffement de 6 %. A ses yeux d’économiste, le changement climatique global n’est donc qu’un problème mineur, dont l’impact sur la croissance sera d’autant plus limité qu’il alimente ses modèles avec des taux d’actualisation tels qu’il n’y a aucun intérêt à engager dès à présent des investissements massifs pour limiter dans le futur des événements dont les impacts économiques sont fortement minorés. Autant garder les choses en l’état et laisser les générations futures se débrouiller avec un problème qui ne nous concerne guère…

Avec un tel raisonnement et en s’appuyant sur son modèle DICE (Dynamic Integrated Climate-Economy model) William Nordhaus conseille donc aux gouvernements d’adopter une stratégie d’action très modeste qui vise une augmentation « économiquement optimale » de 3,5 °C d’ici 2100, ce qui revient quasiment à laisser se dérouler le scénario tendanciel actuel. Voilà qui devrait en effet convenir parfaitement à nos responsables politiques et tant pis pour nos enfants qui risquent de subir de plein fouet les conséquences d’un tel aveuglement…

L .V.