Posts Tagged ‘agriculture’

ZAC des Gargues à Aubagne : Auchan engage le bras de fer !

18 juin 2018

Nous avions déjà évoqué sur ce blog, en juillet 2016, l’avenir incertain du projet de la ZAC des Gargues, ce vaste complexe commercial prévu pour s’étaler sur 42 ha entre l’autoroute A52 et la zone des Paluds, au sud de l’hypermarché Auchan (le deuxième plus grand de France, avec un chiffre d’affaire annuel déclaré de 250 millions d’euros), sur les dernières terres encore cultivées du secteur, en remplacement des quelques fermes résiduelles et de la jardinerie Tirand. Pompeusement rebaptisée éco-quartier des Bonnes-Nouvelles, en référence au chemin du même nom, plein d’espoir, qui la traverse, cette ZAC semble pourtant soumise à un avenir plutôt incertain…

À gauche : vue aérienne du site des Gargues (source © Géoportail). À droite : carte du programme initialement prévu (source © SAPAG)

Pour ceux qui auraient raté les épisodes précédents, rappelons que ce projet totalement pharaonique prévoyait initialement la construction de 850 logements avec crèches, écoles et installations sportives, des espaces de bureaux et surtout l’aménagement d’une immense zone commerciale et de loisirs, comprenant pas moins de 80 000 m2 de commerces supplémentaires, un parc de loisir et un complexe cinématographique du dernier cri, le tout desservi par une future ligne de tramway enjambant l’autoroute, et un boulevard urbain avec de nouveaux échangeurs autoroutiers.

Maquette du projet du futur « éco-quartier » Bonnes-Nouvelles (source © SAPAG)

Initié en 2009 en plein accord avec l’ancienne majorité de gauche alors aux manettes tant à Aubagne qu’à la défunte communauté d’agglomération du Pays d’Aubagne et de l’Étoile (CAPAE), ce projet est porté depuis des années par le groupe Auchan qui a patiemment acquis, via sa filiale immobilière Immochan, parcelle après parcelle, plus de la moitié des terres du secteur.

En 2013, le projet a été confié à l’unique opérateur qui s’était porté candidat, la société SAPAG, créée justement pour ce seul et unique objectif et constituée, comme par hasard, par Immochan, devenue le 5 juin dernier, par souci de camouflage, la société Ceetrus, et alliée pour l’occasion avec un géant du BTP, le groupe NGE de l’ex-terrassier Guintoli, et un spécialiste du logement social, Vaucluse logement, filiale du groupe Vilogia Entreprises.

Maquette du pôle de loisir prévu dans le projet d’aménagement (source © SAPAG)

Le contrat de concession, qui prévoyait un investissement évalué à 500 millions d’euros pour la SAPAG et 19 millions pour la collectivité (pour les infrastructures) avait été signé dans la précipitation et in extremis, le 25 février 2014, un mois tout juste avant les échéances électorales. Sage précaution car ces élections se sont effectivement traduites par un changement de majorité tant à la ville qu’à l’intercommunalité !

Le maire d’Aubagne, Gérard Gazay, en 2014, avec la Présidente de l’Agglo Sylvia Barthélémy

La nouvelle présidente de l’agglo, l’UDI Sylvia Barthélémy, n’était pas très chaude pour ce projet et souhaiterait le voir amendé. Elle a donc pesé pour réduire à 680 le nombre de logements, dont 30 % seulement en parc locatif social dont la droite n’est guère friande, et à limiter un peu la surface commerciale au profit plutôt de l’activité tertiaire et industrielle.

Mais le nouveau maire d’Aubagne, Gérard Gazay, n’a rien voulu entendre. Il est en effet totalement opposé au projet qu’il perçoit comme un aspirateur à chalands qui va achever de vider le centre-ville d’Aubagne et ruiner le petit commerce qui y survit difficilement. Il prône donc plutôt pour l’aménagement d’espaces sportifs sur cet espace qui, de toute façon, ne sera plus desservi par le tramway dont le projet d’extension a été gelé par la nouvelle majorité.

Le 29 septembre 2015, le conseil municipal d’Aubagne avait donc, par voie de délibération, logiquement rejeté le projet de ZAC des Gargues, imité en cela, le 30 novembre suivant, par le conseil communautaire de la CAPAE, un mois seulement avant que cette collectivité ne disparaisse, absorbée par la toute nouvelle métropole Aix-Marseille-Provence, qui a vu le jour le 1er janvier 2016.

Vue du site des Gargues en 2015 (photo © Florent de Corbier / La Marseillaise)

En parallèle, et pour bien verrouiller le dossier, la nouvelle municipalité d’Aubagne qui a en charge l’élaboration du Plan local d’urbanisme (PLU) a fait en sorte de fixer pour le périmètre concerné, des règles d’urbanismes incompatibles avec les besoins du projet. Comme une ZAC a été définie sur ce périmètre par la CAPAE, la commune est tenue de lui transmettre son projet de PLU et de solliciter son avis sur le sujet, ce qu’elle fait en décembre 2015, sachant que la collectivité saisie dispose d’un délai de trois mois pour se prononcer valablement.

Sauf que la CAPAE ayant disparu corps et âme dans les jours qui ont suivi cette saisine, elle n’a pu évidemment se prononcer, pas plus d’ailleurs que la Métropole, occupée à bien d’autres dossiers dans les semaines qui ont suivi son accouchement difficile. Faute d’avis émis dans les délais, l’avis est donc réputé négatif, si bien que la commune d’Aubagne voit ainsi son PLU fragilisé car élaboré en contradiction avec les règles d’urbanisme d’une ZAC déjà ficelée.

La société SAPAG s’est bien évidemment aussitôt engouffrée dans la brèche et a donc attaqué, devant le Tribunal administratif, le PLU d’Aubagne qui avait été finalement adopté le 22 novembre 2016. Un jugement, rendu le 15 mars 2018, vient confirmer l’annulation du PLU pour vice de procédure, du fait de cet absence d’avis formulé par la CAPAE (ou, en l’occurrence, par la métropole). Il est à noter cependant, que tous les autres arguments (et ils sont nombreux !) mis en avant par la SAPAG, dans une surenchère de mauvaise foi, pour casser le PLU d’Aubagne, ont tous été rejetés par le juge administratif, comme le montre la lecture du jugement rendu : JugementTA_15mars2018

Vue aérienne du site des Gargues (photo © MC / La Marseillaise)

Pour autant, la bataille juridique ne fait que commencer et on peut faire confiance au groupe Auchan et à ses bataillons de conseillers juridiques aguerris et sans scrupules, pour ne pas lâcher le morceau avant d’avoir épuisé tous les moyens à sa disposition, du recours juridique jusqu’à l’intimidation en passant par la séduction des indécis.

Chaque camp aiguise donc ses arguments. Les partisans insistent sur les emplois que ne manquera pas de créer un tel complexe de commerces et de loisir aux portes d’Aubagne, ainsi que sur les rentrées fiscales évaluées à 17 millions par an, alors que la ville est surendettée. Les opposants mettent en avant les nuisances apportées par le projet qui va drainer dans cette zone périphérique déjà totalement saturée son flots de voitures supplémentaires tout en détruisant les dernières parcelles agricoles de bonne qualité encore disponibles aux portes de la ville et en augmentant encore l’imperméabilisation et le bétonnage des terrains dans une zone déjà particulièrement vulnérable au risque d’inondation.

Quant à la SAPAG, elle vient de sortir l’artillerie lourde en adressant, en mai 2017 un courrier comminatoire à la métropole, désormais en charge du dossier, exigeant la résiliation de son contrat de concession signé en 2014, moyennant une indemnité de 300 millions d’euros, excusez du peu ! La pratique s’apparente, sinon à du racket, du moins à du chantage et commence à faire trembler certains, dont Sylvia Barthélémy qui pousse pour trouver un terrain d’entente en faveur d’Auchan, persuadée que ce dernier est prêt à tout pour arriver à ses fins.

Jean-Claude Gondard aux côtés du maire de Marseille, Jean-Claude Gaudin en 2015 (photo © Esther Griffe, Marsactu)

Le DGS de la métropole, Jean-Claude Gondard, se veut certes rassurant en estimant, comme le rapporte le site Mefi !, « Ce n’est pas parce qu’il y a une demande d’indemnisation de 300 millions que l’on va être automatiquement condamné ». Certes, mais son patron, le toujours Président de la métropole et maire de Marseille, Jean-Claude Gaudin, semble bien moins sûr de lui lorsqu’il souffle, selon Marsactu, « L’inquiétude, c’est d’avoir à payer in extenso ce qu’Auchan demande », ou lorsqu’il lâche à La Provence : « Bien sûr, nous ne voulons pas sortir cette somme, d’ailleurs nous ne l’avons pas. Le maire d’Aubagne ne veut pas du projet, mais c’est nous qui devons payer… Il y aura des discussions entre la mairie, la Métropole et Auchan, en tout cas par l’intermédiaire des avocats, pour sans doute modifier l’implantation du projet… Mais nous incitons le maire d’Aubagne à trouver un accord avec Auchan ».

Bien malin qui dira à ce stade ce qu’il adviendra de ce projet abracadabrantesque et contre lequel circule toujours une pétition, initiée par le militant aubagnais Jean Reynaud qui propose de conserver ces terres agricoles pour y implanter une ferme pédagogique et un laboratoire national de permaculture, pétition qui a déjà recueilli plus de 600 signatures. Une chose est sûre en tout cas, Auchan ira jusqu’au bout pour imposer ce projet alors que celui d’Europa City qu’elle porte à bout de bras au nord de Paris, commence aussi à avoir du plomb dans l’aile. Reste à savoir comment nos élus locaux qui tremblent déjà et commencent à se désolidariser les uns des autres se positionneront face à un tel rouleau compresseur…

L.V. 

Publicités

Comment a été ressuscité le café marron de La Réunion ?

13 juin 2018

On ne le sait sans doute pas assez mais la biodiversité est en grand danger du fait de nos choix de développement depuis des années : à force de défricher, de bétonner, d’urbaniser, de polluer allègrement et d’asperger nos champs à coup d’insecticides et d’herbicides, glyphosate en tête, on considère qu’un quart des espèces de mammifères est désormais menacée d’extinction et sans doute un tiers des amphibiens. Parmi les oiseaux, 94 espèces ont d’ores et déjà disparu de la planète et 187 sont en grave danger d’extinction.

L’alouette des champs, une espèce commune en voie de forte régression dans nos campagnes

En France, au cours de ces 15 dernières années, un tiers des populations d’oiseaux ont déserté nos campagnes, un déclin qui s’est amorcé au début des années 1970 et qui s’est encore accéléré entre 2016 et 2017 au vu des études menées tant par le Museum national d’histoire naturelle que par le CNRS. Seuls quelques espèces plus généralistes et plus opportunistes, telles que les pigeons, les merles ou les corneilles, tirent leur épingle du jeu en prenant progressivement la place des espèces en voie de disparition : adieu alouettes et rossignols !

Cette disparition massive et en voie d’accélération s’accompagne d’une chute brutale bien que moins visible des populations d’insectes, elles-mêmes en grand danger du fait principalement des ravages de l’agriculture intensive qui a totalement modifié les paysages et provoque de véritables hécatombes à coup de pesticides.

Coquelicots dans un champ d’orge : bientôt une image du passé ?

Et la flore sauvage n’est pas non plus épargnée par le développement de l’urbanisation et l’évolution de nos pratiques agricoles (le tonnage d’herbicides utilisé en France a été multiplié par 5 entre 1970 et 1990 et il continue encore à progresser malgré tous les engagements réglementaires). Ainsi, une étude menée entre 2009 et 2013 par le Conservatoire national botanique de Brest a montré que 120 espèces de plantes ont disparu en un siècle dans le département du Calvados, dont 44 depuis le début des années 1980. En Ile-de-France, on comptait environ 90 espèces sauvages présentes couramment dans les parcelles cultivées : un tiers d’entre elles a désormais définitivement disparu et seules 18 % restent encore stables, les autres étant devenues très rares ou en voie de régression.

Cette extinction massive de la biodiversité naturelle s’observe partout dans le monde. Elle suscite du coup des vocations de Noé des temps modernes. Marianne a dressé récemment le portait de l’un d’eux, Carlos Magdalena, surnommé « le messie des plantes » par un journaliste espagnol, séduit sans doute par son look christique. Il travaille au jardin botanique royal de Kew Gardens, dans l’ouest londonien, une vénérable institution victorienne qui héberge plus de 30 000 espèces végétales et qui s’est érigé en un vaste laboratoire de 121 ha attaché à la conservation des variétés menacées d’extinction.

Carlos Magdalena dans une serre de Kew Gardens (photo © Rebecca Reid / Kew Royal Botanic Gardens)

Ce passionné de la cause végétale a notamment à son actif le sauvetage d’un arbuste sauvage endémique des îles Mascareignes (l’archipel qui regroupe les îles de La Réunion, Rodrigues et Maurice), le café marron, Ramosmania rodriguesi de son petit nom. Bien que La Réunion apparaisse au touriste comme d’une grande richesse botanique avec de nombreuses plantes endémiques, l’île est en fait un désastre écologique avec 53 espèces végétales déjà irrémédiablement disparues et 393 (soit 30 % de celles qui y sont recensées) fortement menacées !

Lagon autour de l’île Rodrigues, dans l’archipel des Mascareignes

Sur Rodrigues, une trentaine d’espèces végétales ne se reproduisent plus, ce qui indique que leur disparition définitive approche à grands pas puisqu’on pourra la dater au jour où le dernier plant recensé viendra à mourir… Le café marron, une variété endémique de caféier découvert à La Réunion au début du XVIIIe siècle mais rapidement supplanté par la variété importée du caféier d’Arabie et de sa mutation locale, le Bourbon pointu, avait ainsi complètement disparu dans les années 1970, lorsqu’un écolier en a redécouvert un pied miraculeusement épargné en 1979.

Plant de café marron au Kew Royal Botanic Gardens

Mais comme on prête à cette plante de nombreux pouvoirs médicinaux, il a fallu la mettre en cage pour la protéger contre les habitants de Rodrigues venant régulièrement en couper des rameaux. Trois branches du survivant sont finalement prélevées et transportées jusqu’à Kew Gardens. Placées en pépinières, on parvient à en faire deux boutures que Carlos Magdalena s’efforce d’implanter dans du terreau fortifié. La première meurt rapidement et la deuxième la suit de près après avoir néanmoins laissé éclore quelques boutons.

Désespéré, notre botaniste fouille dans la terre pour y récupérer quelques racines qu’il replante soigneusement. Son acharnement finit par payer et de nouveaux plants de café marron arrivent finalement à pousser dans les jardins londoniens. Mais on a crié victoire trop tôt car on s’aperçoit que le plant rescapé et qui fleurit régulièrement ne produit pas de graines : un processus interne inconnu bloque la pollinisation !

Fleur de café marron au Royal Botanic Gardens de Kew (photo © Kew Royal Botanic Gardens)

Le « messie des plantes » y passe plusieurs nuits blanches, testant toutes les solutions possibles et imaginables. Il a finalement l’idée de couper la plante avec un scalpel et d’introduire un peu de pollen dans la plaie, dans l’espoir qu’il se propage. Il recommence 10 fois, 20 fois, 200 fois et finalement sa persévérance finit par payer : il obtient ainsi une fécondation, une seule ! Le fruit ainsi obtenu donne les premières graines, aussitôt semées en milieu stérile en 2003. Les premières germinations meurent mais à force de patience, de nouveaux plants finissent par croître.

Trois ans plus tard, Carlos Magdalena se rend sur l’île Rodrigues pour y replanter une quinzaine de plants de café marron. Freiné par d’incroyables tracasseries administratives, il persévère et voilà que le café marron est désormais réintroduit dans son milieu d’origine. Un bel exemple qui prouve que l’on peut parfois arracher une victoire dans ce processus d’extinction massive d’espèces, éteintes avant même qu’on ait pu en étudier toutes les potentialités, au point que certains en sont à fouiller dans les vieux herbiers des musées pour y recueillir les précieuses graines d’espèces disparues, dans l’espoir d’arriver à les faire revivre…

L.V. 

Le mirage de la mer à boire…

14 mai 2018

Dessaler l’eau de mer pour satisfaire nos besoins en eau douce : la solution technique paraît séduisante pour faire face à la raréfaction des ressources en eau douce, menacées par les épisodes de sécheresse et contaminées par les pollutions. Sachant que les océans recouvrent 70 % de la surface du globe terrestre, l’eau de mer apparaît pour beaucoup comme une ressource inépuisable. La transformer en eau potable après élimination de ses sels minéraux pourrait donc constituer, aux yeux de nombreux responsables politiques, une solution d’avenir à généraliser.

Usine de dessalement de l’eau de mer de Fujairah aux Émirats arabes unis (source © Suez)

En apparence, la solution technique n’est pas compliquée et les marins grecs la mettaient déjà en œuvre dans l’Antiquité en appliquant une recette concoctée par Aristote et qui consiste simplement à chauffer l’eau et à récupérer par condensation la vapeur ainsi émise. C’est le principe de la distillation, utilisé dans la marine de manière industrielle dès le XIXème siècle.

Depuis, il a fait naturellement l’objet de multiples améliorations techniques, avec notamment le développement de la vaporisation multi-flash qui consiste à faire passer l’eau, initialement chauffée sous pression, dans des enceintes à pression de plus en plus réduite qui entraînent sa vaporisation quasi instantanée. C’est ce type de procédé qui est notamment employé à grande échelle dans les pays du Golfe où l’énergie à base d’hydrocarbures ne coûte pas très cher.

Vue de la plus grande usine de dessalement de l’eau de mer fonctionnant en Europe, près de Barcelone

Car – est-il besoin de le préciser ? – l’opération est particulièrement gourmande en énergie. Certes, dans nombre de pays, comme le Qatar, qui recourt massivement au dessalement de l’eau de mer pour son approvisionnement en eau potable, l’eau est distribuée gratuitement et son prix de revient n’est donc pas considéré comme un problème. Ce qui explique d’ailleurs qu’un Qatari consomme en moyenne 1200 litres d’eau par jour, là où un Allemand n’en utilise que 95 litres !

L’usine de dessalement de l’eau de mer construite en 2010 à Hadera, au nord de Tel-Aviv en Israël

Heureusement, la technique a fait de nombreux progrès en la matière et on a de plus en plus recours à d’autres procédés nettement moins énergivores comme celui de l’osmose inverse. Là encore, le principe est simple puisqu’il consiste en une ultrafiltration sous pression à travers une membrane poreuse semi-perméable qui retient les sels. C’est cette technique qui est notamment utilisée couramment en Israël où près de 70 % de l’eau consommée par les particuliers provient du dessalement de l’eau de mer.

Pour autant, même avec ce type de procédé, dessaler l’eau de mer consomme encore cinq fois plus d’énergie que les usines de traitement d’eau douce classiques. Certes, on développe désormais de plus en plus d’installations de dessalement alimentées par des énergies renouvelables, comme c’est le cas par exemple sur l’île d’El Hierro aux Canaries, où trois usines fonctionnent grâce à l’énergie éolienne ou hydraulique et on commence à exploiter, pour l’instant à titre expérimental, des systèmes de distillation à four solaire.

Principe de fonctionnement de l’alimentation électrique d’une station de dessalement d’eau de mer sur l’île El Hierro, aux Canaries (source © Futura Sciences)

Mais tout cela ne résout pas le problème majeur qui est celui des rejets : la saumure concentrée et les produits destinés à limiter l’entartrage des installations, sont purement et simplement rejetés en mer où ils s’avèrent particulièrement néfastes pour le milieu naturel, surtout dans une mer fermée comme l’est la Méditerranée. Poussé à l’extrême, le principe consiste à augmenter sans cesse la salinité de l’eau laissée en mer, alors que cette salinité, qui est en moyenne de 35 g/l dans les océans atteint déjà 39 à 40 g/l en Méditerranée, 42 g/l dans le Golfe Persique et dépasse 50 g/l dans la Mer Rouge.

Sans aller jusqu’à prétendre, bien évidemment, que c’est à cause des usines de dessalement que l’eau de mer est salée, il n’en reste pas moins que les impacts environnementaux des rejets de ces installations apparaissent comme des plus préoccupants, en particulier sur les fonds marins où la saumure se dépose et perturbe non seulement la vie benthique mais aussi les courants marins.

Là aussi, les ingénieurs ne manquent pas d’imagination pour rechercher des solutions techniques. C’est ainsi qu’un cabinet canadien a imaginé, dans le cadre d’un appel à projet pour la production d’eau potable à Santa Monica, en Californie, une construction en forme de gros cigare posé à quelques encablures de la côte et qui devrait permettre de produire, grâce à l’énergie solaire, 4,5 millions de m3 d’eau potable par an tout en rejetant les saumures dans un bassin central à usage thermal : de quoi faire d’une pierre deux coups…

Maquette du projet The Pipe destiné à dessaler l’eau de mer près de Santa Monica en Californie (source © Khalili Engineers – Land Art Generator Initiative Design)

Mais l’on se rend compte aussi que l’alimentation en eau potable à partir d’eau de mer dessalée peut être à l’origine de carences graves en magnésium et en iode, comme c’est déjà le cas en Israël. Il faut donc rajouter ces éléments dans l’eau douce après s’être évertué à les enlever de l’eau de mer, ce qui du coup rend le procédé encore moins économique.

Globalement, le dessalement de l’eau de mer reste en tout cas un procédé coûteux qui n’est envisagé que faute d’alternative plus simple permettant d’exploiter les eaux de surface ou les nappes souterraines. Pourtant, on constate que certains pays n’hésitent pas à utiliser de l’eau dessalée y compris pour l’irrigation agricole. C’est le cas désormais en Espagne où, dès 2006, 40 % de l’eau produite par dessalement était en fait destinée à la production de tomates sous serres, en particulier dans la région d’Alméria.

Serres de cultures intensives près d’Alméria, alimentée à l’eau de mer dessalée (source © Ecotoxicologie)

Une telle situation paraît aberrante mais répond à une logique purement économique : cette production d’eau douce est indispensable pour répondre à l’afflux saisonnier de touristes dans une région où l’aridité du climat rend les ressources en eau douce trop rares, et le meilleur moyen de rentabiliser de tels investissements est de les faire fonctionner toute l’année en approvisionnant les agriculteurs pour la production maraîchère de contre-saison qui permet d’inonder tout le marché européen à bas coût.

Pas sûr que cette démarche soit la plus rationnelle en termes d’exploitation raisonnée et durable des ressources naturelles, mais dans le domaine de l’alimentation en eau, comme dans beaucoup d’autres, ce sont bien souvent d’autres critères qui dictent les investisseurs économiques…

L.V. 

Le champignon de Marseille va-t-il détrôner celui de Paris ?

3 mai 2018

L’agriculture urbaine, tout comme la permaculture sont en train de devenir des concepts à la mode. A Singapour, un État minuscule de 715 km2 (moins que la superficie de la seule commune d’Arles !) dans lequel s’entassent pas moins de 75 millions d’habitants, soit davantage que sur le territoire français, on compte ainsi déjà une centaine de fermes verticales, des tours édifiées en site urbain et dans laquelle on pratique le maraichage hors-sol.

Ferme verticale hors-sol à Singapour (source © Sky Greens)

Le principe est simple, sachant qu’une plante pour se développer a besoin, comme chacun sait, d’un peu d’amour et de beaucoup d’eau fraîche, mais aussi de lumière (l’énergie qui permet d’activer la photosynthèse) et de certains nutriments, généralement contenus dans le sol mais aussi apportés par les épandages d’engrais. A défaut de substrat, il suffit de verser les apports dans l’eau où baignent les racines des plantes. C’est ce même principe de l’hydroponie qui va être mis en œuvre à Romainville, en Seine Saint-Denis où plusieurs bâtiments dont une tour maraîchère de 24 m de hauteur sont en cours de construction, qui comprendront, outre des serres pour le maraîchage hors-sol, une champignonnière, un laboratoire pour la germination des graines, une serre pédagogique, un point de vente et, en extérieur, des petits vergers et un poulailler.

Maquette de la future tour maraîchère de Romainville (source © Ilimelgo et Secousses architectes / Poltred perspectiviste)

A Montréal, c’est ce même principe de la culture hydroponique qui est mis en œuvre dans deux serres installées sur les toits de la ville et dont la production est vendue sur internet sous forme de paniers de légumes. Cultiver sur les toits en ville présente en effet de multiples avantages, le moindre n’étant pas la proximité avec les consommateurs, ce qui permet de réduire fortement les coûts de commercialisation et de distribution.

Cultures maraichères sur le toit d’un supermarché à Montréal (source © Cent degrés)

Mais l’autre avantage est paradoxalement de profiter d’une qualité de l’air parfois meilleure en ville, surtout en altitude : les gaz d’échappement restent généralement bloqués au sol et ne dépassent pas le 2ème ou le 3ème étage, si bien que l’air en toiture est très acceptable.

Julien Girardon, créateur d’Abricotoit

C’est ce qui explique que les toitures marseillaises deviennent un lieu de refuge pour l’agriculture des Bouches-du-Rhône. C’est en tout cas le pari de la structure créée sous le joli nom d’Abricotoit par Julien Girardon, un jeune Marseillais, titulaire d’un doctorat en biotechnologie végétale, et qui propose d’aménager des jardins potagers sur les toits des immeubles du centre-ville, soit pour faciliter sa production personnelle, soit pour alimenter des restaurants en produits frais.

D’ailleurs les toits des immeubles sont de plus en plus convoités pour de multiples activités liés à l’agriculture, y compris pour y installer des ruches. Force est en effet de constater que les apiculteurs trouvent désormais en ville un terrain nettement plus propice à l’élevage mellifère du fait de l’absence de pesticides dans l’environnement proche et en raison de la plus grande diversité des espèces florales. On compte ainsi plus de 700 ruches à paris où la mortalité des abeilles ne dépasse pas 3 à 4 % alors qu’elle atteint désormais 30 à 40 % en milieu rural.

C’est la raison pour laquelle on voit désormais fleurir des ruches non seulement sur certains ronds-points comme c’est le cas à Vitrolles par exemple, mais aussi sur le toit des hôtels. Les clients de l’hôtel Sofitel situé sur le Vieux Port savourent ainsi depuis plusieurs années déjà le miel produit sur le toit du bâtiment et il en est de même pour ceux qui fréquentent l’hôtel Ibis de Bonneveine. Gérard Jourdan, l’apiculteur à l’origine de cette initiative, basé à Auriol, a depuis multiplié les implantations de ruches dans l’agglomération marseillaise et estime que la qualité du miel récolté ainsi en site urbain est généralement excellente.

Ruches installées sur le toit de l’hôtel Sofitel sur le Vieux Port de Marseille (source © Gérard Jourdan)

Depuis 2014, c’est le Castorama de Saint-Loup qui s’est lancé dans l’aventure, pour le plus grand bénéfice des employés du magasin qui se partagent la récolte, tandis qu’une association, intitulé Une ruche dans mon jardin, s’efforce d’implanter des ruches dans différents quartiers périphériques de Marseille, dont la Cité des Néréides, dans un but pédagogique afin d’inciter les enfants à retrouver le goût de la nature et de l’activité agricole.

Et voilà que ce sont désormais les caves de Marseille qui commencent à être investies par les adeptes de l’agriculture urbaine. Comme le relate Agathe Perrier sur le site Made in Marseille, deux amis, Maxime et Nicolas, ont eu l’idée de développer la culture de champignons (non hallucinogènes, est-il besoin de le préciser ?) dans les sous-sols de l’Équitable café situé sur le Cours Julien. Le substrat utilisé pour cela est en effet tout simplement du marc de café, mélangé aux spores de champignons et enserré dans des filets en forme de gros boudins, conservés pendant 15 jours dans l’obscurité puis exposés à la lumière dans une atmosphère très humide qui fait pousser en 5 jours de gros bouquets de pleurotes plutôt appétissantes.

Les boudins contenant le marc du café qui sert de support à la culture des champignons (photo © Agathe Perrier / Made in Marseille)

Une fois les champignons récoltés, le substrat est donné à l’association Terre de Mars, qui cultive d’anciens terrains agricoles dans le quartier de Sainte-Marthe : un apport organique idéal pour enrichir la terre. « C’est là que l’on boucle la boucle, car on produit des champignons grâce à des déchets et, de notre côté, on ne crée aucun déchet », met en avant Maxime.

Un cageot de pleurotes produites à Marseille (photo © Agathe Perrier / Made in Marseille)

Un bel exemple d’économie circulaire et qui pourrait encore évoluer puisque les deux amis se sont lancés dans d’autres expérimentations en essayant de recycler comme substrat des sciures de bois issus d’un chantier naval du Pharo.

D’ailleurs, leur ambition est de produire à terme une tonne de champignons par mois. Pour cela, ils envisagent sérieusement de déporter leur champignonnière urbaine dans les sous-sols du fort Saint-Nicolas et viennent de répondre à un appel à projet dans ce but. Le champignon de Marseille est peut-être promis à un bel avenir ?

L.V.

Sous les ponts d’Ispahan coule…plus rien !

11 avril 2018

Vue de la ville d’Ispahan et de la rivière Zayandeh

La ville d’Ispahan, troisième d’Iran par sa population, avec plus de 2 millions d’habitants, fait partie de ces grandes métropoles urbaines qui se sont développées autour d’un cours d’eau, en l’occurrence le Zayandeh Rud, « le fleuve qui donne la vie » en persan. Prenant sa source dans les Monts Zagros, ce cours d’eau, l’un des rares permanents du pays, parcourt plus de 400 km avant de se jeter dans le lac Gavkhuni, un grand lac salé saisonnier perdu dans le désert.

Le madi Farshadi, canal d’irrigation destiné à répartir l’eau du Zayandeh

Située à plus de 1500 m d’altitude sur le plateau iranien aride, la ville est une oasis où la vie n’est possible que grâce au fleuve et aux multiples canaux d’irrigation, les madis, aménagés dès le 17e siècle qui distribuent l’eau à travers toute la ville et ses environs, y compris dans chaque maison organisée traditionnellement autour d’un patio intérieur cultivé et arboré. Avec une pluviométrie moyenne de 130 mm par an alors que l’évapotranspiration potentielle y atteint 1500 mm, aucune culture n’est en effet possible dans un tel contexte climatique sans irrigation.

C’est donc la rivière Zayandeh qui a permis à cette ville de se développer, au moins depuis le 4e siècle de notre ère puisque elle était un des centres urbains de l’empire sassanide avant la conquête musulmane, et de prospérer. C’est Malik Chah, un sultan seldjoukide qui en fait sa capitale après son accession au pouvoir en 1072.

La place meydān-e Naghsh-e Jahān au coeur de la ville d’Ispahan

Mise à sac par les troupes de Tamerlan en 1387, la ville redevient capitale à partir de 1597, à l’instigation de Chah Abbas, fondateur de la dynastie des Safavides, lequel transforme en profondeur la cité, aménageant notamment une grande place de 510 m de longueur, meydān-e Naghsh-e Jahān, une des plus grandes du monde, d’ailleurs classée au patrimoine mondial de l’humanité par l’UNESCO depuis 1979.

C’est de cette époque que date également la construction des grands ponts d’Ispahan, qui sont aujourd’hui au nombre de 11, permettant de franchir la rivière Zayandeh. Le plus ancien d’entre eux est probablement le pont Sharestan, dont les piles datent précisément de cette période sassanide entre le 3e et le 7e siècle après J.-C., mais dont les arches actuelles ont été reconstruites sous la dynastie des Seldjoukides aux alentours du 11e siècle.

Au pied du Si-o-Se Pol, l’un des plus célèbres ponts d’Ispahan, en 2002 (photo © Behrouz Mehri / AFP)

Le Si-o-Seh Pol, ou pont aux trente-trois arches, porte aussi le nom de son commanditaire Allahverdi Khan, un ministre de Chah Abbas, d’origine géorgienne, qui le fit construire vers 1608. Cet ouvrage sert non seulement pour le franchissement du cours d’eau mais a aussi une fonction de seuil, permettant de rehausser le niveau de l’eau à l’amont, pour permettre d’alimenter des prises d’eau qui irriguent les jardins de part et d’autre.

Le pont Khadju à Ispahan (photo © Kelly Cheng Travel Photography /Getty Images)

Comme le précédent, le pont Khadju, édifié cinquante ans plus tard sur les fondations d’un ouvrage préexistant, remplit également ce double office de pont et de barrage et sa structure est comparable, avec deux niveaux superposés, le second étant destiné à la promenade avec une allée centrale pour le passage des chevaux et des charrettes, et des allées latérales voûtées pour les piétons, mais aussi des cafés et des loggias permettant d’admirer le paysage. Pourvu de 23 arches, il présente une longueur totale de 133 m, pour une largeur de 12 m, ce qui en fait un ouvrage d’art remarquable pour cette période.

Ces ponts d’Ispahan, très prisés comme lieux de promenade, constituent un attrait touristique majeur. Sauf que la belle carte postale de l’eau coulant majestueusement entre les arches, formant au passage de joyeuses cascades, relève désormais du passé. Périodiquement asséchée au plus fort de l’été, la rivière Zayandeh a en effet purement et simplement disparu du paysage, ne laissant aux yeux du visiteur ébahi qu’un paysage aride de sable et de gravier ! A se demander même pourquoi l’empire perse a dépensé une telle énergie pour édifier de pareils ouvrages d’art alors que le lit de la rivière se traverse désormais à pied sec quasiment toute l’année…

Le pont Khadju dans son état actuel (source © Le site de Madeleine et Pascal)

La disparition du cours d’eau qui alimente depuis toujours la ville d’Ispahan date du début des années 2000. A l’époque, chacun accusait la sécheresse qui bien sûr n’est pas totalement étrangère au phénomène. Mais la vérité est que l’essentiel de l’eau du Zayandeh Rud est, depuis cette date, détournée en amont vers la région de Yadz qui se trouve être la ville natale de l’ancien président Mohammad Khatami.

Musée antique de l’eau à Yadz

Une ville oasis également, sans doute une des plus anciennes cités du monde puisque fondée aux alentours du troisième millénaire avant J.-C., située dans l’ancien empire des Mèdes, un des foyers de la religion zoroastrienne, puis une étape caravanière sur la Route de la Soie. Le canal qui détourne l’eau du Zarendeh vers cette zone désertique alimente d’ailleurs aussi la ville de Kerman, région natale d’un autre président, Hachemi Rafsandjani, lequel possède des champs de pistache qui en font un des premiers exportateurs du pays et pour lesquels les besoins d’irrigation sont prioritaires.

Cette disparition du fleuve détourné au profit d’autres régions alimente la colère des habitants d’Ispahan et surtout des agriculteurs de la région qui se désespèrent de voir leurs récoltes se dessécher sur pied. Plusieurs émeutes ont ainsi éclaté, les dernières datant de février 2013 selon Le Monde : les habitants du village de Varzaneh ont alors détruit les installations d’eau dans leur village, amenant les prêcheurs publics de la ville à les traiter d’« opportunistes égarés » et à les accuser de « collaboration avec l’ennemi ». La police n’a pas hésité à tirer, blessant trois manifestants avec des balles en caoutchouc, mais les habitants ont du moins obtenu, suite à ces incidents, la reconnaissance, par le procureur du tribunal révolutionnaire d’Ispahan, de la mauvaise gestion de certains anciens responsables du ministère de l’énergie dans la répartition de l’eau.

Manifestation d’agriculteurs devant le pont Khadju au centre d’Ispahan, le 7 avril 2018 (source : France Mojahedin)

De nouvelles émeutes se sont encore produites tout récemment, depuis le 16 février 2018, selon un communiqué du Conseil national de la résistance iranienne, les habitants de plusieurs quartiers périphériques d’Ispahan défilant en scandant « Rohani le menteur, où est notre rivière ? ». Le 18 mars dernier, un camion transportant des munitions a d’ailleurs pris feu alors qu’il venait ravitailler les forces spéciales anti-émeutes de la police à Varzaneh, de nouveau engagées contre les manifestations d’agriculteurs en colère.

Encore un exemple qui prouve à quel point les batailles de l’eau deviennent un enjeu majeur, surtout dans des régions en forte croissance démographique et confrontées à un climat aride pour lequel les effets du réchauffement climatique global ne vont certainement pas arranger les choses…

L.V.  

Pesticides dans les cours d’eau : France Nature Environnement s’alarme !

23 mars 2018

Epandage de pesticides en bord de cours d’eau (photo © Maxppp / France Bleu)

Le sujet n’est pas récent puisqu’un rapport officiel publié en novembre 2015 par le Commissariat général au développement durable, une instance du Ministère de l’écologie, l’analysait dans les détails, affirmant qu’au vu des suivis de qualité de l’eau effectués en 2013 dans nos rivières et nos plans d’eau (du moins là où il y a des points de mesure…), la quasi totalité des milieux aquatiques français est polluée par la présence de pesticides que l’on retrouve dans 92 % des points de mesure. Seuls les zones montagneuses et quelques rares secteurs encore épargnés par l’agriculture intensive en sont exempts.

Il faut bien reconnaître que la France fait toujours partie du peloton de tête des plus gros consommateurs de pesticides, ces substances chimiques destinées à lutter contre les organismes jugés nuisibles, qu’il s’agisse de plantes adventices (herbicides), d’insectes (insecticides), de champignons (fongicides), de vers (nématicides), de rongeurs (rodenticides) et on en oublie, utilisés à 90 % (voire davantage) par l’agriculture, surtout depuis que l’usage de ces produits est en voie de prohibition tant pour les particuliers que pour les collectivités.

Concentrations moyennes en pesticides dans les cours d’eau par bassin versant en 2014 (source : Observatoire national de la biodiversité)

Depuis 1999, la surveillance de la qualité de l’eau dans la nature n’a cessé de se développer et on disposait ainsi en 2014, selon le Ministère de l’écologie, de 3052 points de mesures de la qualité dans les eaux de surface (rivières, fleuves et lacs) et de 2121 points de suivi dans les eaux souterraines (nappes). Vu leur coût très élevé pour la collectivité, le nombre de ces analyses (qui portent aussi sur de très nombreux autres paramètres dégradant, dont les nitrates) est malheureusement assez limité, généralement 8 par an dans les cours d’eau et 4 par an seulement dans les nappes.

La tâche est en effet considérable car il s’agit de rechercher les traces de près de 700 principes actifs de pesticides (ainsi que les produits issus de leur dégradation dans le milieu naturel, qui donne parfois naissance à des substances encore plus redoutables pour le milieu naturel et souvent stables à long terme, des décennies après que le produit commercialisé ait été interdit à la vente). Cette variété de principes actifs à identifier et analyser ne cesse d’ailleurs d’augmenter, fruit d’une stratégie délibérée de l’industrie agro-chimique de mettre sans cesse sur le marché de nouveaux produits pour avoir toujours un coup d’avance sur la réglementation et le contrôle.

Ainsi en 2014 ce sont pas moins de 389 substances différentes provenant de pesticides qui ont été retrouvées sur l’ensemble des points de mesure en eaux de surface, et 265 dans les eaux souterraines, avec en moyenne pas moins de 17 substances différentes identifiées dans chaque station (mais jusqu’à 89 molécules différentes pour certains prélèvements !). Cette année-là, des pesticides ont ainsi été retrouvés, en quantité et en nombre variable selon les endroits, dans 87 % des points de mesure en eau superficielle et dans 73 % des points de suivi en nappe, ce qui en dit long sur la généralisation du phénomène.

Nombre de produits pesticides observés par point de mesure en 2014 (source : Ministère de l’écologie)

Certes, si l’on analyse l’évolution de ces observations depuis 2008, date à laquelle le réseau de suivi a commencé à être suffisamment dense pour se faire une idée globale du sujet, on observe une légère diminution de la proportion de points de mesures contaminés, malgré un nouveau pic très sensible en 2012. Cette évolution résulte sans doute des mesures d’interdiction portant sur certains produits et de l’évolution des pratiques agricoles, mais reste peu significative, d’autant que la consommation de pesticides en France ne cesse d’augmenter malgré toutes les mesures gouvernementales mises en place pour tenter de limiter leur usage.

Dans les eaux de surface, le produit phare, présent dans plus de 38 % des points de suivi est le glyphosate tandis que son produits de décomposition, l’AMPA, est retrouvé dans plus d’un point de suivi sur deux : merci Monsanto ! L’atrazine, interdite depuis 2003 est encore bien présente 11 ans plus tard, avec tout son cortège de produits de décomposition, tant dans les cours d’eau que dans les nappes. Dans ces dernières, on retrouve également de manière significative certains herbicides largement utilisés dans la culture du maïs, et l’on voit même apparaître depuis quelques années, dans nos milieux aquatiques, des résidus des fameux insecticides néonicotinoïdes de plus en plus utilisés.

Et voilà que France Nature Environnement s’empare de nouveau du dossier en lançant une pétition qui exige du gouvernement de revoir sa copie en matière de définition des zones de non traitement, tout en attaquant en parallèle plus de 40 arrêtés départementaux issus de cette évolution de la réglementation. L’affaire n’est pas des plus simples et mérite quelques éclaircissements. Cette notion de zones non traitées (ZNT) a été définie par un arrêté ministériel de septembre 2006 et vise à interdire l’usage de pesticides dans une bande de 20 à 50 m (mais pouvant aller jusqu’à 100 m) en bordure des cours d’eau, afin justement de limiter les risques de contamination par lessivage. La largeur de cette bande peut être réduite à 5 m sous réserve de respecter certaines conditions dont la présence d’une haie ou au moins d’une bande enherbée entre le champ et le milieu aquatique, ainsi que des pratiques d’application adaptées.

Bande enherbée le long d’un cours d’eau (source : Agence française pour la biodiversité)

Initialement, la liste des milieux aquatiques pour lesquels cette distance minimale de sécurité s’applique correspond à tous les cours d’eau, plans d’eau, fossés et points d’eau permanents ou intermittents figurant sur les cartes IGN au 1/25 000, mais elle peut aussi faire l’objet d’un arrêté préfectoral qui permet de prendre en compte les spécificités locales.

Car à l’usage, il n’est pas si évident qu’il n’y paraît de définir ce qu’est un cours d’eau et ce point fait l’objet depuis des années de multiples controverses avec la profession agricole. Le ruisseau qui draine le vallon de Carnoux en est un exemple parmi d’autres. Ce ru peut être considéré comme un oued qui draine toute la vallée, susceptible de faire transiter des débits conséquents en cas de forte pluie, débits qui se déversent directement dans le Merlançon (au rond point du pont des Barles) avant de rejoindre l’Huveaune plus en aval. Le reste du temps, ce cours d’eau est alimenté latéralement par les écoulements d’eaux souterraines qui s’infiltrent dans les coteaux de chaque côté du vallon. Avant l’urbanisation, cet oued était sec une partie de l’année. Depuis, il est alimenté de manière quasi permanente car il reçoit aussi tout ce que les Carnussiens déversent sans réfléchir dans le réseau pluvial : vidange de piscines, pompes d’exhaure, lavage de la voirie et déversements illicites dans les regards en bordure de chaussée, de colorants ou d’huiles usagées

Le ruisseau de Carnoux, un milieu aquatique de piètre qualité… (photo © CPC)

Ce ruisseau intermittent devenu quasiment pérenne est-il un cours d’eau pour autant ? Au vu de sa configuration et de son déversement direct dans le réseau hydrographique naturel en aval, oui. Pour autant, il n’est pas figuré comme tel sur les cartes IGN et le gestionnaire de la voirie départementale a manifestement tendance à le considérer plutôt comme un simple fossé routier largement bétonné, sans que personne ne se préoccupe de la qualité des eaux qui y transitent.

Du coup, les services de l’État se sont lancés depuis juin 2015 dans un vaste travail de cartographie afin de tenter de délimiter quels sont les cours d’eau, démarche qui a fait l’objet de discussions serrées avec nombre de gestionnaires et d’usagers dont la profession agricole. L’enjeu consistait, pour les agriculteurs notamment, à refuser le statut de cours d’eau au maximum possible d’axes d’écoulements, afin de ne pas être soumis à la loi sur l’eau qui réglemente les interventions dans les cours d’eau (enlèvement de sédiments, coupe de la végétation, remodelage de berge, etc.).

Ce travail n’était pas supposé avoir d’impact sur les zones de traitement phytosanitaire. Mais les services préfectoraux se sont engagés, suite à la parution d’un arrêté ministériel de mai 2017 qui modifie légèrement celui de 2006, dans l’élaboration de cartes permettant de définir les points d’eau à proximité desquels doivent être mises en œuvre les ZNT.

Carte des cours d’eau identifiés comme tels par la Police de l’Eau dans le département du Gard (en bleu). Les tronçons en rouge ne sont plus considérés comme des cours d’eau et les zones en violet ont un statut encore indéterminé, sujet à discussion (source : Ministère de l’écologie)

Et, surprise, ces cartes élaborées en lien étroit avec la profession agricole en parallèle de la cartographie des cours d’eau, aboutissent à réduire de manière très significative les tronçons du réseau hydrographique soumis à réglementation pour l’épandage de pesticides. Dans le Tarn-et-Garonne par exemple, c’est 30 % du réseau qui n’est ainsi plus soumis au principe des zones non traitées et même 43 % en Indre-et-Loire. Cette situation est d’autant plus ubuesque que les cartes ne sont pas cohérentes d’un département à l’autre, certains tronçons de cours d’eau étant protégés uniquement jusqu’à la frontière du département limitrophe, sans réelle cohérence puisque les écoulements se poursuivent bien sans se préocuper des limites administratives… La protection de l’eau, pourtant considéré en France comme faisant partie du « patrimoine commun de la Nation » est décidément un combat de tous les instants !

L.V. 

Sainte-Baume : le PNR nouveau est né !

17 février 2018

Rencontre le 21 décembre 2017 entre le premier ministre Edouard Philippe et le président du PNR Sainte-Baume en présence du président de la Région PACA, Renaud Muselier (source © PNR Sainte-Baume)

Ce n’est pas vraiment une surprise mais plutôt l’aboutissement d’un long et patient processus d’élaboration concertée qui a permis d’aboutir, le 20 décembre 2017 à la naissance officielle, via un décret signé par le premier ministre Edouard Philippe, du parc naturel régional (PNR) de la Sainte-Baume, le 52ème parc ainsi créé en France. Cinquante ans après la création du concept de « parc naturel régional » en 1967 par le Général de Gaulle, ces 52 PNR couvrent désormais 15 % du territoire national et 6 % de la population française y habite.

En effet, contrairement aux parc nationaux qui existent en France depuis 1963 mais qui ont plutôt vocation à protéger des espaces naturels peu habités, les PNR ont été créés sous l’impulsion de la DATAR dans une perspective d’aménagement d’espaces ruraux dans des secteurs qui présentent non seulement un patrimoine environnemental remarquable mais aussi un patrimoine culturel voire un cadre de vie et d’activités qu’il importe de préserver en vue de favoriser le développement économique et touristique local.

La région PACA possède désormais 8 parc naturels régionaux dont le plus emblématique est sans doute celui de Camargue, mais parmi lesquels on peut citer aussi ceux du Queyras, du Luberon, du Verdon ou encore des Alpilles. Autant de lieux d’une grande richesse écologique et qui présentent des paysages hors du commun, mais qui sont avant tout des espaces de vie structurés autour d’une charte qui traduit un véritable projet de développement territorial.

Pour ce qui concerne le PNR de la Sainte-Baume, le projet était en gestation depuis une dizaine d’années, même si certains pionniers en soutenaient l’idée depuis les années 1970, et a fait l’objet ces derniers temps d’une intense concertation entre les collectivités locales, les services de l’État, les partenaires associatifs et les acteurs économiques. Présidé par Michel Gros, par ailleurs maire de La Roquebrussane, le nouveau PNR couvre une superficie de 810 km² et s’étend sur le territoire de 26 communes du Var et des Bouches-du-Rhône. 80 % de ce territoire est constitué d’espaces naturels mais 58 500 habitants y vivent, avec des activités économiques variées.

Limites du périmètre du PNR Sainte-Baume

Le parc est situé aux portes de Carnoux puisque la commune tout proche de Cuges-les-Pins est entièrement située dans le périmètre du nouveau PNR qui s’étend au nord jusqu’à Saint-Maximin et à l’est jusqu’à Brignoles. L’inauguration du nouveau parc n’est pas encore fixée mais devrait avoir lieu au cours du premier trimestre 2018.

En attendant, le syndicat mixte du PNR anime déjà depuis un an les deux sites Natura 2000 partiellement juxtaposés au cœur du parc : Massif de la Sainte-Baume (zone spéciale de conservation, définie au titre de la directive européenne Habitats) et Sainte-Baume occidentale (zone de protection spéciale, définie au titre de la directive européenne Oiseaux). Des inventaires biologiques et une étude socio-économique ont déjà été conduits en 2017 dans ce cadre, en vue de définir les enjeux et les objectifs de conservation. Une fois ce diagnostic posé, un programme d’action sera élaboré d’ici 2019, afin de définir les axes d’intervention pour préserver ce patrimoine naturel remarquable qui contient notamment la fameuse hêtraie historique de la Sainte-Baume ainsi que des sources pétrifiantes spectaculaires dans des formations de travertins, et qui abrite de nombreuses espèces animales et végétales rares.

Entablements de travertins à la source de l’Huveaune (source © Les balades de Gecko)

Le processus de concertation engagé depuis des années avec de nombreux acteurs du territoire en vue de l’émergence de ce nouveau PNR est détaillé sur le site du nouveau syndicat mixte. On y retrouve, outre de nombreux éléments de présentation du projet, dont un film grand public qui met en avant les atouts et caractéristiques de ce territoire, un rappel de la genèse de cette aventure qui s’est concrétisée en 2012 par la création d’un syndicat de préfiguration du futur PNR. L’année suivante a été mis sur pied un Conseil de développement, rassemblant de nombreux acteurs locaux fédérés autour du projet, et a été lancée la concertation en vue d’élaborer un diagnostic partagé et de dessiner les grandes lignes de la future charte du parc.

Un document de synthèse qui présente les grandes lignes de la charte

Il a fallu ensuite attendre 2015 pour que soit finalisée cette charte destinée à fixer pour les 15 ans à venir les grandes orientation du nouveau PNR. L’année 2016 a été mise à profit pour lancer la consultation auprès du Conseil national de protection de la nature et auprès des habitants (enquête publique), ainsi que pour permettre aux collectivités concernées de délibérer pour exprimer leur volonté d’adhésion. Et c’est donc en 2017 seulement que le syndicat mixte de préfiguration s’est transformé en syndicat mixte du parc tandis que le décret ministériel de labellisation du nouveau PNR était signé officiellement le 20 décembre dernier.

C’est donc à l’issue d’un long processus de co-construction que voit le jour cette nouvelle structure qui est désormais destinée à protéger et valoriser le patrimoine naturel, culturel et humain de ce vaste espace remarquable, via la mise en œuvre d’une politique cohérente d’aménagement et de développement économique, social et culturel, respectueuse de l’environnement.

La grotte de Ste Marie Madeleine à Plans d’Aups, un des sites emblématique du nouveau PNR (source © Provence verte)

Tout un programme qui va demander beaucoup de diplomatie et de pédagogie pour arriver à concilier les impératifs de préservation d’un écosystème fragile avec les ambitions légitimes des acteurs locaux en matière de développement économique et touristique, où comment marier en bonne intelligence les exploitations de carrières avec la préservation durable des ressources en eau du massif, les nuisances sonores du circuit automobile du Castellet avec le maintien d’une faune d’aigles de Bonelli et de chauve-souris endémiques, l’afflux de touristes avec les nécessités de recueillement autour de la grotte de Sainte Marie-Madeleine, les soucis de préservation du paysage avec le souhait de développer des sites de production d’électricité par centrales photovoltaïques, ou encore l’extension de la viticulture avec le développement d’une agriculture biologique adepte des circuits courts ?

Autant de défis passionnants auxquels le nouveau PNR de la Sainte-Baume va se trouver confronté au jour le jour et qui donnent un aperçu des difficultés de la tâche qui l’attend !

L.V.  

Des villes menacées par la pénurie d’eau ?

15 février 2018

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Alimentation : les consommateurs passent à l’action !

12 février 2018

Dessin signé JM

En France, un tiers des adultes sont en surpoids et 7 millions de Français sont considérés comme obèses, ce qui représente quand même 15 % de la population. Et le phénomène n’arrête pas de s’aggraver : en 1965, seuls 3 % des enfants d’âge scolaire étaient obèses alors que cette proportion atteignait 13,3 % en 2000 et ne cesse de croître depuis. Une situation d’autant plus inquiétante que l’obésité acquise avant l’âge de 5 ans persiste ensuite à l’âge adulte. On reste certes loin des chiffres de nos amis canadiens où 26 % des enfants sont considérés en surpoids tandis que 36 % des adultes présentent de l’embonpoint et 25 % sont classés obèses. Reconnue comme maladie chronique depuis 1997 par l’OMS, l’obésité est devenue un problème majeur de santé publique.

Pourtant, en matière nutritionnelle, les principes à respecter sont simples et identifiés depuis bien longtemps. Sur le plan quantitatif, il s’agit de fournir à son corps de quoi équilibrer les dépenses énergétiques qui dépendent de différents facteurs dont l’activité physique, mais qui correspondent grosso modo à 2500 Cal/jour pour un homme et autour de 2000 pour une femme. Et sur le plan qualitatif, il est bien connu qu’il convient d’éviter de grignoter entre les repas et qu’il vaut mieux privilégier la consommation de fruits et légumes et limiter les apports en lipides, sel et sucres. Des règles de base que l’école comme les messages de santé publique n’arrêtent pas de rabâcher.

Composition des plats préparés : des listes de composants à rallonge… (source © Bien-être et fitness)

Seulement voilà : autant il est facile de faire des choix alimentaires sains lorsque l’on achète des produits bruts pour les cuisiner soi-même, autant la tendance est désormais de consommer pour l’essentiel (à 70 % dans un pays comme la France) des produits transformés, issus de l’industrie agro-alimentaire, et préparés principalement à base d’ingrédients peu coûteux et présentant des caractéristiques nutritionnelles déplorables : riches en calories, en graisses, en sucres et en sel, mais pauvres en fibres, en vitamines et en sels minéraux…

Le professeur Serge Hercberg (source © Observatoire des aliments)

Pour faire face à ce véritable fléau de santé publique et guider les consommateurs dans leurs achats, l’épidémiologiste Serge Hercberg, expert en nutrition à l’INSERM et président du Plan national nutrition santé, lancé en 2006, préconise depuis 2014 d’adopter un code couleur ultra simple permettant de classer de A (produit le plus favorable sur le plan nutritionnel) à E des aliments transformés, en se basant sur l’analyse de la composition de 100 g du produit, analyse qui prend en compte d’une part les nutriments jugés favorables (fibres, protéines, fruits et légumes) et d’autre part ceux à limiter (acides gras saturés, éléments caloriques, sucres, sel).

Ce code couleur ultra simple et très pédagogique pour les consommateurs, dénommé Nutri-Score, permet de comparer d’un seul coup d’œil dans les rayons du supermarché, la pizza surgelée ou le paquet de céréales qui présente la meilleure qualité nutritionnelle.

Une véritable hérésie pour les entreprises de l’agro-alimentaire et la grande distribution qui se battent bec et ongles depuis des années pour empêcher l’adoption d’un tel dispositif. Il faut lire les discours du président de l’ANIA, l’Association nationale des industries agro-alimentaires, pour voir avec quelle mauvaise foi les industriels du secteur s’acharnent à démonter une telle approche de santé publique afin de préserver leurs intérêts : « l’ANIA maintient son opposition à tout dispositif d’étiquetage nutritionnel simpliste reposant uniquement sur un code de couleurs et une approche médicalisée et théorique de l’alimentation. L’équilibre alimentaire d’un individu ne peut pas se réduire à une pastille de couleur sur un produit. Ces systèmes de notation nutritionnelle stigmatisent injustement les aliments car ils reposent sur des calculs théoriques prenant en compte 100 g de produit sans en distinguer la consommation réelle  par les consommateurs. »

Dessin signé Esclandre, publié dans Le querelleur

Comme toujours en la matière, les patrons du secteur préfèrent mettre en avant des démarches volontaristes basées sur la communication. Comparer la valeur nutritionnelle de deux produits en analysant la composition d’une même masse de référence de 100 g est une catastrophe à leurs yeux car le résultat est évidemment incontestable et pas forcément à leur avantage. En revanche, laisser libre cours à l’imagination de leurs équipes d’experts en marketing pour démontrer que, ramené à une « portion », leur produit est parfaitement adapté aux besoins du consommateur, voilà qui leur plaît davantage car laissant la porte ouverte à toutes les interprétations…

Histoire de gagner du temps en espérant que la pression retombe, les industriels ont donc réussi à bloquer le dispositif en 2015 et imposé aux pouvoirs publics une expérimentation en vraie grandeur et en conditions réelles d’achat, dans une soixantaine de points de vente répartis dans 4 régions. Cette expérimentation, qui s’est déroulé au dernier trimestre 2016, a porté sur 1200 produits référencés et a mis en concurrence 4 dispositifs différents d’affichage, dont deux très synthétiques basés sur un code à 4 (Sens) ou 5 couleurs (Nutri-Score) et deux autres plus analytiques et plus complexes, ayant la préférence des industriels et de la grande distribution car incompréhensibles pour le commun des mortels !

Les codes couleurs expérimentés fin 2016 (source Isa-conso)

Cette expérimentation s’est bien entendu accompagnée d’une vaste campagne d’information menée dans les magasins concernés, mais surtout d’analyses en continu à base d’enquêtes qualitatives et quantitatives conduites auprès des consommateurs et complétées par des études précises pour évaluer l’évolution des ventes, produit par produit. Ces résultats particulièrement riches ont permis à l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) de proposer finalement au ministère de la Santé d’adopter le système Nutri-Score, ainsi que l’a annoncé la ministre Marisol Touraine en mars 2017, en précisant que l’avantage de ce dispositif très simple « est plus marqué encore lorsqu’on observe spécifiquement le comportement des consommateurs qui achètent les produits les moins chers », justement le cœur de cible dans la lutte contre le surpoids.

Dessin de Xavier Delucq publié dans le Huffington Post

Comme il fallait s’y attendre, les industriels, par la voix de l’ANIA, comme la grande distribution via celle de la FCD (Fédération du commerce et de la distribution) ont aussitôt crié au scandale, prétextant que l’analyse de cette expérimentation aurait sans doute mérité d’être poursuivie plus longtemps, avec d’autant plus de conviction que la loi ne rend pas obligatoire l’apposition du nouveau logo sur les produits car la législation européenne ne le permet pas

Certes, en mai 2017, quelques mastodontes du secteur dont les firmes Auchan, Fleury-Michon, Intermarché et Leclerc, suivies par Danone et Mac Cain, se sont finalement engagées à jouer le jeu, même si jusqu’à présent le consommateur lambda n’en a encore guère vu les effets. Mais les 6 géants du secteur agro-alimentaire, à savoir Coca-Cola, Nestlé, Mars, Mondelez (ex Kraft food), Unilever et Pepsi-Co, ont décidé de concocter leur propre logo, histoire de bien embrouiller le chaland !

Mais les consommateurs ont de la ressource et il convient de saluer une initiative citoyenne qui vient d’émerger sous le nom d’Open Food Facts, et qui constitue une base de données ouverte et collaborative sur les produits alimentaires « faite par tout le monde, pour tout le monde ».

Exemple d’analyse nutritionnelle de yaourts brassés aux fruits, emballés à Aubagne (source © Open Food Facts)

Sur le même principe que Wikipédia, chaque consommateur peut y contribuer en aidant à répertorier la composition de produits alimentaires. Aidé de son smartphone, chacun est ainsi invité à photographier la liste des ingrédients et les informations nutritionnelles figurant sur les étiquettes des produits, afin de rendre les données facilement accessibles et aisément comparables. Plus de 420 000 produits auraient ainsi déjà été rendus transparents dans le monde : un vrai cauchemar pour l’industrie agro-alimentaire !

Comme l’explique Stéphane Gigandet, ex employé de Yahoo à l’origine de ce projet : « Tout est fait pour que l’on ne sache pas exactement ce que l’on mange, le type d’additifs, la quantité de sel, de graisses saturées, de sucres, ce qui se cache derrière un additif, l’origine du produit et son lieu de transformation. Notre but est de rendre les étiquettes intelligibles, pour que le consommateur reprenne le contrôle de son assiette ».

Pas sûr que cette initiative soit vraiment du goût des industriels de la malbouffe…

L.V.  

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

USA : le sapin de Noël détrôné par le cannabis

10 janvier 2018

Voilà une nouvelle qui a fait le buzz juste avant les fêtes de Noël mais dont on ne se lasse pas tant elle est emblématique des circuits de la mondialisation ! Cette année, les producteurs canadiens de sapins de Noël se frottent les mains, eux qui exportent plus de la moitié de leurs sapins vers les États-Unis voisins. Leurs ventes vers les USA ont en effet connu un bond en avant spectaculaire : + 40 % par rapport à 2015 ! Cette année, selon le Journal du Québec, ce sont près de 1,5 million de conifères qui ont ainsi été exportés vers les USA, soit un marché de plus de 35 millions de dollars. Pour le Canada, c’est Noël avant l’heure…

La raison de ce succès commercial inespéré ne réside pas dans un engouement inhabituel des Américains pour une tradition festive ancrée de longue date dans les mœurs locales, mais traduit simplement une pénurie de sapins dans les États américains traditionnellement producteurs. Comme souvent, plusieurs facteurs viennent expliquer cette pénurie.

Plantation de sapin dans l’Oregon (source RFI ; photo © UIG via Getty Images)

La sécheresse qui a sévi dans l’État de Washington mais aussi les incendies qui ont ravagé la Californie à plusieurs reprises cette année ont quelque peu contribué à cette situation. En octobre dernier, celui qui s’était déclaré dans la région de Santa Rosa, détruisant près de 6000 bâtiments et causant la mort de 42 personnes, avait en effet réduit en cendres pas moins de 864 km2 de zones résidentielles et de forêts, dont quelques pépinières.

Mais c’est un autre phénomène, de nature plus prosaïque, qui explique pour l’essentiel cette pénurie de sapins de Noël dans l’Ouest américain. En fait, les producteurs se sont tout simplement tournés vers une activité nettement plus lucrative, à savoir la culture du cannabis. Ainsi, dans l’Oregon, petit État de 4 millions d’habitants qui fut longtemps l’un des grands producteurs de sapins de Noël mais où la production de marijuana est en train de prendre de l’ampleur, la production de sapins ne cesse de chuter : de 6,4 millions de plants en 2013, elle devrait passer sous les 5 millions cette année. Le nombre de producteurs aurait, selon le département de l’agriculture de l’Oregon, diminué de 30 % entre 2010 et 2015.

Plantation de cannabis aux USA (crédit photo © The Lane Report)

Aux États-Unis, ce sont les États de Washington et du Colorado qui ont adopté les premiers, dès novembre 2012, une législation légalisant l’usage récréatif du cannabis. Depuis le 1er janvier 2014, un utilisateur de cannabis du Colorado est ainsi autorisé à cultiver librement pour ses propres besoins. Depuis le mois de juin de la même année, il en est de même dans l’État de Washington où des producteurs de marijuana sont désormais habilités à cultiver à titre commercial. L’Alaska leur a emboîté le pas à partir de novembre 2014. En Oregon, la consommation à usage récréatif est devenue licite en juillet 2015 mais il a fallu attendre début 2016 pour que soient autorisées les premières plantations.

Depuis, le mouvement s’est accéléré. A partir du 1er janvier 2018, la Californie est ainsi devenue le huitième État américain à légaliser le cannabis à usage récréatif alors que son utilisation à but thérapeutique y est déjà licite depuis 1996, comme désormais dans une vingtaine d’autres États américains. La décision y avait été prise par référendum, en novembre 2016 : en même temps que les Américains choisissaient en la personne de Donald Trump leur 45ème président fédéral, les habitants de la Californie, mais aussi leurs voisins du Nevada ainsi que ceux du Maine et du Massachusetts, sur la côte Est des États-Unis, décidaient de rendre légale la consommation de cannabis. La cohérence entre ces deux décisions prises simultanément confirme, s’il en était besoin, que dans une démocratie les avis peuvent être multiples…

Carte de la situation selon les États américains (infographie © Le Figaro)

Toujours est-il que les enjeux économiques d’une telle décision ne sont pas anodins et risquent d’avoir des répercussions au-delà du seul marché des sapins de Noël canadiens… Ainsi, dans le Colorado où la marijuana est en vente légale depuis 2014, on considère que le marché du cannabis a créé 18 000 emplois à temps plein en trois ans, ce qui n’est pas si mal pour un État peuplé de 5 millions d’habitants. L’afflux touristique s’est considérablement accru et surtout les rentrées fiscales ont été telles qu’il a fallu reverser aux contribuables le trop-perçu. En effet, la constitution du Colorado fixe un plafond aux contributions fiscales de chaque citoyen. L’État ayant décidé de taxer à hauteur de 30 % les ventes de cannabis s’est ainsi retrouvé à la tête d’un pactole inattendu de 50 millions de dollars supplémentaires, soit 30 de trop par rapport au plafond autorisé par la constitution, si bien que chaque habitant s’est vu crédité d’un chèque de 7,63 $…

Projection des ventes de cannabis à usage récréatif et thérapeutique d’ici 2021 (source © Arcview market research)

En 2016, selon une étude du Arcview market research, les Américains auraient ainsi dépensé de l’ordre de 6,7 milliards de dollars pour l’achat de cannabis légal, soit une augmentation de 34 % depuis 2015. Et le mouvement ne fait sans doute que commencer puisque les projections estiment que ce marché devrait atteindre de l’ordre de 22 milliards d’ici 2021, la plus forte croissance étant liée à l’usage récréatif du cannabis, dont le marché pourrait passer de 1,9 milliards en 2016 à près de 15 milliards d’ici 2021.

Le principal bénéficiaire de cette croissance juteuse en sera probablement la Californie qui devrait s’adjuger une part importante de ce marché en pleine expansion. Les producteurs de cannabis y seront taxés à hauteur de 15 % et les ventes à hauteur de 10 %, auxquels s’ajouteront des taxes communales variant entre 2 et 10 %, soit de belles rentrées fiscales supplémentaires en perspectives. De quoi peut-être donner des idées à notre gouvernement dans sa volonté de réduire le déficit de l’État sans forcément trop rogner sur les dépenses publiques ?

L.V.  

Auchan, une affaire de famille, un peu envahissante

17 décembre 2017

Une enseigne bien connue localement… (photo © Rémy Gabalda / AFP)

L’empire Auchan, qui figure à la deuxième place de la Grande distribution en France, derrière Carrefour, et à la douzième place à l’échelle mondiale, a été créé en 1961 par Gérard Mulliez, lorsque ce dernier a ouvert son premier magasin à Roubaix dans les locaux désaffectés d’une usine Phildar. A l’époque, l’entreprise familiale, dirigée par son père et homonyme, était déjà florissante puisque le groupe comptait pas moins de 1 400 salariés et en emploiera 3 000 à son apogée en 1973, 30 ans seulement après l’ouverture du premier magasin dénommé initialement Au fil d’art à Poitiers.

Lorsque le jeune Gérard Mulliez décide d’ouvrir son pemier magasin dans le quartier des Hauts-Champs à Roubaix en 1961, il travaille déjà depuis quelques années dans l’entreprise familiale et rentre d’un séjour aux États-Unis où il a découvert les techniques de la Grande distribution dont le modèle est alors Marcel Fournier, fondateur de Carrefour. Mais les débuts sont difficiles et ce sont les bénéfices de l’empire Phildar qui permettent de tenir, au point que Mulliez finit par aller demander conseil à l’un de ses concurrents, Edouard Leclerc, lequel lui explique que le secret est de vendre le moins cher possible mais en grandes quantités…

Le premier supermarché Auchan en 1964, à une période où l’essence ne coûtait rien… (photo © Nord Eclair, source : Ateliers Mémoire de Roubaix)

En appliquant ce précepte, Gérard Mulliez parvient enfin à décoller et à ouvrir son deuxième magasin à Roncq en 1967, et ceci en se gardant bien de faire appel au système bancaire dont la famille Mulliez se méfie comme de la peste. Le développement du groupe (qui ouvre également son premier magasin Pimkie à Lille en 1971) est basé entièrement sur l’actionnariat familial au travers de l’Association familiale Mulliez, un groupement d’intérêt économique créé en 1955 pour gérer la succession du grand-père, Louis Mulliez.

Dès 1971, Auchan ouvre ses premiers magasins en dehors de son berceau d’origine et, à partir de 1981 s’attaque au marché européen avec les premiers Alcampo en Espagne. Depuis 2015, le groupe a pris le nom d’Auchan Holding et est désormais composé de trois entreprises autonomes qui sont Auchan Retail, Immochan et Oney Banque Accord.

Bienvenue dans le monde merveilleux d’Auchan !

Auchan Retail gère les magasins avec pas moins de 962 hypermarchés dont 144 en France (où le groupe gère également 455 supermarchés sous enseigne) et est présent dans seize pays, employant 337 800 salariés dont plus de 50 000 en France. Immochan, filiale immobilière du groupe créée en 1976, est chargée d’assurer la maîtrise foncière de l’environnement commercial des hypermarchés et est à la manœuvre pour les extensions et les créations de nouveaux projets comme sur le site des Gargues à Aubagne ou dans le cadre d’Europa City.

Quant à la banque Accord, créée en 1983 et devenue Oney en 2016, elle est spécialisée dans le crédit à la consommation, la monétique, la gestion des moyens de paiement et la connaissance des clients. Elle est notamment à l’origine en 1993 des premiers crédits à la consommation proposés au clients directement lors de leur passage en caisse, une prodigieuse incitation au surendettement…

C’est bien entendu cette branche de la holding qui est chargée des opérations d’optimisation fiscale auxquelles se livre le groupe au travers de ses filiales maltaises Oney Insurance Limited (pour les activités d’assurance dommages) et Oney Life Limited (pour les activités d’assurance-vie), un montage financier qui a permis au groupe d’économiser 21 millions d’euros d’impôts entre 2014 et 2016, en toute légalité bien entendu !

Une activité globalement florissante en tout cas pour ce groupe dont le chiffre d’affaire annuel avoisine les 40 milliards d’euros et qui permet à la famille Mulliez, actionnaire à près de 90 % du goupe (le reste du capital étant désormais détenu par les salariés, ce qui met la holding à l’abri de toute OPA hostile), de se placer à la troisième place des grandes fortunes hexagonales.

Et bien entendu, le nombre de marques contrôlées par la holding familiale, outre celles déjà citées, est innombrable : Saint-Maclou, Décathlon, Pimkie, Alinéa, Norauto, Simply Market, Flunch, Midas, Boulanger, Pizza Paï, Cabesto, Leroy-Merlin, Quechua, Kiabi, Kiloutou, Les 3 Suisse, Surcouf, Cultura, et bien d’autres encore…

La galaxie Mulliez en 2014 (source : Altermonde sans frontière)

Et l’on apprend désormais que l’un des membres de l’Association familiale Mulliez, un certain Matthieu Leclercq s’intéresse de près au développement des circuits courts. Son père, Michel Leclercq, était en 1961 boucher dans le premier magasin de son cousin germain, Gérard Mulliez. Un voyage d’études aux USA le convainc de lancer un magasin de sport et il ouvre en 1976 son premier Decathlon dans la zone commerciale Auchan à Englos, près de Lille. Là aussi, les débuts sont difficiles mais dès 2008 la nouvelle enseigne se retrouve en position hégémonique sur la quasi totalité du territoire national, avec désormais plus de 300 magasins en France et 1100 dans le monde entier.

Le magasin Decathlon de la zone des Paluds à Aubagne (source : Decathlon)

Olivier Leclerc, fils aîné du fondateur de Decathlon, remplace en 2009 son père à la tête du réseau Oxylane qui regroupe désormais l’ensemble des activités de sports et loisirs rattachées initialement à Décathlon. Mais en 2012, il cède les rênes de la société et la destinée de ses 55 000 salariés à son frère cadet, Matthieu, lequel a d’ailleurs en 2015 débaptisé le groupe pour lui redonner son nom initial de Décathlon

Or il se trouve que ce même Matthieu Leclerc, flairant la nouvelle appétence du public pour les produits de terroirs et les circuits paysans courts, « de la fouche à la fouchette », avait créé en 2006, son premier magasin dénommé La Ferme du Sart : un concept commercial (comme on dit chez ces gens-là) basé sur la vente de produits frais produits sur place, avec des animaux de la ferme sur le parking, histoire d’attirer le chaland familial.

Un concept en tout cas fermement dénoncé par de nombreux producteurs locaux et la Confédération paysanne qui flairent l’arnaque. Lorsque l’héritier Mulliez veut ouvrir son second magasin en 2009 à Wambrechies, une commune de 10 000 habitants située à 7 km de Lille, cinq exploitants agricole du crû qui ont déjà développé leurs propres circuits courts de vente, se rebiffent et décident de mettre en place leur propre point de vente.

Quelques-uns des producteurs qui alimentent le magasin Talents de fermes

Regroupés en association sous le nom L’Union fait la ferme, ils finissent par concrétiser leur projet et ouvrent enfin en 2014, après 5 années de réflexion, de formations et de démarches administratives leur magasin de 600 m², partagé entre la surface de vente et un atelier de transformation des produits. Fonctionnant désormais depuis plus de 3 ans, ce nouveau supermarché paysan à l’enseigne Talents de fermes, est désormais alimenté par une douzaine d’exploitants agricoles et un boulanger, et fournit une large gamme de produits issus du terroir local.

Guillaume Steffe, directeur de la Ferme du Sart (source : La Voix du Nord)

Quant à la Ferme du Sart, le patron de Decathlon l’a rebaptisée O’Tera pour éviter les critiques de la profession agricole mais n’en a pas moins poursuivi son expansion avec l’ouverture d’un second magasin à Avelin, toujours dans le Nord, en 2011, suivi d’un troisième à Saint-André, dans la banlieue lilloise en 2014, et d’un quatrième en 2016 près de Valencienne. Sur les 450 références vendues, 60 % seulement sont réellement issues de producteurs locaux selon le directeur du site du Sart, Guillaume Steffe, interrogé par La Voix du Nord, et une seule a le label bio. Mais le succès est néanmoins au rendez-vous et le PDG de Decathlon annonce désormais un objectif de 10 000 nouvelles implantations à travers toute la France : les paysans français adeptes des circuits courts sont prévenus…

L.V. 

Vous reprendrez bien un peu de glyphosate ?

30 novembre 2017

« L’homme est un animal doué de raison », disait le philosophe Aristote. C’est parfois à se demander. Prenons l’affaire du glyphosate. Voilà un produit miracle, mis sous le marché en 1974 sous le doux nom de Roundup et qui a fait la fortune de la firme Monsanto, devenant en quelques années le pesticide le plus vendu au monde : pas moins de 800 000 tonnes par an dont plus de 10 000 tonnes rien qu’en France. Le brevet est tombé dans le domaine public en 2000 mais il continue à rapporter la bagatelle de 5 milliards de dollars chaque année à la firme Monsanto, désormais tombée dans l’escarcelle du géant allemand Bayer.

Les agriculteurs affiliés à la FNSEA ne jurent que par lui et considèrent qu’il est désormais impossible à l’agriculture française de se passer du glyphosate. Comme l’a affirmé Eric Thirouin, secrétaire général de la FNSEA à un journaliste du Monde, interdire l’utilisation de cet herbicide, reviendrait « à poser un boulet à l’agriculture française » et coûterait pas moins de 2 milliards d’euros à une filière nationale déjà bien mal en point. La raison d’un tel surcoût : il faudrait que les céréaliers en reviennent à la charrue et se remettent à labourer leurs terres, ce qui les obligerait « à augmenter leur consommation de gas oil et leurs émissions de CO2 ».

Un véritable scénario catastrophe qui laisse pantois. Certes, nous voilà partiellement rassurés, nos agriculteurs ne seront pas obligés d’en revenir pour autant à l’araire tirée par des bœufs, voire à la daba. Mais tout de même, de là à prétendre que le glyphosate est la meilleure arme qu’on ait trouvée pour protéger l’environnement et combattre le réchauffement climatique, voilà qui paraît un peu fort de café.

Pour labourer profond, il faut ce qu’il faut… (source : Massey-Fergusson)

On en vient même à se demander, lorsqu’on voit le nombre de tracteurs dernier cri, avec cabine insonorisée équipée de GPS, en train de tracer leurs sillons dans les plaines céréalières de la Beauce ou de la Brie, si certains ne seraient pas en train de pousser un peu loin le bouchon en voulant nous faire croire qu’on a arrêté depuis belle lurette de retourner les champs et que, grâce au glyphosate, tout la profession s’est convertie à la permaculture…

Voilà en tout cas une situation bien peu rationnelle en apparence. Alors qu’en Europe et singulièrement en France, la demande en produits issus de l’agriculture biologique explose, au point qu’on est obligé d’importer massivement pour y faire face, la majorité active (ou du moins la plus bruyante) de la profession agricole se bat pour conserver le droit d’utiliser des produits phytosanitaires dont l’effet sur les sols et sur l’environnement est catastrophique, avec pour principal argument que c’est le seul moyen pour produire à bas coût et répondre ainsi aux diktats de la grande distribution.

La filière agricole et le ministre de l’agriculture en tête, se sont ainsi bruyamment félicités de la décision honteuse prise le 27 novembre 2017 par les États membres de l’Union européenne à une large majorité de prolonger de 5 ans la licence d’exploitation du glyphosate malgré tous les risques qu’il représente non seulement pour l’environnement mais aussi pour la santé humaine puisqu’il est désormais considéré comme « cancérogène probable » suite à une étude publiée en mars 2015 par le Centre international de recherche contre le cancer qui dépend de l’OMS.

Un dessin de Deligne (source : Urtikan)

La déclassification en mars 2017 des fameux « Monsanto papers » indique d’ailleurs que la firme américaine a découvert ce pouvoir mutagène du glyphosate dès 1999 et a tout fait depuis, grâce à son réseau d’influence auprès d’experts internationaux reconnus, pour semer le doute à ce sujet et publier nombre de résultats d’études qui tendent à prouver le contraire pour renforcer sa position.

Voilà en tout cas qui montre, une fois de plus, à quel point il est difficile, sur des dossiers aussi complexes et qui comportent de tels enjeux économiques, de prendre des décisions qui seraient conformes à l’intérêt général. Difficile d’ailleurs de ne pas faire le parallèle avec le cas de l’amiante dont on connait les dangers depuis les années 1890 mais pour laquelle il a fallu attendre 1997 pour que son utilisation soit enfin interdite en France.

Monument dédié aux victimes de l’amiante à Condé-sur-Noireau

Les propriétés de ce matériau étaient telles qu’il a été massivement utilisé dans l’industrie et la construction, sous forme d’amiante-ciment, en renforcement des enrobés routiers, comme isolant thermique ou encore dans les garnitures de freins. Pendant des décennies, des générations entières d’ouvriers ont été exposées à l’inhalation de fibres d’amiante dont l’accumulation dans les poumons est la cause de cancer. Rien qu’en France, 6 500 cas de maladie professionnelle liée à l’amiante ont ainsi été reconnus pour la seule année 2005 et on considérait en 2015 que chaque année de l’ordre de 2 200 personnes développent un cancer du fait de l’amiante et que 1 700 personnes en meurent.

C’est en 1899 qu’a été constaté le premier décès imputé directement à l’amiante et en 1906 déjà un inspecteur du travail s’alarmait des nombreuses pathologies des ouvriers dans une filature de Condé-sur-Noireau, là même où en 1972 Ferrodo installera une usine de garnitures de frein dans laquelle plusieurs centaines d’ouvriers seront victimes d’exposition grave aux fibres d’amiante.

Bâtiments de l’ancienne mine d’amiante de Canari en Corse (photo © Gérard Baldocchi, Corse Matin)

Mais pendant très longtemps, les syndicats de travailleurs ont milité aux côté du lobby des entreprises de l’amiante pour lutter contre toute limitation de l’utilisation de ce produit considéré lui-aussi comme indispensable, de même que les Corses se sont battus pour conserver leur mine d’amiante à Canari ou que les élus locaux un peu partout se sont démenés pour maintenir en activité les usines Eternit comme à Port-de-Bouc où le site est désormais ornée d’un monument aux morts dédié aux victimes de l’amiante.

Travaux de désamiantage dans les locaux de l’université de Jussieu (source : EPAURIF)

Il a fallu pour que l’on cesse enfin d’utiliser ce produit nocif que l’on se rende compte que ce n’était pas seulement les professionnels qui étaient touchés mais la société toute entière. Alors qu’en 1994 six enseignants exposés à l’amiante dans un lycée de Gérarmer décèdent et qu’apparaissent les premières victimes sur le site de la faculté de Jussieu, l’inénarrable Claude Allègre, toujours aussi lucide, en est encore à railler, en 1996, « un phénomène de psychose collective ». C’est sans doute ce qu’il dirait aujourd’hui de la phobie du glyphosate, s’il avait conservé un minimum de crédibilité pour qu’on lui tende encore un micro…

En 2005, un rapport parlementaire faisait état de 35 000 morts dus à l’exposition à l’amiante en France entre 1965 et 1995 et de plusieurs milliers de décès supplémentaires attendus entre 2005 et 2030. Notons également que le Fonds d’indemnisation des victimes de l’amiante a déjà déboursé plus de 2 milliards d’euros en une dizaine d’années et que le désamiantage de la seule université de Jussieu a déjà coûté de l’ordre de 2 milliards d’euros également. De quoi largement relativiser les arguments de la FNSEA qui voudrait nous faire croire que, pour le glyphosate comme pour d’autres dossiers, la meilleure solution est encore de foncer dans le mur en fermant les yeux…

L.V. 

Qui organise la pénurie de beurre ?

5 novembre 2017

Certains se souviennent peut-être encore de ce temps pas si lointain où les chambres froides de ce qui était encore la Commission économique européenne débordaient de beurre, stocké pour éviter que les cours de cette matière première ne s’effondrent. Le stockage avait commencé en 1964 afin de venir en aide aux agriculteurs européens alors en pleine surproduction et, en 1986, on avait atteint le volume incroyable de 1,28 millions de tonnes de beurre stockés dans les réserves de l’Europe.

Pour remédier à cet excédent structurel, des quotas laitiers ont fini par être instaurés en 1984 et, peu à peu, les « montagnes de beurre » ont commencé à se résorber. Il a quand même fallu près de 20 ans pour y parvenir et c’est en 2007 seulement qu’ont été écoulés les dernières 6000 tonnes de beurre encore stockés, pour l’essentiel d’origine espagnole à cette date. A l’époque, le prix du marché s’élevait à 2 400 € la tonne. Le système des quotas laitiers a été finalement abandonné en avril 2015 et depuis, c’est le marché mondial qui régit la commercialisation des produits laitiers sans aucun filet de sécurité.

Le résultat ne s’est pas fait attendre puisque dès 2016, le prix du lait payé au producteur est descendu en dessous du coût de production et le revenu moyen d’un éleveur en France aurait baissé de plus de 26 % entre 2015 et 2016 selon l’INSEE. Il ne reste déjà plus que 70 000 fermes laitières en France, un tiers d’entre elles ayant disparu au cours des 10 dernières années. Avec la fin des quotas laitiers qui fixaient des volumes plafond de production par pays, la production européenne a fortement augmenté, du fait principalement des grosses fermes industrielles du nord de l’Europe, ce qui tire les prix à la baisse et étrangle les derniers éleveurs laitiers encore en activité en France.

Manège de traite à la ferme industrielle dite des 1000 vaches, à Ducrat, près d’Abbeville dans la Somme (source © La Voix du Nord)

Et l’on apprend désormais que le beurre, qui jadis encombrait les frigos de Bruxelles, est devenue une denrée rare. Les rayons des supermarchés se vident et les boulangers industriels qui en sont de gros consommateurs (sachant qu’un croissant est composé à 50 % de beurre…) se retrouvent en chômage partiel faute de matière première. Le prix du beurre est ainsi passé en dix-huit mois de 2 500 à 6 500 € la tonne : un bond spectaculaire et qui pourrait encore se poursuivre. Mais comment a t-on bien pu en arriver là ? Le Marché aurait-il perdu la main, sa fameuse « main invisible » si chère aux économistes libéraux ?

Vache de race Prim’Holstein

On pourrait d’abord s’étonner que les cours du lait soient au plus bas alors que ceux du beurre, qui en dérivent directement n’ont jamais atteint de tels sommets. Certains invoquent des raisons techniques liées non pas à une météo qui aurait été défavorable à la production laitière comme certains le prétendent, mais qui découlent effectivement d’une politique menée depuis des années par la filière : en France, plus des deux-tiers du cheptel laitier sont constitués de Prim’Holstein, ces vaches laitières qui constituent l’essentiel des troupeaux européens et qui fournissent jusqu’à 10 000 litres de lait par tête et par an. Depuis des décennies, les chercheurs de l’INRA comme leurs collègues européens ont orienté la sélection de cette race dans le seul but de produire davantage de lait et moins de matière grasse. Or, sans matière grasse dans le lait, il est plus difficile de faire du beurre : il faut en moyenne 22 l de lait pour produire un kg de beurre, mais cela peut varier fortement sachant qu’un litre de lait contient selon les cas entre 35 et 45 g/l de matière grasse.

Couverture du Time de 2014 vantant les mérites du beurre

Or la consommation mondiale de beurre est désormais en hausse. Avec 8 kg par an et par habitant, la France se place au premier rangs des gros consommateurs, mais la demande est en train d’exploser dans d’autres pays, notamment asiatiques où l’on commence à prendre goût aux viennoiseries. Même aux USA, les diététiciens sont en train de revenir sur leur jugement très négatif concernant la consommation des corps gras en général et du beurre en particulier, ainsi que l’a rappelé le Time à sa Une en 2014.

Dans ce supermarché Cora, des rayons de beurre quasi vide (photo © Aurélien Laudy pour l’Union)

Beurre dans la baratte (source © Agrilait)

Mais la pénurie de beurre ne frappe curieusement que la France. Or la production de beurre français est plutôt en croissance, avec un volume global de 368 000 tonnes produit en 2015 contre 341 000 en 2010. Notre pays est actuellement le 6ème producteur mondial de beurre et le 2ème en Europe derrière l’Allemagne. De 2006 à 2010, la production mondiale de beurre a ainsi augmenté de 14 % et dépasse actuellement les 10 millions de tonnes, le premier producteur étant désormais l’Inde. Mais le géant de la production laitière est la Nouvelle-Zélande qui produit pas moins de 27 % du lait mondial, exporté principalement sous forme de poudre de lait. D’ailleurs, la France importe chaque année deux fois plus de beurre qu’elle n’en exporte, et sa principale source d’approvisionnement est justement la Nouvelle-Zélande.

Un dessin de Na !

En réalité, on se retrouve confrontés à deux phénomènes qui se surimposent. Le premier est un mouvement de fond, d’ampleur mondial et qui reflète une demande accrue de beurre, du fait de l’émergence de nouveaux marchés, notamment en Chine, alors même que la production de beurre a été volontairement freinée depuis des années parce que les consommateurs s’étaient orientés plutôt, pour des raisons diététiques, vers la consommation d’huiles végétales et de margarines. Ce mouvement de fond explique donc que les prix mondiaux du beurre soient en forte hausse, alors que ceux du lait n’augmentent que de manière modérée, du fait des stocks importants de poudre de lait encore disponibles, en particulier en Europe qui a en réserve plus de 350 000 tonnes, de quoi peser significativement sur les cours mondiaux.

A cela vient s’ajouter un élément conjoncturel spécifiquement français. On se souvient qu’en 2016, à l’issue d’une crise agricole comme la France en connaît régulièrement, le principal industriel du secteur, Lactalis, avait accepté de payer un peu plus cher le lait, à 290 € la tonne, ce qui lui permettait de s’aligner sur le prix des autres acteurs (Bongrain, SODIAAL ou Danone) tout en restant très en deçà des coûts réels de production que la profession agricole évalue entre 330 et 380 € la tonne selon les exploitations.

Mais en France, ce sont les 4 centrales d’achat de la grande distribution (Intermarché/Casino, Carrefour/Dia, Auchan/Système U et Leclerc) qui font la pluie et le beau temps en matière de fixation des prix des produits alimentaires. Les négociations avec les producteurs et les industriels de l’agro-alimentaire ont lieu une fois par an et la grande distribution s’y emploie à imposer à ses fournisseurs les prix les plus bas.

C’est la raison pour laquelle, le prix du beurre en grande surface n’a jusqu’à ce jour quasiment pas augmenté, contrairement à ce qu’on observe en Allemagne par exemple où le prix de la plaquette de beurre a plus que doublé. Comme vient de le reconnaître, après une semaine de tergiversations, le ministre de l’agriculture et de l’alimentation, Stéphane Travert, la pénurie de beurre dans les rayons des magasins s’explique en réalité principalement par un nouveau bras de fer entre industriels et géants de la grande distribution.

Faute de pouvoir vendre leur beurre en France à un prix rémunérateur, les acteurs de la filière préfèrent donc l’exporter, tout simplement. Bienvenue dans le monde de la mondialisation heureuse !

L.V.  

Un jardin se crée à Carnoux !

16 octobre 2017

Depuis des années, beaucoup de Carnussiens s’interrogeaient sur l’avenir de l’arboretum planté dans les hauts de Carnoux, juste à côté du cimetière. Cette parcelle municipale, autrefois occupée par un éphémère circuit automobile et où il avait été un temps évoqué l’idée d’y creuser un bassin nautique, avait été le support d’un projet séduisant porté par le Lion’s Club et qui consistait à y planter des espèces d’arbres variées dédiées à chaque naissance de nouveaux Carnussiens.

Une des stèles de l’arboretum, désormais dans le périmètre du jardin

Entièrement financé par la section locale du Lion’s Club et inauguré en 2006 par le maire de la commune, le projet a nécessité de remblayer l’ensemble de la parcelle avec plus d’1 m de terre pour espérer y voir prospérer des arbres, tous plantés en grandes pompes et assortis chacun d’une superbe stèle en béton portant fièrement une plaque gravée au nom des nouveaux nés du mois, devenant ainsi parrains et tuteurs de l’arbre. Une bien lourde responsabilité pour ces jeunes Carnussiens car, malgré les énormes quantités de terre rapportée (en réalité, des déchets de démolition lestés de blocs de béton et de plaques de goudron), le soin apporté à la mise en terre des arbres dans une grosse motte et malgré le réseau de goutte-à-goutte installé à grands frais sur tout le terrain, les pauvres arbres ont eu bien du mal à survivre au-delà de quelques années.

Le spectacle de désolation qu’offre depuis quelques années ce dernier espace encore vierge de Carnoux a incité quelques habitants de la ville à initier fin 2016 et après avoir visionné le film documentaire « Demain », réalisé par Cyril Dion et Mélanie Laurent, l’idée d’y créer un jardin collectif ouvert aux habitants de Carnoux, dans un esprit collaboratif et pédagogique. Fortement soutenu par Sophie Gébelin, adjointe en charge de l’environnement, le projet a fait l’objet d’un questionnaire diffusé en février 2017 à l’ensemble des associations de Carnoux afin de recueillir l’avis des habitants et évaluer leur potentiel souhait d’y participer.

La bonne surprise est venue du taux de réponse remarquable reçu à ce questionnaire puisque plusieurs centaines de familles se sont manifestées pour exprimer leur intérêt. Une association intitulée « Un jardin se crée à Carnoux-en-Provence » a donc été fondée dans la foulée et déclarée en Préfecture en mars 2017. La commune a accepté de laisser gratuitement à l’association, via une convention, la jouissance de quelques centaines de mètres carrés à titre expérimental, ainsi que la possibilité de se brancher sur le réseau de distribution d’eau qui irrigue déjà les arbres.

Quant au Lion’s Club, enthousiasmé par l’idée de redonner une deuxième vie plus verdoyante à cette parcelle en triste état, il a accepté d’accompagner financièrement le projet, ce qui a permis au petit groupe de volontaires d’acheter du grillage pour protéger le futur jardin contre les intrusions de sangliers et de mettre en place un système automatisé d’arrosage par goutte-à-goutte. Et ensuite, chacun s’est retroussé les manches pour commencer à aménager la future parcelle.

Le jardin en cours d’aménagement

Vu la nature des remblais qui la recouvrent, il n’était bien évidemment pas envisageable d’y semer directement radis et salades. L’association, qui souhaitait d’emblée s’inspirer d’une approche de type permaculture, a donc privilégié la culture sur buttes fertilisées à long terme par l’enfouissement de quantités importantes de matière organique sous forme de bois et déchets végétaux. Il s’agit bien sûr de cultiver sans intrants chimiques, en favorisant les associations culturales et en limitant le travail de labour.

Dès le printemps, le petit groupe de pionniers s’est donc retrouvé régulièrement les vendredis après-midi sur la parcelle pour l’aménager progressivement et constituer les premières buttes de culture à vocation expérimentale. Vus l’exiguïté du terrain alloué et la nature du sol a priori peu favorable au maraîchage, il n’était pas possible d’ouvrir trop largement l’association dès le départ, au risque de créer rapidement désillusion et découragement.

Et cet été, les résultats ont été à la hauteur des espérances avec de belles récoltes de tomates, de pommes de terre et de basilic en particulier. Il y a bien eu une tentative d’effraction (alors que la porte du jardin n’est pas fermée !), sans doute un peu de cueillette sauvage et surtout beaucoup de picorage des tomates par des pies affamées et des escargots gloutons, mais l’expérience a montré qu’il était tout à fait envisageable de poursuivre le maraîchage sur le plateau de l’Anguila malgré les conditions pédoclimatiques sans doute pas très optimales.

L’association s’est réunie le 29 septembre 2017 pour tirer un premier bilan de cette saison expérimentale, ce qui a permis d’intégrer quelques familles supplémentaires mais pour l’instant il n’est pas encore question d’étendre la superficie concédée par la commune.

Vue des nouvelles buttes aménagées le 14 octobre 2017

C’est donc toujours dans le même enclos que tous les sympathisants et volontaires se sont réunis ce samedi 14 octobre pour une journée de travail collectif qui a permis de remodeler largement une bonne partie de la parcelle. Quatre nouvelles buttes ont ainsi été aménagées, trois arbres fruitiers et plusieurs arbustes ont été plantés, le tout dans la bonne humeur, l’entraide et la convivialité !

L’aventure du jardin collectif expérimental de Carnoux se poursuit…

L. V. 

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Scandale sanitaire : des cochonneries dans le jambon

26 septembre 2017

L’information ne date pas d’hier puisque c’est en octobre 2015 que le Centre international de recherche sur le cancer, basé à Lyon et dépendant de l’Organisation mondiale de la santé, l’a confirmé urbi et orbi : les charcuteries sont cancérigènes, directement responsables du cancer colo-rectal, le plus fréquent chez les hommes après ceux du poumon et de la prostate, et chez les femmes après le cancer du sein. Pour cette même année 2015, selon les chiffres de l’Institut national du cancer, on dénombrait en France 43 000 nouveaux cas de cancer du colo-rectum déclarés et près de 18 000 décès du fait de cette maladie : moins que le cancer du poumon qui a tué cette année-là plus de 30 000 Français (hommage aux industriels du tabac !), mais bien davantage que les accidents de la route qui n’ont fait « que » moins de 3 500 morts durant cette même période.

Certes, la chacuterie n’est assurément pas la seule responsable de tous ces cancers mais il semble néanmoins qu’elle en porte une large part. Surtout, tout laisse à penser que l’on se trouve dans un cas de figure très comparable à ce que l’on a observé pour de précédents scandales sanitaires comme celui de l’amiante, du tabac ou de la vache folle pour ne prendre que quelques exemples : d’un côté une perception de plus en plus précise du risque sanitaire, régulièrement dénoncé par l’ensemble des acteurs de la santé publique, et de l’autre une propagande menée sans vergogne par les industriels de l’agro-alimentaire pour enfumer les consommateurs en semant le doute…

Un récent ouvrage, publié il y a quelques semaines sous le titre provocateur « Cochonneries – Comment la charcuterie est devenue un poison » par Guillaume Coudray, formé à Sciences Po et réalisateur de films documentaires, vient mettre bruyamment les pieds dans le plat. Après cinq années d’enquête minutieuse menée dans les archives administratives et médicales, l’auteur y décortique de manière implacable ce qui a conduit à une telle situation.

Pour bien comprendre le problème, il faut remonter en arrière, aux origines de la salaison, qui ne date pas d’hier. Pendant des siècles, l’homme a pris l’habitude de conserver la viande en y ajoutant du sel et des épices. On retrouve ainsi dans les archives un règlement parisien datant de 1476 et détaillant la liste des ingrédients autorisés pour la fabrication de saucisses. Jusqu’à la fin du XIXème siècle, dans toute l’Europe, seul le sel intervient dans la conservation de la charcuterie, tandis que d’autres épices telles que le poivre, le fenouil et de nombreuses herbes aromatique servent de réhausseurs de goût. La coloration rose est quant à elle assurée par l’ajout de colorants naturels comme le safran pour la mortadelle italienne.

Salaison d’oiseaux dans l’Egypte ancienne (source INRAP)

Comme dans bien d’autres domaines, l’innovation est venue des États-Unis où sont nés, dès la fin du XVIIIème siècle, dans le Massachussetts, les premiers charcutiers industriels, les « packers » qui se mettent à conditionner la viande salée dans des tonneaux ou des caisses destinées notamment aux marins au long-cours. L’activité se déplace peu à peu vers l’ouest et la ville de Cincinnati, dans l’Ohio, prend en 1835 le surnom officiel de « Porkopolis » après être devenue le principal centre de production de porcs du pays et sans doute du monde !

Abattoirs de l’usine Armour à Chicago en 1893 (croquis Octave Uzanne)

A l’époque, la saison d’abattage est strictement limitée entre novembre et mars. Comme en Europe où il est d’usage dans les campagnes de faire les cochonnailles pour Noël, c’est en effet pendant l’hiver, lorsque la température ambiante est suffisamment fraîche, que l’on peut en toute sécurité abattre les bêtes et saler la viande, dans une véritable course contre la montre.

Mais on n’arrête pas la course au profit et bientôt cette activité décline au profit de la ville de Chicago qui s’impose en quelques années comme la capitale mondiale de la viande et notamment de la charcuterie. Sauf qu’entre temps les techniques ont évolué : les charcuteries américaines industrielles sont désormais traitées systématiquement à base de salpêtre (nitrate de potassium), puis de nitrate de sodium, un produit extrait d’immenses gisements situés au pied de la Cordillère des Andes. Après la première guerre mondiale, on se met à utiliser le nitrite de sodium, un produit chimique développé pour l’industrie de l’armement et devenu bon marché. Bien que mortel à partir de 2 g/kg, il est rapidement autorisé dans l’industrie alimentaire à faibles doses car ses propriétés intéressent fortement les charcutiers industriels.

L’intérêt de ces sels, par rapport au chlorure de sodium classique, est en effet multiple : il atténue le goût de salé, donne au jambon une belle coloration rose carmin durable, prolonge la durée de conservation des aliments et surtout il accélère considérablement la maturation de la viande, ce qui permet de formidables gains de productivité.

D’ailleurs, l’effet économique est foudroyant. Dès 1874, la France tente vainement de se protéger contre les importations massives de charcuteries américaines traiées au salpêtre. Mais face aux menaces de rétorsions concernant ses exportations de pinard, les industriels français s’adaptent et tout le monde se met à bourrer la charcuterie de nitrates, borates et autres sulfites : vive la modernité !

Ce n’est qu’au milieu des années 1950 que des chercheurs se rendent compte que les produits nitrés utilisés désormais dans toutes les salaisons provoquent la formation de nitrosamines, dont la diméthylnitrosamine (ou N-nitrosodiméthylamine, qu’on appellera par son petit nom NDMA) considérée comme cancérigène. On sait depuis longtemps que les nitrites sont toxiques à haute dose et les autorités sanitaires ont fixé des limites au dosage en additifs nitrés. Mais l’on découvre à cette date que leur combinaison avec les protéines carnées conduit à la formation de cette NDMA qui provoque des tumeurs cancéreuses.

Un article retentissant paru en 1968 dans le journal médical The Lancet, met en garde contre ce mécanisme. Mais les autorités sanitaires et notamment l’Autorité européenne de sécurité des aliments, empêtrée dans de multiples conflits d’intérêt avec le milieu agro-industriel, se contente de baisser symboliquement les seuils acceptés de nitrites sans prendre nullement en compte ce risque liés à la formation de NDMA. Au contraire, elle relaie vigoureusement les arguments de la filière industrielle qui prétend que, sans les ajouts d’additifs nitrés, les consommateurs seraient exposés au risque de botulisme, liés à l’apparition de la bactérie toxique Clostridium botulinum.

Le jambon de Parme, garanti sans nitrites (source l’Observatoire des aliments)

Or cette affirmation est parfaitement erronée puisque de très nombreuses charcuteries traditionnelles ont toujours été et sont encore produites sans additifs nitrés. C’est notamment le cas du jambon de Parme, qui bénéficie d’une appellation d’origine contrôlée et d’un cahier des charges interdisant strictement tout ajout d’additif nitré, et ceci depuis 1993 : en 25 ans, les 9 millions de jambons produits n’ont jamais causé un seul cas de botulisme….

C’était aussi le cas du jambon de Bayonne jusque dans les années 1960, mais ces temps sont désormais révolus… Les besoins de l’industrialisation agro-alimentaire passent aujourd’hui avant les préoccupations de santé publique : bon appétit quand même !

L.V. 

Un nouveau château en Espagne

28 août 2017

L’architecte américano-canadien Franck Gehry fait assurément partie de ces starchitectes dont l’oeuvre ne laisse pas indifférent. Concepteur notamment du musée Guggenheim à Bilbao, de la Fondation Louis Vuitton à Paris, de la maison dansante à Prague ou encore de la tour de la fondation Luma en cours de construction à Arles, ses œuvres sont tout sauf classiques. Défiant les lois de la pesanteur, les bâtiments qu’il conçoit, parfois en s’inspirant simplement d’une boule de papier froissé, semblent totalement déstructurés, déformés, bancals et pour tout dire complètement loufoques, bousculant tous les principes architecturaux les plus solidement établis.

Vue d’ensemble de la Bodega Marqués de Riscal (source : Hotel Marqués de Riscal)

Parmi ces chantiers, il en est un qui retient particulièrement l’attention. C’est celui de l’hôtel de luxe édifié en 2006 sur une propriété viticole espagnole, Marqués de Riscal. Située à proximité de la ville médiévale d’Elciego, dans la vallée de l’Ebre, à mi-chemin entre Burgos et Pampelune, ce vignoble est aussi ancien que réputé. Fondée en 1860 par Camilo Hurtado de Amézaga, marquis de Riscal, un aristocrate acquis aux idées libérales et empreint de culture française, la maison Herederos del marqués de Riscal est désormais à la tête d’un domaine qui s’étend sur pas moins de 1500 ha avec des vignes en terrasses cultivées de manière extensive et surplombant la vallée de l’Ebre.

La bodega et les vignobles à proximité du village d’Elciego

Une partie des 180000 bouteilles stockées dans les chais

Une partie des caves date de 1858 et leur extension a été réalisée en 1883. Depuis, la marque est devenue un géant du vin espagnol de la Rioja, avec plus de 5 millions de bouteilles vendues annuellement, dont 70 % à l’export, et a même racheté, en 2010, 350 ha de vignobles à l’un de ses concurrents, le Français Pernod Ricard. Ici, on n’est plus dans le monde artisanal des vignerons à l’ancienne…

Mais le génie commercial de cette véritable entreprise viticole qu’est devenu le domaine Marqués de Riscal réside dans l’investissement hôtelier très haut de gamme conçu il y a maintenant plus de 10 ans pour attirer sur la propriété une clientèle aisée autour d’une véritable Cité du vin, vaste lieu d’accueil thématique de quelque 100 000 m2 consacré à l’élaboration, au soin et à l’étude du vin, entouré d’un complexe hôtelier luxueux assorti de salles de réception et de réunions.

Et c’est là que la patte de l’architecte Franck Gehry a su donner toute l’originalité qu’il fallait pour que cet immense complexe hôtelier et touristique perdu au milieu des vignes, dans un cadre enchanteur avec le village médiéval d’Elciego en arrière plan, devienne un site d’attaction proprement extraordinaire du fait de sa conception pour le moins originale. Il faut dire que si le projet date de 1998, il a fallu du temps, et de nombreuses dégustations de Rioja, pour convaincre l’architecte Franck Gehry, de s’engager dans la conception de cette bodega atypique, mais le résultat vaut le détour !

Les rubans en titane (source : Hôtel Marqués de Riscal)

Le bâtiment lui-même évoque vaguement une forme de cep de vigne avec ses piliers évasés vers le ciel qui supportent des éléments de forme cubiques disposés de manière apparemment très anarchique, avec de grandes ouvertures d’orientation variée. Le tout est enveloppé et surmonté de volutes enrubannées métalliques servant de pare-soleil, en acier inoxydable et titane, dans les tons rose, or et argent, sensé évoquer les teintes du vin, des capsules et de la maille dorée qui orne les bouteilles de la propriété. Vu de loin et en fonction des reflets de la lumière, l’effet est saisissant de voir ces rubans métalliques émerger au dessus des rangées de vignes, tels un paquet cadeau abandonné au milieu des ceps…

Des façades qui se marient avec celles des bâtiments anciens (source : Hôtel Marqués de Riscal)

Les façades sont en pierre, taillées dans le grès local, ce qui leur donne une certaine parenté avec celles des bâtiments historiques tout proches. Quant à l’aménagement intérieur, il est à l’avenant, de nombreux éléments ayant été dessinés par l’architecte lui-même. On y compte 43 chambres et suites luxueuses, accessibles pour la somme modique de 310 € la nuit pour les plus modestes d’entre elles, jusqu’à 800 € pour ceux qui ne comptent pas bouder leur plaisir en regardant à la dépense…

Une des 43 chambres de l’établissement (source : Hôtel Marqués de Riscal)

Le lieu, qui accueille désormais 70 000 visiteurs chaque année, dispose de surcroît de deux restaurants dont l’un tenu par un chef étoilé, de nombreuses salles de réunion et de réception, y compris pour ceux qui veulent s’y marier en grandes pompes, et bien entendu d’un spa luxueux où l’on pratique notamment la vinothérapie qui consiste en un bain dans une barrique en bois remplie d’un mélange à base de marc de raisin…

Le spa de l’hôtel (source : Hôtel Marqués de Riscal)

Destiné manifestement à une clientèle huppée et capable de dépenser sans compter, ce type d’établissement ne laisse cependant pas indifférent du fait de son architecture pour le moins originale, dont la conception a nécessité des études numériques poussées en trois dimensions et même des essais en soufflerie pour vérifier que les volutes en titane n’allaient pas s’envoler à la moindre brise. Quant à la réalisation d’une construction aussi biscornue, dont le coût reste tenu secret, on n’ose même pas imaginer le dialogue au jour le jour entre son concepteur et les entreprises en charge de concrétiser sur le chantier un projet aussi audacieux…

L.V.  

6ème extinction massive : l’agonie sera brève…

11 juillet 2017

Nous avons tous en tête cette question lancinante qui nous obsède : comment les dinosaures, maîtres du monde et omniprésent à la surface de la Terre durant des millions d’années ont-ils pu bien pu disparaître du jour au lendemain ou presque et céder ainsi la place à d’autres espèces aussi fragiles que ridicules, qui ne faisaient pas le poids à côté de ces monstres, et qui pourtant ont su occuper toute la place laissée libre par leurs redoutables prédécesseurs ?

Astéroïde géant, supernova tueuse, crise climatique brutale ou éruption volcanique cataclysmique, les hypothèses ne manquent pas pour expliquer ces extinctions massives d’espèces qui se sont produites à de multiples reprises depuis que la Terre existe. Celle qui a eu lieu à la fin du Crétacé, il y a maintenant 65 millions d’années ne serait que la cinquième de ces grandes extinctions massives connues, et encore certains en répertorient même plusieurs dizaines.

Pour ce qui est de la disparition des dinosaures, on soupçonne que la chute d’une météorite de 10 à 20 km de diamètre, tombée malencontreusement dans le Golfe du Mexique, aurait pu provoquer un cataclysme suffisant pour expliquer la disparition de ces reptiles qui avaient pourtant su coloniser la quasi-totalité de la planète. D’autres évoquent l’émission de millions de m3 de laves qui s’épanchaient alors sur le vaste plateau du Deccan en Inde durant une vague d’éruptions qui dura pendant près de 1 million d’années, induisant des changements climatiques majeurs à l’origine de la disparition de 47 % des espèces marines et 18 % des vertébrés terrestres, dont la totalité des dinosaures et des reptiles volants.

Empilement de coulées basaltiques au Deccan (Inde)

Une véritable hécatombe donc, mais qui, bien que reliée sans doute à un (ou plusieurs) événement déclencheur brutal, ne s’est probablement pas faite du jour au lendemain comme on a trop tendance à se le représenter. Cela a sans doute pris plusieurs dizaines voire centaines de milliers d’années ! Les hypothèses les plus récentes (mais toujours controversées) estiment que c’est l’impact de la météorite de Chicxulub qui serait à l’origine d’une disparition rapide de la végétation du fait des perturbations climatiques associées à un tel impact, mais que son effet aurait été aggravé par les émissions volcaniques massives du Deccan, elles-mêmes déclenchées par l’impact, tout en reconnaissant qu’il s’est probablement passé environ 50 000 ans entre les deux événements, une paille !

Ammonites pourchassées par un mosasaure

Le plus probable en tout cas est que c’est la photosynthèse qui a été affectée en priorité par ces événements cataclysmiques, provoquant par contrecoup la disparition des espèces végétariennes qu’elles soient marines (ammonites et autres belemnites notamment, mais aussi les mosasaurus qui s’en nourrissaient) ou terrestres, dont les fameux dinosaures, qui ont néanmoins survécu via leurs descendants que sont les oiseaux. Les mammifères, eux, ont profité de l’occasion pour se diversifier et proliférer.

Car c’est une constante du genre : la durée de vie moyenne d’une espèce animale ou végétale est de l’ordre de 5 à 6 millions d’années. Ensuite, elle disparaît ou elle donne naissance, par mutation, à de nouvelles espèces. La vie sur Terre étant riche de millions d’espèces différentes, cela revient à dire que plusieurs espèces disparaissent chaque année, tandis que de nouvelles surgissent régulièrement. Sauf lors de ces crises exceptionnelles qui voient disparaître au même moment des millions d’espèces. La Nature a besoin ensuite de plusieurs millions d’années pour retrouver un nouvel équilibre.

Présenté ainsi, on pourrait considérer que la perte de biodiversité que nous vivons actuellement et que beaucoup présentent comme La Sixième Extinction (c’est le titre d’un livre de la journaliste Elisabeth Kolbert, publié en 2015 et qui a été couronné par le Prix Pulitzer), n’est donc qu’une péripétie de plus comme la Terre en a connue plusieurs au fil des temps géologiques. Sauf que jamais la disparition des espèces n’a connu un rythme aussi rapide et ceci sans même faire appel à une bonne vieille catastrophe naturelle ou un bombardement cosmique de derrière les fagots.

Le dodo, une espèce décimée par l’homme (crédit photo : Ballista)

Selon une étude publiée en juin 2015 dans Science Advances, le taux actuel de disparition des espèces animales serait d’au moins 100 fois supérieur à ce qu’il n’était avant 1900, soit un rythme d’extinction sans précédent depuis la fin des dinosaures. L’Union internationale pour la conservation de la nature considère ainsi qu’environ 41 % des espèces d’amphibiens et 26 % des espèces de mammifères sont désormais menacées d’extinction. Il suffit de se promener dans la galerie du Museum d’Histoire naturelle à Paris pour retracer l’histoire de ces centaines d’espèces qui ont déjà disparu de la surface du globe, exterminées volontairement ou non par des générations de chasseurs.

Et la situation s’aggrave comme vient encore de le montrer une étude publiée cette semaine dans les Proceedings of the National Academy of Sciences par des chercheurs américains et mexicains. Sur 27 600 espèces de vertébrés terrestres étudiés, les chercheurs ont constaté que 32 % avaient vu leurs populations décliner dangereusement, ce qui est un prélude à leur disparition annoncée. La plupart de ces espèces voit son aire de répartition se réduire drastiquement, ce qui est à l’origine de son déclin. Ainsi, le nombre de lions a chuté de 43 % au cours des 20 dernières années et ils ne sont plus présents en Afrique que sur de minuscules territoires résiduels.

Le chardonneret élégant (source : Nature Alsace)

Les orang outangs à Bornéo ont vu leurs effectifs fondre de 25 % ces 10 dernières années tandis qu’en France le nombre de chardonnerets a diminué de 40 % dans le même temps. Au total, ces chercheurs estiment que le nombre total de vertébrés terrestres aurait ainsi été divisé par deux en 40 ans, ce qui vient confirmer les chiffres alarmistes annoncés en 2016 par le WWF qui estimait que 58 % des population de vertébrés avait disparu entre 1970 et 2012.

Les causes de cette nouvelle extinction massive qui se produit sous nos yeux à un rythme jamais connu sont parfaitement connues et analysées. Elles sont toutes liées directement à l’activité humaine : déforestation, urbanisation, exploitation minière, agriculture intensive, pollution des eaux, réchauffement climatique, transfert d’espèces invasives. La perte de biodiversité qui en résulte est maximale dans les milieux les plus vulnérables que sont notamment les îles, là où l’isolement avait permis le développement d’espèces endémiques qui disparaissent très rapidement lorsque l’activité humaine les met en contact de prédateurs nouveaux. La littérature scientifique regorge de tels exemples, mais l’enjeu est aussi la biodiversité ordinaire, celle des papillons et des abeilles dont les populations sont en train de s’effondrer alors même qu’elles sont vitales pour assurer la pollinisation nécessaire à l’activité agricole et donc à la survie de l’humanité.

Un dessin signé Ahmet Aykanat

C’est finalement la seule bonne nouvelle que l’on pourrait retenir : il ne reste plus beaucoup de temps pour inverser la tendance d’un cycle aussi mortifère et au vu des décisions de certains responsables politiques actuels, tout laisse penser que les choses ne vont aller qu’en s’accélérant. La sixième extinction massive est bien engagée, sera très vraisemblablement fatale à l’espèce humaine et elle devrait être courte : au train où vont les choses, la Planète ne devrait plus avoir à nous supporter pendant très longtemps…

L.V.