Archive for février 2018

France-Allemagne : l’analyse de Thomas Piketty

27 février 2018

Thomas Piketty en conférence à Washington le 15 avril 2014 (crédit photo © Ivan Couronne / AFP)

Est-il besoin de présenter Thomas Piketty ? Docteur en économie de l’École des hautes études en sciences sociales et directeur d’études dans cette même institution après avoir été fondateur et premier directeur de l’École d’économie de Paris en 2006, cet économiste engagé, spécialiste des inégalités économiques, s’est notamment fait mondialement connaître pour la parution en 2013 de son ouvrage intitulé Le Capital au XXIe siècle, une somme de plus de 1000 pages qui le conduisit à donner de nombreuses conférences mondiales très remarquées y compris aux États-Unis.

Proche du Parti socialiste, il s’était engagé comme conseiller économique de Ségolène Royal lors de la campagne présidentielle de cette dernière en 2007, avant de soutenir François Hollande en 2012, pour reconnaître néanmoins sa forte déception a posteriori, allant jusqu’à estimer que « le gouvernement fait exactement le contraire de ce qu’il faudrait ». En 2015, il fait partie, avec Joseph Stiglitz des économistes qui conseillent le candidat du Labour britannique Jeremy Corbyn, et en 2017 on le retrouve dans l’équipe de campagne de Benoît Hamon, favorable à « un revenu universel crédible et audacieux ».

Les idées que soutient Thomas Piketty, en faveur notamment d’une réduction des inégalités par une réforme fiscale ambitieuse via une imposition progressive basée sur l’ensemble des revenus effectifs, ne font certes pas l’unanimité et suscitent même un rejet viscéral de la part des tenants du néolibéralisme, allergiques à toute idée de redistribution des richesses. Une chose est sûre pourtant, rares sont ceux qui contestent la compétence de cet économiste reconnu et ses analyses font souvent autorité.

Ainsi, l’un des articles publiés sur son blog en janvier 2017 et intitulé « De la productivité en France et en Allemagne » a conservé toute son actualité et mérite d’être lu en détail pour préciser certaines de nos idées reçues quant au fameux différentiel de compétitivité entre les deux pays moteurs de la construction européenne. Il n’est pas question ici d’évoquer toute la richesse du raisonnement mais on retiendra néanmoins à titre d’illustration trois ou quatre idées parmi d’autres.

Première affirmation, qui heurtera sans doute certains adeptes du déclinisme à la française : la productivité des économies mesurées en rapportant le PIB (c’est-à-dire la valeur totale des biens et services produits dans un pays au cours d’une année) au nombre total d’heures travaillées (salariés et non-salariés confondus) est quasiment identique en France et en Allemagne, comme d’ailleurs aux États-Unis. Elle représente environ 55 euros par heure travaillée en 2015, et est de plus de 25 % supérieure à celle enregistrée au Royaume-Uni ou en Italie, et près de trois fois plus élevée qu’en 1970 (après prise en compte de l’inflation et du niveau des prix dans les différents pays).

PIB par heure travaillée en parité de pouvoir d’achat et en euros 2015 (source © T. Piketty)

Contrairement à ce que certains voudraient faire croire, la France fait donc partie des quelques pays à forte productivité, de tels taux n’étant en effet dépassés que dans certaines économies très spécifiques basées sur la rente pétrolière (Norvège ou Émirats Arabes Unis par exemple) ou sur les paradis fiscaux (comme le Luxembourg).

Plus instructif encore, on observe que jusque dans les années 1970, la productivité américaine était très supérieure à celle des économies européennes, France comprise. Si la France et l’Allemagne ont pu grosso modo rattraper leur retard dès la fin des années 1980, c’est pour l’essentiel en ayant investi massivement dans l’éducation de leur population en généralisant l’accès à l’enseignement secondaire puis supérieur, avec plus de réussite que nos voisins britanniques et italiens, et davantage d’équité aussi que nos concurrents américains… Comme quoi, miser sur l’éducation est une nécessité absolue !

Nombre d’heures travaillées par an et par emploi (source © T. Piketty)

Deuxième idée intéressante qui ressort de cette analyse de Thomas Piketty : si le PIB par habitant est supérieur aux États-Unis qu’en Europe où il est finalement très comparable entre la France, l’Allemagne et le Royaume Uni (de l’ordre de 3000 € par mois et par personne), c’est parce que le volume d’heures travaillées y est très différent.

Thomas Piketty (crédit photo © Ekko von Schwichow)

Si l’on rapporte le nombre d’heures travaillées au nombre d’emplois, on observe ainsi que ce chiffre est en diminution régulière depuis les années 1970 en France et plus encore en Allemagne (où le phénomène est encore accentué par le développement du temps partiel imposé) alors qu’il est resté nettement plus élevé au Royaume Uni et surtout aux États-Unis. Les 1500 heures travaillées actuellement en moyenne par an en France correspondent peu ou prou à 35 heures hebdomadaires pendant 44 semaines alors que la durée des congés aux USA n’a quasiment pas augmenté depuis les années 1980, ce qui traduit une différence notable de choix de société.

Troisième notion évoquée dans cette analyse : le taux d’emploi par habitant qui, en France, stagne autour de 42 % alors qu’en Allemagne il s’accroit régulièrement depuis le début des années 2000 pour s’approcher désormais de la barre des 50 %. Ce décrochage très significatif de l’emploi en France depuis une quinzaine d’années est particulièrement significatif chez les moins de 25 ans et les plus de 55 ans, reflétant des faiblesses manifestes et inquiétantes en matière de formation professionnelle, de structuration du tissu industriel, de gouvernance des entreprises, mais aussi de financement de la protection sociale.

Dernier point qui mérite aussi d’être cité, sans prétendre tout dévoiler de cette analyse comparative très complète développée ici par Thomas Piketty : la question de l’excédent commercial allemand qui depuis les années 2000 représente toujours plus de 5 % de son PIB, atteignant même jusqu’à 8 % en 2015. Une situation totalement inédite pour un grand pays développé.

Le port à containers d’Hambourg, porte ouverte vers l’exportation

Le Japon a connu lui aussi dans les années 1980 des périodes d’excédent commercial qui lui ont permis d’accumuler des liquidités destinées à anticiper le vieillissement de sa population mais est depuis revenu à l’équilibre et présente même actuellement de nouveau une situation de léger déficit. Au même titre que la France d’ailleurs qui oscille régulièrement entre léger excédent et déficit modéré, alors que les États-Unis se distinguent depuis les années 1980 par un déficit chronique rendu possible par le rôle particulier de leur monnaie qui leur permet de rendre tolérable leur situation d’endettement financier permanent.

Reste que cette situation très particulière d’excédent commercial paraît peu durable à terme car elle suppose d’une part que les autres pays puissent absorber un tel excédent et d’autre part que l’Allemagne soit capable d’investir de manière judicieuse les liquidités ainsi accumulées, ce qui ne semble guère être le cas. La logique voudrait que le pays investisse désormais de manière plus significative dans les salaires (longtemps gelés), dans la consommation et dans l’investissement en Allemagne, afin de rééquilibrer son économie : un véritable défi pour la chancelière Angela Merkel qui peine toujours à former un gouvernement de coalition, cinq mois après les dernières élections législatives, mais un défi aussi pour la construction européenne et la solidité du tandem moteur franco-allemand !

L.V.  

A Paris comme à Marseille, le Préfet qui s’attaque aux cas d’eau

25 février 2018

En France, selon une tradition républicaine solidement établie, les Préfets restent rarement très longtemps au même poste, histoire d’éviter qu’ils s’engluent dans le réseau de notabilité locale au risque de perdre le recul nécessaire à ceux qui sont d’abord chargés de faire appliquer localement les règles de la Nation et les orientations du Gouvernement. Rares sont donc sans doute ceux qui se souviennent encore du nom de celui qui fut Préfet des Bouches-du-Rhône et Préfet de Région à Marseille entre juin 2013 et juillet 2015.

Martine Vassal à La Ciotat le 17 juin 2015 en présence de Patrick Boré (au centre) et de Michel Cadot (à droite), encore préfet des Bouches-du-Rhône (source © TPBM)

Gageons néanmoins que la Présidente du Conseil Départemental des Bouches-du-Rhône, Martine Vassal, élue à ce poste prestigieux en remplacement de l’inénarrable Jean-Noël Guérini, s’en souvient parfaitement. Car c’est bel et bien le Préfet Michel Cadot, haut fonctionnaire austère, issu de la promotion Voltaire de l’ENA, tout comme François Hollande, et qui fut un temps directeur de cabinet de Michèle Alliot-Marie au Ministère de l’Intérieur, qui est à l’origine des ennuis judiciaires dans lesquels elle est désormais empêtrée.

Petit retour en arrière, pour ceux qui l’auraient oublié : en 2013, après avoir confié pendant 53 ans sans discontinuer (un record !) la distribution de l’eau potable à la SEM (Société des Eaux de Marseille, désormais entièrement entre les mains de Véolia), la Communauté urbaine Marseille Provence Métropole avait remis en jeu cette délégation de service publique, pour se mettre enfin en conformité avec la loi. Et surprise, le 31 octobre 2013, trois des 4 lots (un pour l’eau potable et deux concernant l’assainissement, représentant quand même la bagatelle de 3,2 milliards d’euros) ont été attribués de nouveau à la SEM pour 15 ans supplémentaires, au terme d’une procédure manifestement entachée de très nombreuses irrégularités, ainsi que nous l’avions déjà évoqué ici.

Outré par de telles pratiques, le Préfet Cadot a donc saisi immédiatement la Cour Régionale des Comptes qui avait rendu très rapidement ses conclusions, totalement accablantes. Rendu public après les élections municipales de mars 2014, le rapport met tout particulièrement en cause le rôle de Martine Vassal, alors simple conseillère départementale mais déjà adjointe au maire de Marseille et surtout présidente de la commission Agglomération éco-responsable de MPM. A ce titre, c’est elle qui a présenté devant les élus de la commission d’examen des offres les conclusions de l’analyse des offres après avoir participé en direct aux négociations avec les entreprises, orientant sans difficulté la décision en faveur de la SEM.

Or la Cour Régionale des Comptes pointe un conflit d’intérêt manifeste puisque Martine Vassal était à l’époque trésorière du Forum mondial de l’eau, une association destinée à défendre les intérêts des multinationales françaises de l’eau au premier rang desquelles Véolia, et dont le président, un certain Loïc Fauchon, lui-même ancien secrétaire général de la Ville de Marseille, est par ailleurs PDG de la SEM. Pendant la précédente réunion du Forum mondial de l’eau qui s’était comme par hasard tenue à Marseille en mars 2012, en pleine phase de renégociation du contrat de la SEM, Martine Vassal s’était montrée particulièrement proche de Loïc Fauchon…

Eugène Caselli, Jean-Claude Gaudin, Loïc Fauchon (de gauche à droite) et Martine Vassal lors de la clôture du Forum mondial de l’eau en 2012 (crédit photo © Christophe Taamourte / 6th Water World Forum)

L’affaire avait été jugée alors si grave et susceptible d’être constitutive d’infractions pénales, que le Procureur de la République avait été saisi. On avait finalement appris, en 2015, que ce dernier avait transféré le dossier au Parquet national financier, créé suite à l’affaire Cahuzac pour juger les faits d’évasion fiscale et de corruption. Ceci n’avait pas empêché Martine Vassal de devenir entre temps 2ème adjointe au maire de Marseille, puis Présidente du Conseil Départemental des Bouches-du-Rhône, et finalement première Vice-Présidente de la Métropole Aix-Marseille-Provence : des postes clés dans le cadre de la réorganisation territoriale de l’agglomération marseillaise et qui la placent en position idéale pour succéder, peut-être même avant la fin de son mandat, à un Jean-Claude Gaudin vieillissant.

Le nouveau siège social de Véolia à Aubervilliers (crédit photo © C. Majani / Véolia)

Sauf que depuis, l’affaire a prospéré… Le 12 janvier 2015, le Parquet national financier ouvre donc une enquête préliminaire pour favoritisme et prise illégale d’intérêt, complicité et recel de ces délits. Le siège parisien de Véolia est perquisitionné en avril et le 10 novembre de la même année, un procureur accompagné d’enquêteurs de la Division économique et financière de la Police Judiciaire de Marseille, frappent à la porte du bureau de Martine Vassal pour une perquisition en bonne et due forme, avant d’aller visiter son domicile dans l’après-midi, puis de s’intéresser au bureau du Directeur général des services de MPM et au siège de la Société des Eaux de Marseille.

Et les choses ne s’en arrêtent pas là puisque le 22 juin 2017, la présidente du Conseil Départementale est placée en garde à vue pendant 15 heures dans les locaux de la Brigade financière, ainsi d’ailleurs que son grand ami Loïc Fauchon. Le maire de Marseille, Jean-Claude Gaudin en personne, est lui-même longuement entendu par les enquêteurs ce même jour, comme simple témoin car une mise en garde à vue aurait nécessité la levée préalable de son immunité parlementaire alors qu’il détenait encore à cette date un mandat de sénateur.

Depuis, rien n’a filtré quant aux suites judiciaires de cette affaire qui risque de déboucher sur un renvoi devant le tribunnal correctionnel, à moins que le dossier ne soit finalement classé sans suite… Quoi qu’il arrive, l’image de vertu que voulait donner Martine Vassal en arrivant à la tête du Département risque d’en être quelque peu écornée, elle qui disait vouloir en finir avec « le clientélisme » de son prédécesseur et déclarait vouloir placer son mandat « sous le signe de la transparence et de l’équité »…

Le Préfet Michel Cadot (crédit photo © P. Magnien / 20 minutes)

Et pendant ce temps là, le Préfet Cadot, à l’origine de ce coup de pied rageur dans la fourmilière, poursuivait sa carrière comme Préfet de Police de Paris. Le 17 avril 2017, il chute malencontreusement de son Vélib et se déboîte la hanche, au point de demander à être remplacé à son poste par son collègue Michel Delpuech qui venait pourtant tout juste d’être nommé Préfet de Région Ile de France en remplacement de Jean-François Carenco. Et c’est donc finalement Michel Cadot lui-même qui est nommé le 14 juin 2017 à ce poste de Préfet de Paris, Préfet de Région, et qui se retrouve illico confronté aux nouvelles frasques de Véolia, cette fois dans le cadre d’un contrat lié à l’exploitation de la station d’épuration de Valenton pour le compte du SIAAP, le Syndicat interdépartemental pour l’assainissement de l’agglomération parisienne, qui gère les eaux usées de près de 9 millions de Franciliens.

En l’occurrence, le contrat d’exploitation de cette immense station d’épuration représente 397 millions d’euros sur 12 ans et, curieusement, le marché a été remporté par Véolia face à son éternel concurrent Suez, alors que son offre était pourtant plus chère (de 37 millions quand même !).

Vue de l’usine du SIAAP à Valenton (crédit photo © Emmanuel Riche / ODYSEE pour le SIAAP)

Cette fois, c’est le Tribunal administratif qui a été saisi de l’affaire, avec du coup une réaction beaucoup plus rapide que dans l’affaire marseillaise. Une première ordonnance a été rendue le 15 novembre 2017 par le Tribunal administratif qui met bien en évidence des éléments constitutifs d’un délit de favoritisme dans l’attribution de ce marché dont l’application a donc été suspendue par les juges à compter du 28 novembre, le temps pour le SIAAP de remédier aux irrégularités constatées.

Mais le Préfet Cadot n’a pas accepté d’en rester là et a fait appel, afin d’obtenir l’annulation du contrat et permettre de relancer l’appel d’offre sur des bases plus saines. En l’occurrence, la stratégie du Préfet est plus globale et vise la reconfiguration complète de la gouvernance territoriale du Grand Paris, encore en plein chantier. Il n’en demeure pas moins que ses attaques insistantes contre les bonnes vieilles habitudes de Véolia et sa proximité avec certains élus locaux ne doivent pas manquer d’en agacer certains…

L.V.  

Changement climatique : pourquoi personne ne bouge ?

22 février 2018

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

La conférence sur les mondes lointains se rapproche…

19 février 2018

Vous qui avez toujours voulu tout savoir sur les mystères de l’univers et la découverte des mondes lointains grâce aux télescopes géants, ne manquez pas la prochaine conférence du Cercle progressiste carnussien, déjà annoncée ici et qui se tiendra cette semaine à Carnoux-en-Provence, jeudi 22 février 2018 à partir de 18h30, dans la salle du Clos Blancheton, rue Tony Garnier.

C’est Jean-Gabriel Cuby, astronome au Laboratoire d’astrophysique de Marseille et spécialiste de l’observation spatiale à l’aide des télescopes géants, qui animera cet échange et qui retracera l’histoire de l’observation de l’Univers ainsi que celle des recherches les plus récentes dont la construction en cours du télescope européen le plus grand du monde, dans le désert d’Atacama au Chili.

Ne manquez pas ce petit moment d’évasion vers les univers lointains qui nous entourent. Comme à l’accoutumée, l’accès à cette conférence est libre et gratuit, dans la limite des places disponibles, et les échanges avec le conférencier seront suivis d’un apéritif convivial.

Sainte-Baume : le PNR nouveau est né !

17 février 2018

Rencontre le 21 décembre 2017 entre le premier ministre Edouard Philippe et le président du PNR Sainte-Baume en présence du président de la Région PACA, Renaud Muselier (source © PNR Sainte-Baume)

Ce n’est pas vraiment une surprise mais plutôt l’aboutissement d’un long et patient processus d’élaboration concertée qui a permis d’aboutir, le 20 décembre 2017 à la naissance officielle, via un décret signé par le premier ministre Edouard Philippe, du parc naturel régional (PNR) de la Sainte-Baume, le 52ème parc ainsi créé en France. Cinquante ans après la création du concept de « parc naturel régional » en 1967 par le Général de Gaulle, ces 52 PNR couvrent désormais 15 % du territoire national et 6 % de la population française y habite.

En effet, contrairement aux parc nationaux qui existent en France depuis 1963 mais qui ont plutôt vocation à protéger des espaces naturels peu habités, les PNR ont été créés sous l’impulsion de la DATAR dans une perspective d’aménagement d’espaces ruraux dans des secteurs qui présentent non seulement un patrimoine environnemental remarquable mais aussi un patrimoine culturel voire un cadre de vie et d’activités qu’il importe de préserver en vue de favoriser le développement économique et touristique local.

La région PACA possède désormais 8 parc naturels régionaux dont le plus emblématique est sans doute celui de Camargue, mais parmi lesquels on peut citer aussi ceux du Queyras, du Luberon, du Verdon ou encore des Alpilles. Autant de lieux d’une grande richesse écologique et qui présentent des paysages hors du commun, mais qui sont avant tout des espaces de vie structurés autour d’une charte qui traduit un véritable projet de développement territorial.

Pour ce qui concerne le PNR de la Sainte-Baume, le projet était en gestation depuis une dizaine d’années, même si certains pionniers en soutenaient l’idée depuis les années 1970, et a fait l’objet ces derniers temps d’une intense concertation entre les collectivités locales, les services de l’État, les partenaires associatifs et les acteurs économiques. Présidé par Michel Gros, par ailleurs maire de La Roquebrussane, le nouveau PNR couvre une superficie de 810 km² et s’étend sur le territoire de 26 communes du Var et des Bouches-du-Rhône. 80 % de ce territoire est constitué d’espaces naturels mais 58 500 habitants y vivent, avec des activités économiques variées.

Limites du périmètre du PNR Sainte-Baume

Le parc est situé aux portes de Carnoux puisque la commune tout proche de Cuges-les-Pins est entièrement située dans le périmètre du nouveau PNR qui s’étend au nord jusqu’à Saint-Maximin et à l’est jusqu’à Brignoles. L’inauguration du nouveau parc n’est pas encore fixée mais devrait avoir lieu au cours du premier trimestre 2018.

En attendant, le syndicat mixte du PNR anime déjà depuis un an les deux sites Natura 2000 partiellement juxtaposés au cœur du parc : Massif de la Sainte-Baume (zone spéciale de conservation, définie au titre de la directive européenne Habitats) et Sainte-Baume occidentale (zone de protection spéciale, définie au titre de la directive européenne Oiseaux). Des inventaires biologiques et une étude socio-économique ont déjà été conduits en 2017 dans ce cadre, en vue de définir les enjeux et les objectifs de conservation. Une fois ce diagnostic posé, un programme d’action sera élaboré d’ici 2019, afin de définir les axes d’intervention pour préserver ce patrimoine naturel remarquable qui contient notamment la fameuse hêtraie historique de la Sainte-Baume ainsi que des sources pétrifiantes spectaculaires dans des formations de travertins, et qui abrite de nombreuses espèces animales et végétales rares.

Entablements de travertins à la source de l’Huveaune (source © Les balades de Gecko)

Le processus de concertation engagé depuis des années avec de nombreux acteurs du territoire en vue de l’émergence de ce nouveau PNR est détaillé sur le site du nouveau syndicat mixte. On y retrouve, outre de nombreux éléments de présentation du projet, dont un film grand public qui met en avant les atouts et caractéristiques de ce territoire, un rappel de la genèse de cette aventure qui s’est concrétisée en 2012 par la création d’un syndicat de préfiguration du futur PNR. L’année suivante a été mis sur pied un Conseil de développement, rassemblant de nombreux acteurs locaux fédérés autour du projet, et a été lancée la concertation en vue d’élaborer un diagnostic partagé et de dessiner les grandes lignes de la future charte du parc.

Un document de synthèse qui présente les grandes lignes de la charte

Il a fallu ensuite attendre 2015 pour que soit finalisée cette charte destinée à fixer pour les 15 ans à venir les grandes orientation du nouveau PNR. L’année 2016 a été mise à profit pour lancer la consultation auprès du Conseil national de protection de la nature et auprès des habitants (enquête publique), ainsi que pour permettre aux collectivités concernées de délibérer pour exprimer leur volonté d’adhésion. Et c’est donc en 2017 seulement que le syndicat mixte de préfiguration s’est transformé en syndicat mixte du parc tandis que le décret ministériel de labellisation du nouveau PNR était signé officiellement le 20 décembre dernier.

C’est donc à l’issue d’un long processus de co-construction que voit le jour cette nouvelle structure qui est désormais destinée à protéger et valoriser le patrimoine naturel, culturel et humain de ce vaste espace remarquable, via la mise en œuvre d’une politique cohérente d’aménagement et de développement économique, social et culturel, respectueuse de l’environnement.

La grotte de Ste Marie Madeleine à Plans d’Aups, un des sites emblématique du nouveau PNR (source © Provence verte)

Tout un programme qui va demander beaucoup de diplomatie et de pédagogie pour arriver à concilier les impératifs de préservation d’un écosystème fragile avec les ambitions légitimes des acteurs locaux en matière de développement économique et touristique, où comment marier en bonne intelligence les exploitations de carrières avec la préservation durable des ressources en eau du massif, les nuisances sonores du circuit automobile du Castellet avec le maintien d’une faune d’aigles de Bonelli et de chauve-souris endémiques, l’afflux de touristes avec les nécessités de recueillement autour de la grotte de Sainte Marie-Madeleine, les soucis de préservation du paysage avec le souhait de développer des sites de production d’électricité par centrales photovoltaïques, ou encore l’extension de la viticulture avec le développement d’une agriculture biologique adepte des circuits courts ?

Autant de défis passionnants auxquels le nouveau PNR de la Sainte-Baume va se trouver confronté au jour le jour et qui donnent un aperçu des difficultés de la tâche qui l’attend !

L.V.  

Des villes menacées par la pénurie d’eau ?

15 février 2018

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Alimentation : les consommateurs passent à l’action !

12 février 2018

Dessin signé JM

En France, un tiers des adultes sont en surpoids et 7 millions de Français sont considérés comme obèses, ce qui représente quand même 15 % de la population. Et le phénomène n’arrête pas de s’aggraver : en 1965, seuls 3 % des enfants d’âge scolaire étaient obèses alors que cette proportion atteignait 13,3 % en 2000 et ne cesse de croître depuis. Une situation d’autant plus inquiétante que l’obésité acquise avant l’âge de 5 ans persiste ensuite à l’âge adulte. On reste certes loin des chiffres de nos amis canadiens où 26 % des enfants sont considérés en surpoids tandis que 36 % des adultes présentent de l’embonpoint et 25 % sont classés obèses. Reconnue comme maladie chronique depuis 1997 par l’OMS, l’obésité est devenue un problème majeur de santé publique.

Pourtant, en matière nutritionnelle, les principes à respecter sont simples et identifiés depuis bien longtemps. Sur le plan quantitatif, il s’agit de fournir à son corps de quoi équilibrer les dépenses énergétiques qui dépendent de différents facteurs dont l’activité physique, mais qui correspondent grosso modo à 2500 Cal/jour pour un homme et autour de 2000 pour une femme. Et sur le plan qualitatif, il est bien connu qu’il convient d’éviter de grignoter entre les repas et qu’il vaut mieux privilégier la consommation de fruits et légumes et limiter les apports en lipides, sel et sucres. Des règles de base que l’école comme les messages de santé publique n’arrêtent pas de rabâcher.

Composition des plats préparés : des listes de composants à rallonge… (source © Bien-être et fitness)

Seulement voilà : autant il est facile de faire des choix alimentaires sains lorsque l’on achète des produits bruts pour les cuisiner soi-même, autant la tendance est désormais de consommer pour l’essentiel (à 70 % dans un pays comme la France) des produits transformés, issus de l’industrie agro-alimentaire, et préparés principalement à base d’ingrédients peu coûteux et présentant des caractéristiques nutritionnelles déplorables : riches en calories, en graisses, en sucres et en sel, mais pauvres en fibres, en vitamines et en sels minéraux…

Le professeur Serge Hercberg (source © Observatoire des aliments)

Pour faire face à ce véritable fléau de santé publique et guider les consommateurs dans leurs achats, l’épidémiologiste Serge Hercberg, expert en nutrition à l’INSERM et président du Plan national nutrition santé, lancé en 2006, préconise depuis 2014 d’adopter un code couleur ultra simple permettant de classer de A (produit le plus favorable sur le plan nutritionnel) à E des aliments transformés, en se basant sur l’analyse de la composition de 100 g du produit, analyse qui prend en compte d’une part les nutriments jugés favorables (fibres, protéines, fruits et légumes) et d’autre part ceux à limiter (acides gras saturés, éléments caloriques, sucres, sel).

Ce code couleur ultra simple et très pédagogique pour les consommateurs, dénommé Nutri-Score, permet de comparer d’un seul coup d’œil dans les rayons du supermarché, la pizza surgelée ou le paquet de céréales qui présente la meilleure qualité nutritionnelle.

Une véritable hérésie pour les entreprises de l’agro-alimentaire et la grande distribution qui se battent bec et ongles depuis des années pour empêcher l’adoption d’un tel dispositif. Il faut lire les discours du président de l’ANIA, l’Association nationale des industries agro-alimentaires, pour voir avec quelle mauvaise foi les industriels du secteur s’acharnent à démonter une telle approche de santé publique afin de préserver leurs intérêts : « l’ANIA maintient son opposition à tout dispositif d’étiquetage nutritionnel simpliste reposant uniquement sur un code de couleurs et une approche médicalisée et théorique de l’alimentation. L’équilibre alimentaire d’un individu ne peut pas se réduire à une pastille de couleur sur un produit. Ces systèmes de notation nutritionnelle stigmatisent injustement les aliments car ils reposent sur des calculs théoriques prenant en compte 100 g de produit sans en distinguer la consommation réelle  par les consommateurs. »

Dessin signé Esclandre, publié dans Le querelleur

Comme toujours en la matière, les patrons du secteur préfèrent mettre en avant des démarches volontaristes basées sur la communication. Comparer la valeur nutritionnelle de deux produits en analysant la composition d’une même masse de référence de 100 g est une catastrophe à leurs yeux car le résultat est évidemment incontestable et pas forcément à leur avantage. En revanche, laisser libre cours à l’imagination de leurs équipes d’experts en marketing pour démontrer que, ramené à une « portion », leur produit est parfaitement adapté aux besoins du consommateur, voilà qui leur plaît davantage car laissant la porte ouverte à toutes les interprétations…

Histoire de gagner du temps en espérant que la pression retombe, les industriels ont donc réussi à bloquer le dispositif en 2015 et imposé aux pouvoirs publics une expérimentation en vraie grandeur et en conditions réelles d’achat, dans une soixantaine de points de vente répartis dans 4 régions. Cette expérimentation, qui s’est déroulé au dernier trimestre 2016, a porté sur 1200 produits référencés et a mis en concurrence 4 dispositifs différents d’affichage, dont deux très synthétiques basés sur un code à 4 (Sens) ou 5 couleurs (Nutri-Score) et deux autres plus analytiques et plus complexes, ayant la préférence des industriels et de la grande distribution car incompréhensibles pour le commun des mortels !

Les codes couleurs expérimentés fin 2016 (source Isa-conso)

Cette expérimentation s’est bien entendu accompagnée d’une vaste campagne d’information menée dans les magasins concernés, mais surtout d’analyses en continu à base d’enquêtes qualitatives et quantitatives conduites auprès des consommateurs et complétées par des études précises pour évaluer l’évolution des ventes, produit par produit. Ces résultats particulièrement riches ont permis à l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) de proposer finalement au ministère de la Santé d’adopter le système Nutri-Score, ainsi que l’a annoncé la ministre Marisol Touraine en mars 2017, en précisant que l’avantage de ce dispositif très simple « est plus marqué encore lorsqu’on observe spécifiquement le comportement des consommateurs qui achètent les produits les moins chers », justement le cœur de cible dans la lutte contre le surpoids.

Dessin de Xavier Delucq publié dans le Huffington Post

Comme il fallait s’y attendre, les industriels, par la voix de l’ANIA, comme la grande distribution via celle de la FCD (Fédération du commerce et de la distribution) ont aussitôt crié au scandale, prétextant que l’analyse de cette expérimentation aurait sans doute mérité d’être poursuivie plus longtemps, avec d’autant plus de conviction que la loi ne rend pas obligatoire l’apposition du nouveau logo sur les produits car la législation européenne ne le permet pas

Certes, en mai 2017, quelques mastodontes du secteur dont les firmes Auchan, Fleury-Michon, Intermarché et Leclerc, suivies par Danone et Mac Cain, se sont finalement engagées à jouer le jeu, même si jusqu’à présent le consommateur lambda n’en a encore guère vu les effets. Mais les 6 géants du secteur agro-alimentaire, à savoir Coca-Cola, Nestlé, Mars, Mondelez (ex Kraft food), Unilever et Pepsi-Co, ont décidé de concocter leur propre logo, histoire de bien embrouiller le chaland !

Mais les consommateurs ont de la ressource et il convient de saluer une initiative citoyenne qui vient d’émerger sous le nom d’Open Food Facts, et qui constitue une base de données ouverte et collaborative sur les produits alimentaires « faite par tout le monde, pour tout le monde ».

Exemple d’analyse nutritionnelle de yaourts brassés aux fruits, emballés à Aubagne (source © Open Food Facts)

Sur le même principe que Wikipédia, chaque consommateur peut y contribuer en aidant à répertorier la composition de produits alimentaires. Aidé de son smartphone, chacun est ainsi invité à photographier la liste des ingrédients et les informations nutritionnelles figurant sur les étiquettes des produits, afin de rendre les données facilement accessibles et aisément comparables. Plus de 420 000 produits auraient ainsi déjà été rendus transparents dans le monde : un vrai cauchemar pour l’industrie agro-alimentaire !

Comme l’explique Stéphane Gigandet, ex employé de Yahoo à l’origine de ce projet : « Tout est fait pour que l’on ne sache pas exactement ce que l’on mange, le type d’additifs, la quantité de sel, de graisses saturées, de sucres, ce qui se cache derrière un additif, l’origine du produit et son lieu de transformation. Notre but est de rendre les étiquettes intelligibles, pour que le consommateur reprenne le contrôle de son assiette ».

Pas sûr que cette initiative soit vraiment du goût des industriels de la malbouffe…

L.V.  

Une cartographie mondiale des rivières et plans d’eau

10 février 2018

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Lustucru ou l’histoire de la halle voyageuse…

7 février 2018

A Arles, voilà que la friche Lustucru fait de nouveau parler d’elle, et c’est l’occasion de retracer l’histoire peu banale d’une gigantesque structure métallique construite en 1906 par un proche de Jean Eiffel et qui a beaucoup voyagé depuis…

Carte postale de l’exposition coloniale de 1906 à Marseille (source © Iris blog)

En 1906 donc, se tient à Marseille la troisième Exposition coloniale, après celles organisées en 1896 à Rouen et en 1989 à Rochefort. L’idée vient du docteur Heckel, fondateur de l’école de médecine du Pharo, spécialisée dans l’épidémiologie et les pathologies tropicales. Le maire de Marseille, un certain Jean-Baptiste-Amable Chanot, fait voter un budget d’un million de francs et le projet est entériné par un décret présidentiel signé en 1904.

L’exposition se tiendra sur un terrain de près de 40 ha situé entre le boulevard Rabatau, le rond-point du Prado et le boulevard Michelet, utilisé jusque là par l’armée comme champ de manœuvre, et qui deviendra le futur parc Chanot. Une cinquantaine de pavillons, tous plus exotiques les uns que les autres sont construits autour d’une grande allée centrale, tous destinés à être détruits à l’issue de l’exposition, laquelle fut un beau succès avec 1,8 millions de visiteurs entre avril et novembre 1906. Le Président de la République en personne, Armand Fallières, viendra visiter l’exposition avant de poser la première pierre du futur Canal du Rove. De nombreuses personnalités dont Frédéric Mistral, Auguste Rodin ou Jean-Baptiste Charcot ainsi que le général Lyautey, s’y rendent également.

Au centre du parc, à l’extrémité de l’allée centrale, se trouve le grand palais où sont présentées les diverses activités de la métropole et surtout de Marseille ; huilerie et savonnerie, tannerie, raffinage du soufre et du sucre, métallurgie du plomb, chantier naval, etc. Cet immense édifice, dessinée par Edouard Allar, jeune ingénieur de l’Ecole Centrale et ancien adjoint de Gustave Eiffel, a été construit par la Société de construction de Levallois-Perret (ex Compagnie des établissements Eiffel).

Carte postale de l’exposition coloniale de 1906 à Marseille avec une vue du Grand Palais

De forme rectangulaire, la halle mesure 99 m de long pour 44,5 m de largeur et près de 20 m de hauteur intérieure. Elle est constituée d’une nef centrale prolongée de quatre bas-côtés et possédait à l’origine une galerie desservie par deux escaliers intérieurs. Construite à Levallois-Perret et assemblée à Marseille, la structure métallique y sera à maintes reprises rhabillée pour abriter diverses manifestations jusqu’en 1939. Réquisitionnée ensuite successivement par les armées française, puis allemande et finalement américaine, la grande halle peut s’enorgueillir d’avoir connu de près les vicissitudes de l’Histoire…

Elle finit par être démontée et en 1951, elle est transportée à Arles où elle est remontée, sans sa galerie, pour servir de hangar agricole pour les usines de conditionnement de riz Lustucru qui s’établissent dans la plaine de Montmajour, à l’entrée nord de la ville. 

L’ex usine Lustucru est devenu un terrain de jeu pour graphistes (photo © Amélie / Ad-Urbex)

En 2003, la crue du Rhône dévaste totalement les usines Lustucru, rachetées entre temps par le groupe Panzani. Devant l’ampleur des dégâts, Panzani annonce le 26 mars 2004 la fermeture définitive du site. Malgré une très forte mobilisation des salariés qui occupent les locaux et malgré l’appui du préfet Christian Frémont qui va jusqu’à déclarer en septembre 2004 que « tout ceci est immoral », il faut se rendre à l’évidence et le site est définitivement abandonné en 2005, pour devenir le paradis des taggeurs et autres graphistes qui s’en donnent à cœur joie.

En octobre 2016, la ville d’Arles, qui avait racheté les 7,3 ha de la friche industrielle pour 1 € symbolique, accepte finalement de la céder au groupe Frey, un promoteur champenois qui projette d’y créer un centre commercial de plein air regroupant 13 moyennes surfaces et autant de boutiques dans le domaine de l’équipement de la personne et de la maison. Évalué à 1,8 millions d’euros par France Domaine, le tout est cédé à moitié prix au vu des frais particulièrement élevés envisagés pour démolir les bâtiments après les avoir désamiantés, et dépolluer le sol.

Etat actuel de la halle (photo © Jonathan Dahan / Le Moniteur)

Mais des défenseurs du patrimoine s’émeuvent de voir ainsi disparaître l’ancienne halle métallique, qualifiée de « cathédrale d’acier » et qui avait été labellisée en 2012 par l’État « Patrimoine du XX° siècle ». Une pétition recueille 3 000 signatures et est adressée à la ministre de la culture, l’Arlésienne Françoise Nyssen.

Vue aérienne du chantier de la digue des papeteries Etienne (source © SYMADREM)

A l’issue de moult tractations, une solution vient semble-t-il d’être trouvée, le 9 janvier 2018, à l’issue d’une réunion qui s’est tenue en sous-préfecture d’Arles en présence de tous les acteurs du dossier et au terme de laquelle, le groupe Frey a accepté de procéder à un nouveau démontage de la halle pour la déplacer une fois de plus. Le prochain point de chute de cette structure métallique qui aura finalement beaucoup voyagé, sera le site des Papeteries Etienne, une autre friche industrielle située à l’ouest d’Arles, en rive droite du Rhône, rachetée par l’Établissement public foncier régional, et que la Communauté d’agglomération Arles-Crau-Camargue-Montagnette projette de transformer en un nouveau pôle économique dédié à l’économie créative et aux industries culturelles et du patrimoine.

Sauf que pour l’instant ce site, lui-même en zone inondable, attend d’être requalifié en fonction du niveau de protection des digues qu’il est prévu de renforcer. Un laps de temps qui pourra donc être mis à profit pour lancer une consultation citoyenne et réfléchir aux contour du futur projet et au devenir de la fameuse structure métallique si souvent démontée et remontée. A moins qu’elle ne finisse par revenir à son point de départ, le parc Chanot, comme le suggère Christian Mourisard, adjoint au maire d’Arles, délégué au patrimoine et au tourisme. Au point où on en est, la « cathédrale d’acier » à monter en kit n’en est plus à un déplacement près…

L.V.  

Jura : la consigne remise au goût du jour

5 février 2018

Consigner les bouteilles en verre : voilà une pratique autrefois très courante et qui a quasiment disparu de notre environnement quotidien. Dans les années 1960, le geste était pourtant des plus banal, qui consistait à rapporter à son épicier où dans les grandes surfaces alors en plein expansion ses bouteilles vides de lait, de vin ou de bière, et ceci en échange de quelques pièces de monnaie ou d’un bon d’achat de valeur modique.

La pratique ne date d’ailleurs pas d’hier puisqu’elle aurait été initiée, dit-on, en 1799 à Dublin par un vendeur d’eau minérale gazeuse, imité dès 1800 par la marque Schweppes. En 1884, la Suède a généralisé le dispositif à grande échelle, allant jusqu’à imposer une standardisation des bouteilles pour en faciliter le recyclage.

Stockage de verre brisé issu du recyclage (source © Verre avenir)

Car le dispositif de la consigne ne présente que des avantages, tant écologiques qu’économiques. Une bouteille consignée (conçue spécifiquement à cet effet pour être plus résistante) peut être réutilisée une cinquantaine de fois moyennant un simple lavage. Ce qui permet d’économiser, selon une étude menée en Alsace et reprise par la fondation Nicolas Hulot, jusqu’à 75 % d’énergie et 33 % d’eau par rapport au recyclage classique qui nécessite de broyer les bouteilles, de débarraser le verre de ses impuretés puis de le fondre dans un four à 1 500 °C afin de fabriquer de nouveaux flacons…

Et pourtant, la France a presque complètement abandonné cette démarche dans les années 1980, alors que la filière des bouteilles en verre se trouvait fortement déstabilisée du fait du développement massif des emballages jetables en plastique. En 1992, lorsqu’a été créé en France le principe de « la responsabilité élargie du producteur », l’objectif prioritaire des industriels était d’éviter qu’on lui impose un système de consigne et ceci pour des raisons purement commerciales. La directive européenne adoptée en 1994 rend en effet désormais obligatoire la reprise ou la collecte des emballages ménagers en vue de leur réutilisation ou leur recyclage.

Récolte sélective du verre : ça déborde parfois… (source © Ouest-France)

La dispositif français oblige quant à lui les entreprises produisant ce qui deviendra des déchets, de verser une contribution financière à des organismes chargés d’organiser les filières de collecte et de traitement de ces déchets, en l’occurrence l’Adelphe, créée en 1993 à l’initiative des opérateurs industriels du secteur des vins et spiritueux. Or le verre pèse pour près de la moitié dans les déchets ménagers des Français, avec environ 2,3 millions de tonnes collectées chaque année par les collectivités. Et les sommes versées par les industriels pour la collecte et le traitement de ces déchets, de l’ordre de 60 millions d’euros par an, ne couvrent qu’une partie du coût, le reste étant pris en charge par les collectivités locales et payé par le contribuable via la taxe d’enlèvement des ordures ménagères.

Automate pour la collecte des bouteilles consignées en Allemagne

Un modèle imposé par les industriels donc, mais qui coûte cher au consommateur comme au contribuable et dont le bilan énergétique est déplorable ! Mais un modèle qui pourrait facilement être changé, à l’exemple de nombreux pays européens dont l’Allemagne où près des trois quarts des bouteilles sont consignées. Il est d’ailleurs cocasse de constater que Verallia, ancienne filiale conditionnement en verre de Saint-Gobain, produit justement des bouteilles consignées destinées au marché allemand

En France, la pratique de la consigne n’a cependant pas totalement disparu puisqu’elle est toujours pratiquée dans les hôtels, cafés et restaurants, ce qui permet ainsi de réutiliser directement environ 500 000 tonnes de verre par an, ce qui représente pas loin d’un milliard de bouteilles, sachant qu’on en produit chaque année de l’ordre de 3,4 milliards…

Et l’Alsace, peut-être en raison de sa proximité culturelle et géographique avec l’Allemagne, n’a jamais abandonné non plus le principe de la consigne, au point de faire des émules puisque l’on assiste depuis quelques années à l’émergence d’un mouvement de réutilisation des bouteilles dans le Jura.

L’initiative date de 2015 et est à porter au crédit de Clus’Ter Jura, une société coopérative d’intérêt collectif, elle-même issue de Juratri, une entreprise d’insertion créée en 1993 à Lons-le-Saunier et spécialisée dans le tri sélectif des déchets. Lauréate de l’appel à projet « Territoire zéro gaspillage, zéro déchet » organisé depuis 2014 par le ministère de l’environnement, l’initiative sobrement intitulée « J’aime mes bouteilles » commence à faire parler d’elle dans les médias.

Aude Weiss, responsable de la filière J’aime mes bouteilles (photo © Laëtitia Achilli)

Une animatrice, Aude Weiss, a été recrutée en septembre dernier pour piloter le projet qui consiste à collecter les bouteilles de vin issus de la production locale et qui sont consommés à 60 % dans le Jura, ce qui rend d’autant plus aisée et rentable leur réutilisation. Depuis un an, ce sont ainsi déjà plus de 50 000 bouteilles de vin qui ont été récupérées dans 25 points de collecte (Biocoop, cavistes, épiceries, etc.) où les clients les rapportent (gratuitement pour l’instant). La structure revend ensuite ces bouteilles aux viticulteurs, au prix de 18 à 20 centimes la bouteille, contre 24 à 27 centimes pour une neuve, ce qui leur permet de les réutiliser moyennant une économie substantielle supérieure à 20 %.

Dispositif de collecte des bouteilles mis en place dans le Jura par J’aime mes bouteilles

Le mouvement ainsi initié est en plein essor et espère augmenter significativement son impact en visant la collecte de 500 000 bouteilles d’ici 2020, avec une extension à d’autres productions locales telles que la bière et les jus de fruits. La mise en place d’une gratification pour inciter davantage les consommateurs à rapporter leurs bouteilles vides est aussi envisagée, comme en Allemagne où les bouteilles sont vendues un peu plus chères, mais où l’acompte est ensuite redonné aux consommateurs qui rapportent les bouteilles : 8 centimes pour une canette de bière, 15 pour une bouteille en plastique recyclable et 25 centimes pour les contenants non recyclables – sous forme de bons en magasin ou via des automates collecteurs.

Non seulement cette pratique est vertueuse sur le plan environnemental en contribuant à diminuer les volumes de déchets, mais de surcroît elle offre aux plus démunis la possibilité d’arrondir leurs fins de mois en ramassant les bouteilles et canettes vides laissées à l’abandon. Comme quoi, bénéfices économiques, sociaux et environnementaux arrivent parfois à se rejoindre !

L.V.  

Inondations : on a trouvé les coupables !

3 février 2018

Une nouvelle fois, la France vient de connaître une vague d’inondations spectaculaires. A Paris, le niveau de la Seine est monté la semaine dernière à 5,85 m et aurait selon toute vraisemblance dépassé les 6,40 m sans l’action des quatre lacs-réservoirs situés en amont du Bassin parisien. A un tel niveau, certes très inférieur à celui observé en janvier 1910, mais qui n’avait pas été atteint depuis 1955, les dégâts sur les réseaux et infrastructures auraient pu être considérables, en particulier sur le réseau de transports et notamment le RER C qui commence à être sérieusement menacé au-delà de 6,20 m.

Les bords de Seine à Paris le 22 janvier 2018 (photo © Stéphane de Sakutin / AFP)

Et comme toujours dans ces cas-là, on cherche les coupables… Ainsi que lors de chaque épisode de ce type, les rumeurs les plus absurdes courent, alimentées par la certitude, aussi irrationnelle que récurrente, selon laquelle : « ils nous ont inondés pour protéger Paris » (ou tout autre ville d’ailleurs, selon l’endroit où l’on se place…). Il est toujours difficile d’admettre que l’on a été inondé parce qu’il a beaucoup plu et que l’on est situé en zone inondable, dans le lit majeur d’un cours d’eau…

Et ceci malgré tous les dispositifs de protection contre les inondations qui ont pu être mis en place et qui ont souvent joué un rôle atténuateur très bénéfique comme cela a été le cas en janvier 2018 avec les lacs-réservoirs qui ont dérivé et stocké en amont du bassin versant des centaines de millions de mètres cube d’eau, réduisant d’autant les débits en aval.

Alors, puisque l’on a vraiment besoin de trouver un bouc émissaire, ne cherchez-plus. L’explication à ces inondations, exceptionnelles par leur ampleur et leur durée, est parfaitement claire sur la photo suivante, prise le 31 janvier 2018 sur la commune de Montesson, dans les Yvelines, et garantie sans trucage : c’est simplement un étourdi qui a oublié de fermer le robinet…

A Montesson, le 31 janvier 2018 (photo © Frédéric Gache / EPTB Seine Grands Lacs)

Et pour les Parisiens qui ont une dent contre la politique menée depuis des années par la Ville de Paris en faveur de la réduction de la voiture en ville et de la réappropriation des voies sur berges par les piétons, voici une seconde explication, tout aussi recevable…

Dessin de Lacombe publié dans Marianne le 2 février 2018

Lorsque les forces de la nature dépassent l’entendement, il est toujours rassurant de se raccrocher à des explications simples et pleines de bon sens !

L.V.  

Marseille envisage le recours à la délation massive…

1 février 2018

A Marseille, on savait déjà grâce aux travaux du sociologue Laurent Mucchielli, que les caméras de vidéosurveillance servaient principalement non pas à élucider les délits de voie publique mais à verbaliser les automobilistes mal garés. Il en est d’ailleurs de même à Carnoux, depuis l’an dernier. Et voilà qu’un article très documenté paru dans la Provence du 24 janvier 2018 vient encore noircir le tableau et brouiller les pistes.

Extrait de l’article publié par La Provence, le 24 janvier 2018

Intitulé sobrement « Big Brother : un ami qui vous veut du bien », l’article décortique la politique de surenchère frénétique et de course à la technologie qui s’est emparée des édiles marseillais cherchant à tout prix à rassurer leur électorat par le déploiement à grande échelle de gadgets aussi coûteux qu’inutiles, et envisageant sérieusement d’encourager des pratiques de délation massive qui commencent à faire froid dans le dos…

Caroline Pozmentier, adjointe au maire de Marseille, déléguée à la sécurité publique

On y apprend ainsi que Caroline Pozmentier, l’adjointe au maire de Marseille en charge de la sécurité publique et de la prévention de la délinquance, attend avec impatience les résultats de l’expérimentation de la ville de Nice sur le dispositif Reporty avant d’envisager sa mise en œuvre dans la cité phocéenne. Développé en Israël, où la politique ultra-sécuritaire que mène depuis des années ce pays en guerre civile larvée fait fantasmer tous nos élus locaux de droite, ce système consiste en une application installée sur le smartphone de tout un chacun et qui permet à un citoyen lambda de dénoncer en direct toute incivilité, crime ou délit dont il serait témoin, en se contentant de filmer la scène.

Certains craignent que cela ne vienne encourager le développement d’un climat de délation générale, peu propice à renforcer le tissu social et de nature à déborder la police municipale sous un amas de plaintes futiles et relevant surtout de la jalousie de voisinage. Mais Caroline Pozmentier ne voit pas où est le risque, affirmant sans sourciller : « vous savez, la délation elle existe déjà : le maire reçoit chaque jour des dizaines de lettres anonymes dénonçant tel ou tel… Tout ça, c’est une question de culture que nous devons mettre en place peu à peu ». A croire que l’élue LR regrette le bon temps de la Collaboration où chacun n’hésitait pas à dénoncer allègrement son voisin… D’autant que l’outil qui permet de dénoncer des incivilités existe déjà, via Allo mairie, et que téléphoner au numéro d’urgence nationale (17), lorsqu’on est témoin d’un fait grave, relève déjà de l’obligation citoyenne.

Laurent Mucchielli, cité par La Provence dans son article du 24 janvier 2018

Mais on sent derrière cette stratégie, comme l’analyse Laurent Mucchielli dans le reportage de La Provence, une volonté politique de la municipalité marseillaise de s’approprier la sécurité au détriment des forces de l’ordre nationale. Avec plus de 400 policiers municipaux armés et 600 prévus d’ici 2020, la ville de Marseille bénéficie d’ores et déjà des forces de police municipale les plus importantes de France, talonnée il est vrai par la ville de Nice qui sert d’aiguillon.

Une ville de Nice qui a donc lancé l’expérimentation du dispositif Reporty et où le maire, Christian Estrosi, se dit persuadé que seul un dispositif de vidéosurveillance peut assurer la sécurité de ses concitoyens, lui qui n’hésitait pas à persifler au lendemain de l’attentat contre Charlie Hebdo (et avant celui du 14 juillet 2016 qui avait ensanglanté la Promenade des Anglais) : « Avec 999 caméras et une caméra pour 343 habitants, je suis à peu près convaincu que si Paris avait été équipé du même réseau que le nôtre, les frères Kouachi n’auraient pas passé 3 carrefours sans être netralisés et arrêtés ».

Reporty, une application en test à Nice (source : numerama.com)

La suite des événements lui a clairement prouvé qu’il avait tort mais cela ne l’empêche pas de persévérer et de faire des émules, non seulement à Marseille mais même dans des petites communes comme Sisteron où le maire LR compte installer en 2018 pas moins de 81 caméras pour 8 000 habitants, un des taux les plus élevés de France, ou encore à Châteaurenard où les 15 000 habitants disposent déjà d’une caméra pour 110 habitants.

Centre de supervision urbaine de Marseille (photo © Anne-Christine Poujoulat / AFP.com)

Et Marseille bien entendu ne compte pas être en reste puisque l’objectif est d’y installer 2 000 caméras d’ici 2020, ce qui revient quasiment à doubler le parc déjà déployé depuis 2012, mais qui jusqu’à présent est surtout disposé le long des grands axes routiers (principalement pour surveiller les infractions au code de la route) et dans les noyaux villageois, mais évite soigneusement les cités chaudes où se concentre la délinquance. A raison de coûts d’installation estimés entre 1 500 et 7 000 euros pour chaque caméra, sans compter les frais de fonctionnement liés à la maintenance du matériel et à l’exploitation des images enregistrées, on voit bien que cette politique municipale va coûter cher au contribuable marseillais.

Renaud Muselier, Président du Conseil régional PACA et roi de la surenchère sécuritaire…

Et ce n’est sans doute qu’un début puisque, dans un souci évident de surenchère, chacun y va de sa proposition. C’est ainsi que le Président du Conseil régional, Renaud Muselier, souhaite désormais installer des portiques de reconnaissance faciale devant chaque lycée, tandis que sa vice-présidente rêve de développer « la Big data de la tranquillité publique » pour faire de Marseille une « safe city », en provençal dans le texte. Autrement dit, il s’agit de croiser tous les fichiers de données numériques pour mieux les exploiter, une gageure quand on sait comment fonctionnent les services qui les gèrent, et un véritable cauchemar pour la Commission nationale de l’informatique et des libertés, la CNIL, qui croule sous les demandes et ne sait plus où donner de la tête, elle qui est sensée s’assurer que le fichage des données personnelles respecte certaines règles de base et ne vient pas mettre en péril la vie privée des Français.

Jusqu’où ira-t-on dans une telle course à la technologie destinée avant tout à permettre aux élus locaux de rassurer leurs électeurs en leur montrant qu’ils ne lésinent pas pour assurer leur sécurité ? Après le dispositif des voisins vigilants et les lotissements entièrement cloturés et sous gardiennage électronique, après les caméras de vidéosurveillance et les systèmes de reconnaissance faciale, on envisage désormais sérieusement des drones pour surveiller en permanence tout déplacement suspect et sans doute bientôt des milices armées de citoyens comme on commence à l’organiser avec les groupes de chasseurs dans l’Est de la France. Décidément, on vit une époque formidable qui devrait nous préparer un avenir radieux !

L.V.