Archive for the ‘Economie’ Category

Canal de Provence : des plans d’eau qui rayonnent…

14 novembre 2017

Le Canal de Provence à Saint Maximin, dans le Var (photo © Camille Moirenc / SCP)

Créée en 1957 sous la forme d’une société anonyme d’aménagement régional, la Société du Canal de Provence, qui vient de fêter ses 60 ans, résulte en réalité d’un pacte passé en 1955 entre la Ville de Marseille et les deux départements des Bouches-du-Rhône et du Var, dans l’objectif de mettre en commun leurs droits d’eau sur la rivière du Verdon. Dès 1963, la société s’est vue confier, par concession d’État, la mission de réaliser et gérer le canal de Provence destiné à acheminer, vers l’agglomération marseillaise et une partie du Var, l’eau du Verdon stockée grâce aux différents barrages de Sainte-Croix, Quinson, Gréoux, Castillon et Chaudanne.

La construction du canal s’est échelonnée entre 1964 et 1986, à partir de la prise de Boutre, à Vinon-sur-Verdon. A Rians, le canal se divise en deux branches, l’une desservant le pays d’Aix et le nord de Marseille, l’autre l’Est marseillais et le Var. Le réseau s’est progressivement étendu, y compris via la construction récente de la liaison Verdon – Saint-Cassien destinée à alimenter le littoral varois jusqu’au golfe de Saint-Tropez. Il comprend désormais près de 70 km de canaux à ciel ouvert, 140 km en galerie souterraine et pas moins de 4500 km de canalisations.

Le barrage de Bimont, près de la Sainte-Victoire, géré par la SCP

La gouvernance a évolué également avec l’arrivée de la Région PACA en 1983, puis celle du département de Vaucluse en 1988, pour le développement de l’irrigation dans la plaine du Sud-Luberon. En 2008, l’ensemble du patrimoine appartenant à l’Etat et concédé à la SCP a été transféré à la Région, renforçant ainsi l’appropriation par les collectivités territoriales de ce patrimoine hydraulique.

Branche nord du canal de Provence (photo © Camille Moirenc / SCP)

De l’ordre de 2 millions de personnes, soit 40 % de la population régionale est désormais alimenté en tout ou partie par de l’eau acheminée par le réseau de la SCP. Une des particularités de ce réseau réside dans son mode de régulation dynamique, géré de manière centralisée depuis le siège de la société basé au Tholonet, et qui permet d’ajuster à tout moment les débits délivrés en fonction de la demande effective des utilisateurs.

C’est ce souci constant de l’innovation technologique qui a poussé la SCP, depuis déjà quelques années et après avoir exploité toutes les potentialités de l’hydroélectricité, à s’intéresser à la production d’énergie solaire sur son propre réseau. Dans une région aussi ensoleillée, un des freins au développement de cette production réside en effet dans le coût du foncier qui réduit les possibilités d’implantation de centrales photovoltaïques. Or, les plans d’eau et les canaux gérés par la SCP constituent de vastes superficies qui peuvent facilement être recouvertes de panneaux solaires.

Panneaux solaires installés dans le cadre du projet Canasol à Rians (source : Actu Environnement)

Qui plus est, une telle couverture présente de multiples intérêts. Les panneaux photovoltaïques protègent les canaux contre les intrusions et les chutes ou les baignades intempestives, ce qui est un des risques récurrents auquel est confrontée la SCP, et en même temps ils protègent l’eau des rayonnements solaires directs, ce qui permet de limiter l’évaporation et de garder à l’eau une certaine fraîcheur tout en évitant la prolifération des végétaux aquatiques, une autre des plaies de l’exploitant.

Et ce n’est pas tout ! En plein été et sous le chaud soleil de Provence, la température grimpe rapidement à la surface des panneaux photovoltaïques. Or, au-delà d’une certaine température (de l’ordre de 70 °C), le rendement des panneaux baisse fortement, perdant jusqu’à 15 % de leur efficacité énergétique. Le fait de les installer juste au-dessus de la surface des canaux présente donc une réelle opportunité puisqu’on peut facilement les arroser pour éviter tout échauffement intempestif.

Site du démonstrateur Canalsol à Rians (photo © Camille Moirenc / SCP)

Pour tester le concept, la SCP s’est alliée avec le pôle de recherche technologique du CEA en 2013, dans le cadre du pôle de compétitivité Capénergie, afin de créer une plateforme expérimentale située à proximité de son centre d’exploitation à Rians. 132 panneaux solaires ont ainsi été déployés et testés pendant plus d’un an à partir de l’automne 2014, pour évaluer l’intérêt du dispositif et comparer différentes orientations et modalités de refroidissement (par aspersion, par circulation direct ou par le seul effet passif de l’eau circulant à 1,20 m sous les panneaux et dont la température moyenne varie entre 15 et 18 °C).

Dispositif d’aspersion des panneaux photovoltaïques du projet Canalsol

Les résultats de ce projet de recherche baptisé Canalsol semblent suffisamment probants pour que la SCP poursuive ses efforts de développement technologique et envisage de passer à une phase très opérationnelle qui consisterait à installer une centrale photovoltaïque flottante sur le vaste réservoir à ciel ouvert du Vallon Dol situé sur les hauteurs de Marseille, au pied du massif de l’Étoile.

La réserve de Vallon Dol, sur les hauteurs de Marseille (photo © Camille Moirenc / SCP)

Ce gigantesque bassin qui s’étend sur 17 hectares contient 3 millions de m3 d’eau acheminée depuis le Verdon (soit plus de deux fois la capacité du Vieux Port !), de quoi assurer pendant une semaine entière l’alimentation en eau de toute la ville de Marseille. Construit en 1973, ce bassin qui peut être alimenté via les deux branches principales du canal de Provence sert de réserve pour l’usine de potabilisation située à proximité et géré par la SEM.

Pour aménager sur ce vaste plan d’eau une centrale solaire dont la puissance visée serait de 10 MW, la SCP vient de lancer une consultation, afin de choisir un partenaire avec lequel la SCP créerait une société de projet en vue de concevoir, financer, réaliser, exploiter, maintenir et vendre la production d’électricité de cette future installation de panneaux photovoltaïques flottants. Un projet ambitieux et innovant dont s’est fait l’écho La Provence et qui pourrait peut-être demain donner des idées à d’autres exploitants : à quand des panneaux photovoltaïques sur le Grand Canal à Venise ?

L.V. 

Publicités

Qui organise la pénurie de beurre ?

5 novembre 2017

Certains se souviennent peut-être encore de ce temps pas si lointain où les chambres froides de ce qui était encore la Commission économique européenne débordaient de beurre, stocké pour éviter que les cours de cette matière première ne s’effondrent. Le stockage avait commencé en 1964 afin de venir en aide aux agriculteurs européens alors en pleine surproduction et, en 1986, on avait atteint le volume incroyable de 1,28 millions de tonnes de beurre stockés dans les réserves de l’Europe.

Pour remédier à cet excédent structurel, des quotas laitiers ont fini par être instaurés en 1984 et, peu à peu, les « montagnes de beurre » ont commencé à se résorber. Il a quand même fallu près de 20 ans pour y parvenir et c’est en 2007 seulement qu’ont été écoulés les dernières 6000 tonnes de beurre encore stockés, pour l’essentiel d’origine espagnole à cette date. A l’époque, le prix du marché s’élevait à 2 400 € la tonne. Le système des quotas laitiers a été finalement abandonné en avril 2015 et depuis, c’est le marché mondial qui régit la commercialisation des produits laitiers sans aucun filet de sécurité.

Le résultat ne s’est pas fait attendre puisque dès 2016, le prix du lait payé au producteur est descendu en dessous du coût de production et le revenu moyen d’un éleveur en France aurait baissé de plus de 26 % entre 2015 et 2016 selon l’INSEE. Il ne reste déjà plus que 70 000 fermes laitières en France, un tiers d’entre elles ayant disparu au cours des 10 dernières années. Avec la fin des quotas laitiers qui fixaient des volumes plafond de production par pays, la production européenne a fortement augmenté, du fait principalement des grosses fermes industrielles du nord de l’Europe, ce qui tire les prix à la baisse et étrangle les derniers éleveurs laitiers encore en activité en France.

Manège de traite à la ferme industrielle dite des 1000 vaches, à Ducrat, près d’Abbeville dans la Somme (source © La Voix du Nord)

Et l’on apprend désormais que le beurre, qui jadis encombrait les frigos de Bruxelles, est devenue une denrée rare. Les rayons des supermarchés se vident et les boulangers industriels qui en sont de gros consommateurs (sachant qu’un croissant est composé à 50 % de beurre…) se retrouvent en chômage partiel faute de matière première. Le prix du beurre est ainsi passé en dix-huit mois de 2 500 à 6 500 € la tonne : un bond spectaculaire et qui pourrait encore se poursuivre. Mais comment a t-on bien pu en arriver là ? Le Marché aurait-il perdu la main, sa fameuse « main invisible » si chère aux économistes libéraux ?

Vache de race Prim’Holstein

On pourrait d’abord s’étonner que les cours du lait soient au plus bas alors que ceux du beurre, qui en dérivent directement n’ont jamais atteint de tels sommets. Certains invoquent des raisons techniques liées non pas à une météo qui aurait été défavorable à la production laitière comme certains le prétendent, mais qui découlent effectivement d’une politique menée depuis des années par la filière : en France, plus des deux-tiers du cheptel laitier sont constitués de Prim’Holstein, ces vaches laitières qui constituent l’essentiel des troupeaux européens et qui fournissent jusqu’à 10 000 litres de lait par tête et par an. Depuis des décennies, les chercheurs de l’INRA comme leurs collègues européens ont orienté la sélection de cette race dans le seul but de produire davantage de lait et moins de matière grasse. Or, sans matière grasse dans le lait, il est plus difficile de faire du beurre : il faut en moyenne 22 l de lait pour produire un kg de beurre, mais cela peut varier fortement sachant qu’un litre de lait contient selon les cas entre 35 et 45 g/l de matière grasse.

Couverture du Time de 2014 vantant les mérites du beurre

Or la consommation mondiale de beurre est désormais en hausse. Avec 8 kg par an et par habitant, la France se place au premier rangs des gros consommateurs, mais la demande est en train d’exploser dans d’autres pays, notamment asiatiques où l’on commence à prendre goût aux viennoiseries. Même aux USA, les diététiciens sont en train de revenir sur leur jugement très négatif concernant la consommation des corps gras en général et du beurre en particulier, ainsi que l’a rappelé le Time à sa Une en 2014.

Dans ce supermarché Cora, des rayons de beurre quasi vide (photo © Aurélien Laudy pour l’Union)

Beurre dans la baratte (source © Agrilait)

Mais la pénurie de beurre ne frappe curieusement que la France. Or la production de beurre français est plutôt en croissance, avec un volume global de 368 000 tonnes produit en 2015 contre 341 000 en 2010. Notre pays est actuellement le 6ème producteur mondial de beurre et le 2ème en Europe derrière l’Allemagne. De 2006 à 2010, la production mondiale de beurre a ainsi augmenté de 14 % et dépasse actuellement les 10 millions de tonnes, le premier producteur étant désormais l’Inde. Mais le géant de la production laitière est la Nouvelle-Zélande qui produit pas moins de 27 % du lait mondial, exporté principalement sous forme de poudre de lait. D’ailleurs, la France importe chaque année deux fois plus de beurre qu’elle n’en exporte, et sa principale source d’approvisionnement est justement la Nouvelle-Zélande.

Un dessin de Na !

En réalité, on se retrouve confrontés à deux phénomènes qui se surimposent. Le premier est un mouvement de fond, d’ampleur mondial et qui reflète une demande accrue de beurre, du fait de l’émergence de nouveaux marchés, notamment en Chine, alors même que la production de beurre a été volontairement freinée depuis des années parce que les consommateurs s’étaient orientés plutôt, pour des raisons diététiques, vers la consommation d’huiles végétales et de margarines. Ce mouvement de fond explique donc que les prix mondiaux du beurre soient en forte hausse, alors que ceux du lait n’augmentent que de manière modérée, du fait des stocks importants de poudre de lait encore disponibles, en particulier en Europe qui a en réserve plus de 350 000 tonnes, de quoi peser significativement sur les cours mondiaux.

A cela vient s’ajouter un élément conjoncturel spécifiquement français. On se souvient qu’en 2016, à l’issue d’une crise agricole comme la France en connaît régulièrement, le principal industriel du secteur, Lactalis, avait accepté de payer un peu plus cher le lait, à 290 € la tonne, ce qui lui permettait de s’aligner sur le prix des autres acteurs (Bongrain, SODIAAL ou Danone) tout en restant très en deçà des coûts réels de production que la profession agricole évalue entre 330 et 380 € la tonne selon les exploitations.

Mais en France, ce sont les 4 centrales d’achat de la grande distribution (Intermarché/Casino, Carrefour/Dia, Auchan/Système U et Leclerc) qui font la pluie et le beau temps en matière de fixation des prix des produits alimentaires. Les négociations avec les producteurs et les industriels de l’agro-alimentaire ont lieu une fois par an et la grande distribution s’y emploie à imposer à ses fournisseurs les prix les plus bas.

C’est la raison pour laquelle, le prix du beurre en grande surface n’a jusqu’à ce jour quasiment pas augmenté, contrairement à ce qu’on observe en Allemagne par exemple où le prix de la plaquette de beurre a plus que doublé. Comme vient de le reconnaître, après une semaine de tergiversations, le ministre de l’agriculture et de l’alimentation, Stéphane Travert, la pénurie de beurre dans les rayons des magasins s’explique en réalité principalement par un nouveau bras de fer entre industriels et géants de la grande distribution.

Faute de pouvoir vendre leur beurre en France à un prix rémunérateur, les acteurs de la filière préfèrent donc l’exporter, tout simplement. Bienvenue dans le monde de la mondialisation heureuse !

L.V.  

Des algues à la rescousse de la planète

21 octobre 2017

A Paris, la société Suez Environnement vient d’installer une nouvelle sorte de mobilier urbain qui rappelle furieusement les antiques colonnes Morris, lesquelles parsemaient les artères de la capitale au XIXème siècle pour afficher spectacles et informations diverses. Dressée sur la place d’Alésia dans le 14ème arrondissement, au centre d’un carrefour où transitent chaque jour en moyenne pas moins de 72 000 véhicules, cette colonne d »un nouveau style, est en réalité un puits de carbone expérimental, ainsi que l’ont rapporté notamment Le Monde et Les Echos.

Colonne Morris aquarium installée place d’Alésia (photo © Gilles Rolle / REA)

Le principe de fonctionnement est des plus simples. Comme chacun sait, les algues, ainsi que tous les végétaux pourvus de chloroplastes et aptes à la photosynthèse, absorbent en présence de lumière le gaz carbonique dont elles assimilent le carbone et rejettent l’oxygène.

La colonne Morris high tech de 4 m de hauteur installée en juillet 2017 place d’Alésia par Suez en accord avec la Mairie de Paris n’est ni plus ni moins qu’un vaste aquarium de 1 m³ qui contient des microalgues. Un système de ventilation leur permet de s’alimenter avec l’air ambiant chargé en gaz carbonique et en polluants divers dont le dixyde d’azote (NO2) rejeté en grande quantité par les pots d’échappement des véhicules et dont la quantité à cet endroit dépasse régulièrement le seuil réglementaire de 40 µg/m³, selon les données d’Airparif.

Principe de fonctionnement du puits de carbone (source © SUEZ)

Des diodes électroluminescentes fournissent aux algues l’éclairage suffisant pour optimiser les réactions de photosynthèse et l’oxygène ainsi produit est rejeté dans l’air ambiant grâce au système de ventilation : rien de plus simple, il suffisait d’y penser ! A force de se goinfrer ainsi de gaz carbonique, les microalgues vont naturellement croître et se multiplier. Quand il y en aura trop, un coup de chasse d’eau et la biomasse en excès filera via le réseau d’assainissement vers la station d’épuration où elle sera transformée en biogaz. Après traitement, le méthane ainsi récupéré sera ensuite réinjecté dans le réseau de gaz naturel. Un bel exemple d’économie recyclée où l’on est gagnant à chaque étape…

Prototype en cours de test à la station d’épuration de Colombes (source © SUEZ)

Le dispositif, mis au point avec la start-up Fermentalg, basée à Libourne en Gironde et spécialisée dans la production de microalgues destinées à la nutrition humaine et animale, a fait l’objet d’une présentation lors de la COP 21 en décembre 2015. En janvier 2017, un premier test en vraie grandeur a été effectué à l’usine de traitement des eaux usées du SIAAP (Syndicat interdépartemental de l’assainissement de l’agglomération parisienne) à Colombes où un puits de carbone a été mis en place, alimenté par les gaz à effet de serre rejetés par les fumées du four d’incinération des boues de l’usine. Le système a donné entière satisfaction et la durée de vie des algues s’est révélée bien plus longue que prévu grâce à cette source d’alimentation constante en CO2.

Devant le succès de l’opération, la question s’est posée de poursuivre l’expérimentation dans un site urbain où les taux de gaz carbonique varient davantage. Célia Blauel, adjointe en charge de l’environnement à la mairie de Paris, s’est ainsi laissée convaincre et la fameuse colonne Morris a donc été installée place d’Alésia. L’objectif est de fixer une tonne de CO2 par an, soit un effet comparable à une centaine d’arbres, tout en produisant une dizaine de kg de biométhane, un objectif jugé bien modeste par certains au vu du coût de l’investissement, qui n’a pas été communiqué mais qui semble assez élevé. Le système permettra aussi d’absorber une partie des polluants atmosphériques de type oxydes de soufre, mais c’est seulement à l’issue de cette phase expérimentale qu’on pourra déterminer dans quelle proportion.

Bref, le chemin semble encore bien long avant que de telles colonnes épuratoires ne se développent dans les rues de la capitale, mais l’idée est ingénieuse et vient rappeler à quel point les algues peuvent être des auxiliaires précieux de notre vie quotidienne. Les microalgues en particulier, qui sont très abondantes dans de nombreux milieux naturels et peuvent facilement être cultivées sans nécessiter pour cela de vastes surfaces agricoles, ont un potentiel de développement dix à trente fois supérieur aux plantes terrestres, puisqu’elles sont capables de doubler leur biomasse chaque jour dans des conditions optimales.

Réacteurs photo-biologiques pour la culture de micro-algues (source © WebTV de l’Université de Nantes)

Utilisées de longue date comme nutriment, cosmétique, colorant ou complément alimentaire, les microalgues pourraient bien contribuer demain à la production de biocarburants, pour l’instant issu surtout de la transformation de soja mais au prix de l’accaparement de vastes superficies de terres agricoles. Ainsi, des chercheurs chiliens sont parvenus récemment à produire du biodiesel à base de microalgues en essayant de réduire autant que possible la quantité d’énergie nécessaire pour la croissance de ces organismes unicellulaires, mais le procédé reste pour l’instant au stade de la recherche.

Bitume bio obtenu à partir de résidus de microalgues (source © WebTV de l’Université de Nantes)

En attendant, des chercheurs du CNRS et de l’université de Nantes associés avec la société AlgoSource Technologies basée à Saint-Nazaire, sont peut-être en train de mettre au point le bitume algaire de demain, ainsi que l’a rapporté Le Monde. Leurs travaux, issus du projet Algoroute, publiés en avril 2015 dans la revue ACS Sustainable Chemistry & Engineering et qui ont fait l’objet du dépôt d’un brevet, montrent en effet qu’il est possible, en laboratoire, d’obtenir à partir de résidus de microalgues placés dans un bain d’eau chauffée sous pression, une substance visqueuse hydrophobe, qui présente des caractéristiques similaires à celles du bitume pétrolier : même couleur noire, même viscoélasticité qui assure la cohésion des granulats entrant dans la composition des revêtements routiers, et propriétés rhéologiques comparables conférant au matériau résistance et flexibilité sous l’application de charges roulantes.

Voilà en tout cas qui laisse entrevoir, pour un avenir peut-être proche, des possibilités intéressantes de substitution de certains produits dérivés de l’exploitation pétrolière. A défaut de se passer de routes et de voitures, ce sont peut-être les cultures d’algues qui permettront un jour de trouver enfin un équilibre durable entre développement économique et pérennité de notre environnement naturel…

L.V.  

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Au Cameroun, des bouteilles à la mer…

28 septembre 2017

Alors que tous les médias sont focalisés sur les inondations récentes qui se sont produites dans le sud des États-Unis et aux Antilles suite au passage des derniers cyclones Harvey puis Irma, on aurait presque tendance à oublier que bien d’autres régions du monde ont été meurtries récemment par des événements climatiques tout aussi spectaculaires. Fin août 2017, on estime ainsi que plus de 1500 personnes ont péri du fait des inondations consécutives à la mousson en Asie du Sud-Est, principalement en Inde, au Népal, au Bengladesh et au Pakistan.

Inondations à Freetown, Sierra Leone, en août 2017 (photo © Jamie Hitchen / Twitter)

Mais l’Afrique est aussi régulièrement touchée par les inondations. Cet été, c’est notamment le Sierra Leone qui a été cruellement frappé par de terribles inondations qui ont dévasté plusieurs quartiers de la capitale Freetown où un bilan provisoire établi par la Croix-Rouge faisait état, mi-août, d’au moins 312 victimes recensées tandis que de spectaculaires coulées de boues ravageaient tout sur leur passage, éventrant de nombreuses maisons et ensevelissant des dizaines de personnes.

Le Cameroun fait partie de ces pays de l’Afrique subtropicale régulièrement touché par les fortes pluies qui s’abattent en été. Le 14 septembre dernier, le site Cameroon-info, faisait ainsi état de graves inondations qui paralysent la capitale Douala après trois jours de pluies particulièrement intenses tombant sans discontinuer, tandis que le 11 septembre, la ville de Yaoundé avait déjà essuyé des inondations dévastatrices.

C’est à l’occasion d’un tel déluge qu’un jeune étudiant camerounais avait constaté, en 2011, que son quartier pouvait être envahi en moins de 30 minutes, non seulement par des eaux plus ou moins chargées, mais surtout par une véritable marée de bouteilles en plastique ! Jetées partout dans les rues et sur les dépotoirs, les bouteilles en plastique sont en effet remobilisées dès que les flots se déversent dans la ville et viennent s’accumuler dans les points bas.

Face à une telle invasion, le jeune Ismaël Essome s’est lancé le défi de trouver des débouchés à toutes ces bouteilles en plastique indésirables. Une fois obtenu son diplôme d’ingénieur en gestion environnementale, et alors qu’il travaille pour une ONG internationale à la mise en valeur du littoral camerounais, il se met en tête d’essayer de construire des pirogues en assemblant des centaines de bouteilles en plastique.

En 2014, le gouvernement camerounais a pourtant pris la décision courageuse d’interdire les emballages non biodégradables sur l’ensemble du territoire : dorénavant, les producteurs et distributeurs de liquides vendus dans des bouteilles en plastique doivent assurer leur recyclage après usage. Pourtant, force est de constater que, trois ans plus tard, des millions de bouteilles encombrent toujours les villes du pays et s’amassent dans tous les cours d’eau et fossés de drainage.

Démonstration de navigation avec une pirogue (crédit photo © Madiba et Nature)

En août 2016, comme le raconte Le Monde Afrique, et après moult essais, Ismaël Essome réussit à construire une première pirogue constituée d’un millier de bouteilles en plastique de récupération, soigneusement rebouchées, et attachées entre elles par un lien en nylon. Deux planches forment l’ossature de la pirogue et vogue la galère…

Pour piloter ce projet un peu fou, Ismaël a fondé sa propre association, dénommée Madiba et Nature, destinée à promouvoir de manière très pragmatique la préservation de l’environnement et l’économie circulaire. Aidé de son neveu, il sillonne les rues pour collecter les bouteilles usagées et améliore sans cesse la structure de ses pirogues en plastique qu’il teste sur les plages pour démontrer aux pêcheurs professionnels leur efficacité.

Une pirogue ainsi assemblée peut transporter jusqu’à trois personnes et une charge de 90 kg. Elle est plus stable qu’une pirogue en bois traditionnelle, coûte deux à trois fois moins cher et s’avère plus durable car, contrairement au bois, le plastique met très longtemps à se dégrader. Sans compter que leur construction, non seulement ne contribue pas à la déforestation du pays mais participe au contraire à assainir l’environnement de ces déchets qui l’encombrent.

Une fois son prototype au point, le jeune Camerounais a formé une équipe de cinq personnes et fait appel à des volontaires, ce qui lui a permis de construire six pirogues en un an, qu’il utilise pour faire des démonstrations et convaincre les acheteurs potentiels. Il a déjà enregistré une cinquantaine de commandes destinées à la pêche artisanale et à l’écotourisme.

Les pirogues écologiques d’Ismaël Essome sur la plage de Londji, au Cameroun (crédit photo © Josiane Kouagheu)

Ainsi, à Londji, petit village de pêcheurs situé près de Kribi, dans une zone côtière touristique du Sud-Cameroun réputée pour ses plages de sable fin et ses mangroves, le président de la coopérative tente de monter, avec l’aide d’Ismaël Essome, un projet de centre d’accueil pour le moins original : les touristes y seront hébergés dans des cases construites à l’aide de bouteilles en plastique recyclées et ils pourront déguster du poisson pêché avec les pirogues conçues par Madiba et Nature : une vraie success story à la Camerounaise…

L.V. 

Scandale sanitaire : des cochonneries dans le jambon

26 septembre 2017

L’information ne date pas d’hier puisque c’est en octobre 2015 que le Centre international de recherche sur le cancer, basé à Lyon et dépendant de l’Organisation mondiale de la santé, l’a confirmé urbi et orbi : les charcuteries sont cancérigènes, directement responsables du cancer colo-rectal, le plus fréquent chez les hommes après ceux du poumon et de la prostate, et chez les femmes après le cancer du sein. Pour cette même année 2015, selon les chiffres de l’Institut national du cancer, on dénombrait en France 43 000 nouveaux cas de cancer du colo-rectum déclarés et près de 18 000 décès du fait de cette maladie : moins que le cancer du poumon qui a tué cette année-là plus de 30 000 Français (hommage aux industriels du tabac !), mais bien davantage que les accidents de la route qui n’ont fait « que » moins de 3 500 morts durant cette même période.

Certes, la chacuterie n’est assurément pas la seule responsable de tous ces cancers mais il semble néanmoins qu’elle en porte une large part. Surtout, tout laisse à penser que l’on se trouve dans un cas de figure très comparable à ce que l’on a observé pour de précédents scandales sanitaires comme celui de l’amiante, du tabac ou de la vache folle pour ne prendre que quelques exemples : d’un côté une perception de plus en plus précise du risque sanitaire, régulièrement dénoncé par l’ensemble des acteurs de la santé publique, et de l’autre une propagande menée sans vergogne par les industriels de l’agro-alimentaire pour enfumer les consommateurs en semant le doute…

Un récent ouvrage, publié il y a quelques semaines sous le titre provocateur « Cochonneries – Comment la charcuterie est devenue un poison » par Guillaume Coudray, formé à Sciences Po et réalisateur de films documentaires, vient mettre bruyamment les pieds dans le plat. Après cinq années d’enquête minutieuse menée dans les archives administratives et médicales, l’auteur y décortique de manière implacable ce qui a conduit à une telle situation.

Pour bien comprendre le problème, il faut remonter en arrière, aux origines de la salaison, qui ne date pas d’hier. Pendant des siècles, l’homme a pris l’habitude de conserver la viande en y ajoutant du sel et des épices. On retrouve ainsi dans les archives un règlement parisien datant de 1476 et détaillant la liste des ingrédients autorisés pour la fabrication de saucisses. Jusqu’à la fin du XIXème siècle, dans toute l’Europe, seul le sel intervient dans la conservation de la charcuterie, tandis que d’autres épices telles que le poivre, le fenouil et de nombreuses herbes aromatique servent de réhausseurs de goût. La coloration rose est quant à elle assurée par l’ajout de colorants naturels comme le safran pour la mortadelle italienne.

Salaison d’oiseaux dans l’Egypte ancienne (source INRAP)

Comme dans bien d’autres domaines, l’innovation est venue des États-Unis où sont nés, dès la fin du XVIIIème siècle, dans le Massachussetts, les premiers charcutiers industriels, les « packers » qui se mettent à conditionner la viande salée dans des tonneaux ou des caisses destinées notamment aux marins au long-cours. L’activité se déplace peu à peu vers l’ouest et la ville de Cincinnati, dans l’Ohio, prend en 1835 le surnom officiel de « Porkopolis » après être devenue le principal centre de production de porcs du pays et sans doute du monde !

Abattoirs de l’usine Armour à Chicago en 1893 (croquis Octave Uzanne)

A l’époque, la saison d’abattage est strictement limitée entre novembre et mars. Comme en Europe où il est d’usage dans les campagnes de faire les cochonnailles pour Noël, c’est en effet pendant l’hiver, lorsque la température ambiante est suffisamment fraîche, que l’on peut en toute sécurité abattre les bêtes et saler la viande, dans une véritable course contre la montre.

Mais on n’arrête pas la course au profit et bientôt cette activité décline au profit de la ville de Chicago qui s’impose en quelques années comme la capitale mondiale de la viande et notamment de la charcuterie. Sauf qu’entre temps les techniques ont évolué : les charcuteries américaines industrielles sont désormais traitées systématiquement à base de salpêtre (nitrate de potassium), puis de nitrate de sodium, un produit extrait d’immenses gisements situés au pied de la Cordillère des Andes. Après la première guerre mondiale, on se met à utiliser le nitrite de sodium, un produit chimique développé pour l’industrie de l’armement et devenu bon marché. Bien que mortel à partir de 2 g/kg, il est rapidement autorisé dans l’industrie alimentaire à faibles doses car ses propriétés intéressent fortement les charcutiers industriels.

L’intérêt de ces sels, par rapport au chlorure de sodium classique, est en effet multiple : il atténue le goût de salé, donne au jambon une belle coloration rose carmin durable, prolonge la durée de conservation des aliments et surtout il accélère considérablement la maturation de la viande, ce qui permet de formidables gains de productivité.

D’ailleurs, l’effet économique est foudroyant. Dès 1874, la France tente vainement de se protéger contre les importations massives de charcuteries américaines traiées au salpêtre. Mais face aux menaces de rétorsions concernant ses exportations de pinard, les industriels français s’adaptent et tout le monde se met à bourrer la charcuterie de nitrates, borates et autres sulfites : vive la modernité !

Ce n’est qu’au milieu des années 1950 que des chercheurs se rendent compte que les produits nitrés utilisés désormais dans toutes les salaisons provoquent la formation de nitrosamines, dont la diméthylnitrosamine (ou N-nitrosodiméthylamine, qu’on appellera par son petit nom NDMA) considérée comme cancérigène. On sait depuis longtemps que les nitrites sont toxiques à haute dose et les autorités sanitaires ont fixé des limites au dosage en additifs nitrés. Mais l’on découvre à cette date que leur combinaison avec les protéines carnées conduit à la formation de cette NDMA qui provoque des tumeurs cancéreuses.

Un article retentissant paru en 1968 dans le journal médical The Lancet, met en garde contre ce mécanisme. Mais les autorités sanitaires et notamment l’Autorité européenne de sécurité des aliments, empêtrée dans de multiples conflits d’intérêt avec le milieu agro-industriel, se contente de baisser symboliquement les seuils acceptés de nitrites sans prendre nullement en compte ce risque liés à la formation de NDMA. Au contraire, elle relaie vigoureusement les arguments de la filière industrielle qui prétend que, sans les ajouts d’additifs nitrés, les consommateurs seraient exposés au risque de botulisme, liés à l’apparition de la bactérie toxique Clostridium botulinum.

Le jambon de Parme, garanti sans nitrites (source l’Observatoire des aliments)

Or cette affirmation est parfaitement erronée puisque de très nombreuses charcuteries traditionnelles ont toujours été et sont encore produites sans additifs nitrés. C’est notamment le cas du jambon de Parme, qui bénéficie d’une appellation d’origine contrôlée et d’un cahier des charges interdisant strictement tout ajout d’additif nitré, et ceci depuis 1993 : en 25 ans, les 9 millions de jambons produits n’ont jamais causé un seul cas de botulisme….

C’était aussi le cas du jambon de Bayonne jusque dans les années 1960, mais ces temps sont désormais révolus… Les besoins de l’industrialisation agro-alimentaire passent aujourd’hui avant les préoccupations de santé publique : bon appétit quand même !

L.V. 

JO de Paris : quelles retombées économiques ?

24 septembre 2017

C’est la grande nouvelle du mois : les jeux olympiques d’été se dérouleront bien à Paris en 2024, 100 ans tout juste après que la ville-lumière a accueilli ses dernières olympiades, en 1924, sous la pression du baron Pierre de Coubertin. Le tuyau était percé depuis un bon moment déjà puisqu’il n’y avait plus d’autres candidats en lice, ce qui n’a pas empêché les médias nationaux d’en faire des tonnes à l’annonce de la décision officielle, le 13 septembre dernier.

Bien sûr, tout le monde met en avant la renommée internationale formidable qui rejaillira de cet événement d’ampleur mondiale, et surtout l’impact économique qui devrait en découler. Sur ce dernier point, l’acteur qui fait référence en la matière est le Centre de droit et d’économie du sport (CDES), une structure associative rattachée à la faculté de Limoges, spécialisée dans la formation d’encadrants sportifs mais qui se targue surtout de réaliser les études d’impact des grandes manifestations sportives, histoire d’en justifier l’intérêt a priori.

Comme pour chaque événement sportif majeur, le CDES a fait tourner ses calculatrices et estime que les retombées économiques à attendre s’élèveront au minimum à 5,3 milliards d’euros et pourraient même atteindre 10,7 milliards d’euros selon le scénario le plus optimiste. Une partie de ces retombées économiques bénéficierait au secteur du BTP, mais un tiers irait aux professionnels du tourisme et la plus grosse part du gâteau devrait tomber dans l’escarcelle des partenaires en charge de l’organisation. On évoque la création de 119 000 emplois dans les domaines du BTP, du tourisme et de l’événementiel, et on estime les rentrées fiscales à près de 250 millions d’euros pour la seule quinzaine que dureront les jeux.

Tony Estanguet, co-président de Paris 2024, s’offre un selfie avec des inspecteurs du CIO et une partie du comité parisien, au Stade de France, le 15 mai 2017 (crédit photo © Franck Fife / AFP)

Bref, le tableau paraît idyllique ! A se demander même pourquoi on n’organise pas des JO chaque année s’il s’agit de la recette idéale pour booster une économie atone…

Sauf que la réalité paraît assez éloignée de ces analyses pour le moins optimistes, comme le rappelle notamment Pierre Rondeau, professeur d’économie à l’Université Panthéon-Sorbonne et spécialiste de la sociologie du sport, dans un article publié par le site The Conversation. Force est en effet de constater que les grands événements sportifs internationaux, s’ils flattent l’ego des pays organisateurs et contribuent à en augmenter leur notoriété, « n’ont pratiquement jamais rapporté d’argent, n’ont jamais vraiment été bénéficiaires et n’ont jamais soutenu l’emploi durable »…

L’arc de triomphe aux couleurs des JO de 2024 (crédit photo © Benoit Tessier / Reuters)

Les études d’impact oublient en effet généralement un facteur important que constituent les effets de substitution et d’éviction. En d’autres termes, les grandes manifestations sportives attirent certes un public spécifique mais font fuir le public habituel ! Ainsi en 2016, la fréquentation touristique du Brésil n’a pas connu de rebond significatif car le pays est déjà le plus touristique d’Amérique du Sud : les touristes habituels ont largement évité de s’y rendre pendant la période des JO, laissant la place à un public de supporters et de fans de sport. Il s’est passé la même chose pendant la Coupe du monde de football organisée en France en 1998, année au cours de laquelle le nombre de touristes reçus a été exactement identique qu’en 1997 ou 1999, avec simplement une différence de motivation, les visiteurs s’agglutinant davantage au Stade de France qu’au Musée du Louvre…

A cela s’ajoute souvent une réelle difficulté à tenir les budgets souvent très optimistes prévus pour l’organisation de tels événements. Un économiste, Wladimir Andreff, a ainsi montré que depuis les JO de 1968, le taux de dépassement des budgets est en moyenne de 167 % ! A Pékin par exemple, pour les JO de 2008, dans un pays pourtant réputé pour sa capacité de planification, il a atteint 1130 %. A Londres, en 2012, le budget prévisionnel était établi à 4,6 milliards d’euros mais les JO ont finalement coûté 11 milliards (voire 15 selon certaines sources) et les retombées économiques se sont limitées à 1,72 milliards alors qu’elles avaient été estimées à 12 milliards : un cruel fiasco financier pour le pays…

Dessin publié dans Un dessin par jour

Pour les futurs JO de Paris, le budget prévisionnel annoncé à ce jour par le comité organisateur s’élève à 6,5 miliards d’euros. Une petite moitié sera consacrée à la construction des infrastructures nécessaires. Même si la grand stade est déjà disponible, il faudra quand même compter au moins 1 milliard pour remettre au goût du jour le Stade de France et construire une piscine olympique, auquel il conviendra d’ajouter près de 2 miliards pour l’édification du village olympique et du centre d’accueil des médias. Ce budget d’investissement sera pris en charge pour moitié au moins par des fonds publics, provenant principalement de l’État mais aussi des différentes collectivites territoriales concernées (dont 145 millions d’euros pour la ville de Paris et autant pour la Région Ile-de-France).

La préparation des JO 2024 : une stratégie de longue haleine qui mérite bien quelques sacrifices (dessin de Deligne publié dans Urtikan)

Le reste du budget, déjà réévalué de 3,2 à 3,6 milliards d’euros est destiné au Comité d’organisation des jeux et sera financé en partie par le CIO et en partie par des sponsors et des investisseurs privé. Quant aux recettes issues de la billetterie, leur apport restera relativement modeste, évalué en première approche à 1,1 milliards d’euros, sur la base d’une hypothèse de remplissage des stades à 88 % pour les épreuves olympiques et à 75 % pour les jeux paraolympiques, avec une volonté affichée d’offrir la moitié des places à un prix abordable inférieur à 50 €.

Un dessin de Mutio publié sur le site Urtikan

Alors, les JO à Paris, une bonne opération ou un gouffre financier en perspective ? La maire de Paris, Anne Hidalgo, n’est pas spécialement optimiste à ce sujet, elle qui prévenait en février 2015 que : « les jeux, c’est très joli, mais il n’y a pas une ville qui s’y soit retrouvée sur le plan financier »…

Le géographe Loïc Ravenel, responsable du Centre international d’économie du sport, ne dit pas autre chose en affirmant dans le magazine Alternatives économiques : « cette histoire de retombées économiques, c’est de l’enfumage. Assumons qu’à ce niveau de sport-spectacle, ça ne rapporte pas. Aujourd’hui, on accepte que la culture soit déficitaire parce qu’on estime que c’est important pour une société. Reconnaissons qu’on veut organiser une grande compétition sportive pour des questions d’image, de fête populaire, mais arrêtons de vouloir le justifier économiquement ».

Voilà qui a au moins le mérite d’être clair ! Quand on aime, on ne compte pas… Et tant pis pour les contribuables qui devront bien payer la note mais qui auront au moins passé un bon moment devant leur petit écran !

L.V.  

Transports publics gratuits : une idée d’avenir ?

9 septembre 2017

Sur le territoire de l’ancienne communauté d’agglomération du Pays d’Aubagne et de l’Étoile, qui s’est fondue début 2016 dans la métropole Aix-Marseille-Provence, les transports publics, y compris le tramway, sont gratuits depuis mai 2009. Une mesure portée à l’époque par l’ancienne présidente de l’agglo, Magali Giovannangeli (Front de gauche) mais que celle qui lui a succédé en 2014, Sylvia Barthélemy (UDI), n’a jamais souhaité remettre en cause.

Les bus gratuits à Niort depuis le 1er septembre 2017 (photo © B.C. / La Charente libre)

Et voila que l’actualité braque de nouveau ses projecteurs sur cette question de la gratuité des transports publics, à l’occasion de la mise en application d’une promesse de campagne du nouveau maire de Niort, le gaulliste étiqueté Parti radical, Jérôme Baloge : depuis le 1er septembre 2017, les bus desservent gratuitement les 45 communes de la Communauté d’agglomération du Niortais qui compte quand même 120 000 habitants. Du coup, les articles fleurissent dans la presse pour rappeler, comme le fait notamment Libération, que ce sont désormais 22 collectivités en France qui ont mis en œuvre ce principe de gratuité des transports publics, pour la plupart de petites communes à l’instar de Gap, Vitré ou Libourne, mais aussi quelques agglomérations plus importantes comme celle de Châteauroux dans l’Indre, ou encore la communauté urbaine de Dunkerque qui compte 200 000 habitants.

Dans cette dernière, pour l’instant, les bus ne sont gratuits que le week-end, depuis maintenant 2 ans, mais la mesure devrait être étendue à tous les jours de la semaine d’ici l’an prochain. D’ailleurs, lorsque cette mesure a été instaurée, en septembre 2015, ce sont les Aubagnaises Magali Giovannangeli et Sylvia Barthélemy qui ont été invitées à venir faire part auprès de la population de leur retour d’expérience en matière de transports publics gratuits, comme le rapporte la presse locale.

Magali Giovannangeli, artisane de la gratuité des transports publics d’Aubagne (photo © T. B. / Sud Ouest)

Et ce retour d’expérience est globalement positif, à Aubagne comme dans d’autres agglomérations où l’impact a pu être analysé. A Aubagne, selon Maxime Huré, chercheur à l’université de Perpignan et président de l’association Villes innovantes et gestion des savoirs, la fréquentation des bus aurait triplé depuis 2009 et il estime que un tiers de ces nouveaux utilisateurs utilisent désormais les transports en commun en lieu et place de leur voiture. Des chiffres qui semblent néanmoins à relativiser puisque les responsables locaux n’évoquent eux-même qu’une augmentation de fréquentation de 170 % et un report modal très difficile à estimer… A Dunkerque, la fréquentation dans les bus a augmenté de 78 % le dimanche, et à Châteauroux, elle aurait été multipliée par deux.

On cite aussi le cas de Tallinn, 430 000 habitants, capitale de l’Estonie qui affirme, elle, avoir vu augmenter sa fréquentation de 7 à 8 % seulement, depuis 4 ans que les bus ont été rendus gratuits pour ses ressortissants. En revanche, la mesure a contribué à attirer en ville 40 000 nouveaux habitants dont les impôts locaux représentent des rentrées fiscales supplémentaires de 38 millions d’euros alors que la billetterie ne rapportait que 12 millions par an. Une opération largement profitable donc et qui pourrait être étendue prochainement à l’ensemble du pays.

Il semble que cet argument de l’augmentation de la fréquentation soit le principal en faveur de la gratuité des transports en commun. Plutôt que de faire tourner des véhicules à vide comme cela a été longtemps le cas des bus de la Marcouline, autant rendre le service gratuit pour en augmenter l’attractivité. Cela contribue à revitaliser les centre-villes et à décongestionner le réseau routier urbain.

Un bus gratuit à Aubagne (photo © Audrey Cerdan / Rue89)

Mais le coût du service n’est pas, loin s’en faut, le seul obstacle à leur utilisation : l’extension du réseau, la fréquence des liaisons et surtout leur fiabilité, voire le confort des usagers sont d’autres critères qui font que de nombreux usagers sont réticents à utiliser les transports en commun.

De ce point de vue, l’enquête réalisée en 2013 à Aubagne par Rue 89, est édifiante. On y entend une étudiante de 17 ans déclarer sans vergogne : « le bus était déjà gratuit avant puisqu’on ne payait pas et qu’on ne s’est jamais fait contrôler ». Aucun impact donc en terme de pouvoir d’achat, mais un gain en confort puisque désormais, prendre le bus est « moins stressant », ce qui explique d’ailleurs qu’à Châteauroux, les chauffeurs observent des groupes de jeunes passer tout leur mercredi après-midi à se faire promener en ville, au point qu’il a fallu réintroduire une présence humaine aux côté des chauffeurs pour remplacer la disparition des contrôleurs et rassurer les autres voyageurs. Il n’y a cependant pas eu d’augmentation des incivilités comme le craignaient certains opposants.

L’impact sur la décongestion de la circulation reste cependant modeste. A Aubagne, les chauffeurs ont parfois le sentiment de conduire un manège qui incite certains à attendre 25 minutes pour s’asseoir dans le bus le temps d’un arrêt plutôt que de marcher à pied, tandis que les déplacements du quotidien pour aller travailler n’ont guère évolué, la plupart se faisant au-delà de l’aire où les transports publics sont gratuits. Rares sont d’ailleurs les Carnussiens qui empruntent les transports en commun pour se rendre à Aubagne, découragés par la fréquence très insuffisante des bus et leur coût relativement élevé (1,80 € le ticket).

A Aubagne, la gratuité des transports publics s’affiche avec fierté (photo © archives f.c. / La Marseillaise)

Pour autant, ces expériences ont le mérite de montrer que les modèles de gestion des transports en commun peuvent être multiples et que le recours à la gratuité est parfaitement pertinent dans certaines circonstances. A Aubagne l’extension de la communauté d’agglomération en 2008 avait permis de faire passer le montant de la contribution des entreprises de 0,6 % à 1,5 % puis 1,8 %, représentant l’essentiel des recettes et permettant de couvrir la quasi totalité des dépenses du réseau de transports publics. Il en est de même à Niort où les recettes de la billetterie ne représentent que 10 % du financement du réseau, et même seulement 8 % à Dunkerque. Dans ces conditions, on conçoit en effet que l’on puisse envisager de se priver de cet apport relativement marginal tout en boostant la fréquentation du réseau et en incitant les habitants à utiliser davantage les transports en commun, plus économiques et surtout plus écologiques en site urbain dense.

Mais ce cas de figure est loin d’être généralisé. En agglomération parisienne par exemple, la part payée par les usagers (billets et abonnements) représente de l’ordre de 50 % des recettes affectées au réseau de transports en commun. Rendre l’accès gratuit permet certes de faire des économies non négligeables puisque cela permettrait de supprimer quelques 1250 agents affectés au contrôle (mais qu’il faudrait sans doute redéployer pour assurer des missions d’accompagnement et de sécurité auprès des voyageurs) et d’économiser environ 90 millions d’euros par an sur la billetterie et les dispositifs de contrôle.

Mais les autorités organisatrices de transports se verraient alors privées d’une part importante de leurs ressources alors que leur problématique principale est actuellement d’investir toujours davantage pour mieux entretenir et moderniser le réseau et le matériel, fiabiliser et densifier la desserte, mais aussi prolonger les lignes au fur et à mesure que l’urbanisation progresse, et ceci pour tenter de répondre aux besoins des usagers dans un contexte de réseau totalement saturé.

Quai du RER A à Paris : on approche de la saturation… (photo © AFP)

Le contexte n’est d’ailleurs pas très différent dans l’aire métropolitaine marseillaise. Certes, le goût bien ancré des populations locales pour la voiture individuelle nécessite des approches volontaristes pour inciter chacun à utiliser davantage les réseaux de transports en commun. La gratuité du service peut y contribuer, au moins dans une période transitoire et lorsque le contexte le permet. Elle présente néanmoins le grave inconvénient de se priver d’une source généralement importante de recettes alors que la problématique principale est d’investir davantage pour développer et adapter l’offre de transports publics aux besoins.

Comme souvent en matière de gestion des services publics, les choses ne sont pas si simples qu’il n’y paraît et l’optimum revient souvent à mobiliser en parallèle plusieurs leviers complémentaires, selon un dosage qui peut être très variable selon le contexte local…

L.V.  

Déchets d’Alteo : un nouveau front judiciaire

7 septembre 2017

Benoît Hamon et Manuel Valls lors du débat des Primaires, le 25 janvier 2017 (photo © Bertrand Guay / AFP)

A Gardanne, l’usine Alteo de production d’alumine n’en finit pas de jouer les vedettes et d’alimenter les polémiques. Elle a même été source de débat entre les deux finalistes de la Primaire socialiste en vue des dernières élections présidentielle, à l’occasion de leur débat télévisé le 25 janvier 2017. Ce jour-là, Benoît Hamon accusait ouvertement l’ex Premier ministre Manuel Valls d’avoir cédé au poids des lobbies industriels en ordonnant au Préfet des Bouches-du-Rhône d’accorder à l’usine Alteo une dérogation pour poursuivre pendant 6 ans supplémentaires le rejet en mer de déchets industriels toxiques, chargés en métaux lourds, arsenic, soude et alumine, très au-delà des normes acceptables.

A l’époque, l’affaire avait fait du bruit car la ministre de l’écologie, Ségolène Royal, était fermement opposée à cette dérogation qui permettait à l’usine de Gardanne de continuer à déverser ses déchets liquides en mer au large de Cassis, au mépris des conventions internationales. Ségolène Royal avait alors dû avaler son chapeau face à un Manuel Valls déclarant péremptoire : « Je gouverne, je décide, chacun doit être à sa tâche avec l’esprit et le sens du collectif ». Circulez, il n’y rien à voir…

Olivier Dubuquoy, fondateur de Nation Océan

Sauf que tout le monde ne se contente pas de cet acte d’autorité d’un Premier ministre imposant ses décisions à un ministre dans un domaine qui ne relève pas de sa compétence. L’association ZEA / Nation Océan, présidée par Olivier Dubuquoy, a ainsi tenté d’obtenir le compte-rendu de la fameuse réunion interministérielle du 13 novembre 2015 au cours de laquelle Manuel Valls a imposé sa décision.

Mais les services de Matignon ont fait la sourde oreille et il a fallu une injonction de la Commission d’accès aux documents administratifs, le 31 mars 2016, pour qu’il reçoive enfin un extrait à moitié caviardé du fameux compte-rendu, comme s’il s’agissait d’un dossier classé confidentiel défense. La Canard enchaîné s’est empressé de publier le torchon en question, duquel il manquait l’essentiel, à savoir les arguments ayant conduit à prendre une telle décision en totale contradiction avec les engagements de la France pour la protection de la Méditerranée et les nombreuses études alarmistes démontrant l’impact des rejets sur le milieu naturel et la santé humaine.

Le site d’Alteo à Gardanne, en septembre 2016 (photo © Boris Horvat / AFP)

L’association poursuit donc sa quête et a déposé, via son avocate, une requête auprès du Conseil d’Etat pour tenter d’accéder au document si jalousement protégé. De leur côté, plusieurs associations environnementales, parmi lesquelles Surfrider Foundation, France Nature Environnement, Sea Shepherd et la Ligue de protection des oiseaux, ont déposé un recours contre l’arrêté préfectoral du 28 décembre 2015 qui autorise Alteo à poursuivre jusqu’en 2021 le rejet en mer de ses effluents liquides.

Et ce n’est pas tout puisqu’un autre recours a été déposé le 19 juin dernier devant le Tribunal administratif de Marseille par des habitants de Bouc-Bel-Air, riverains du site de Mange-Garri où Alteo entrepose ses résidus industriels. Le site servait déjà de lieu de stockage des boues rouges avant que l’usine, alors aux mains de Péchiney, décide en 1966 de s’en débarrasser en les expédiant directement en mer via une canalisation de 50 km de long.

La zone de stockage de Mange-Garri, à Bouc-Bel-Air, en septembre 2016 (photo © Boris Horvat / AFP)

On ne fait pas d’omelette sans casser des œufs et, bien sûr, on ne produit pas d’alumine, si utile pour la construction de téléphone portables ou de batteries de voitures électriques, sans produire des déchets. Pour obtenir une tonne de la précieuse poudre blanche qui se négocie à 3 000 €, il faut compter deux tonnes de bauxite, un minerai désormais importé de Guinée, quatre tonnes de charbon et une tonne d’eau. Et, comme rien ne se perd, il y a forcément du déchet : les fameuses boues rouges…

Pour limiter les volumes déversés en mer, l’industriel a bien été obligé de rechercher des solutions, sous forme de filtres-presse, largement subventionnés par des fonds publics, qui permettent de concentrer les déchets liquides, toujours expédiés dans la Méditerranée, en les séparant des résidus solides qui du coup sont entreposés à l’air libre sur le site de Mange-Garri.

Vue aérienne du site de stockage de Mange-Garri (source © Reporterre)

Mais ces dépôts ne sont pas sans causer des nuisances voire un risque sanitaire pour le voisinage, comme l’a confirmé une étude de l’Agence nationale de sécurité sanitaire en janvier 2017. En effet, les poussières rouges chargées d’arsenic et faiblement radioactives qui s’envolent du site se révèlent toxiques pour le voisinage tandis que des cas de pollutions de la nappe phréatique sous-jacente ont obligé les autorités à prendre des mesures de restriction d’usage dans les forages voisins.

Voilà qui n’est pas très rassurant pour les riverains, lesquels demandent donc à Alteo de protéger davantage cette aire de stockage des boues rouges en goudronnant les accès et en limitant l’envol des poussières, tout en essayant de végétaliser les zones de dépôts en fin d’exploitation, si tant est que des espèces végétales puissent pousser sur un sol riche en métaux lourds et en arsenic…

Nicolas Hulot, interpellé sur le dossier des boues rouges… (source Made in Marseille)

Ces différents recours sont plutôt embarrassant pour le nouveau ministre de la transition écologique et solidaire, un certain Nicolas Hulot qui, pas plus tard qu’en 2012, signait des deux mains une pétition virulente exigeant l’arrêt immédiat des rejets de boues rouges dans le Parc national des Calanques alors en cours de création.

Maintenant qu’il est au gouvernement, sa position s’est fortement nuancée et il se montre beaucoup plus attentif au sort des 400 salariés du site d’Alteo, à l’image de l’inamovible maire communiste de Gardanne, Roger Meï, qui à 81 ans se définit désormais dans Libération comme « écococologiste » – comprenne qui pourra – et qui se réjouit en contemplant avec gourmandise les 40 hectares du site industriel d’Alteo : « Tant que ça fume, cela veut dire qu’il y a du boulot ».

Tant pis pour les dépôts de mercure et d’arsenic qui continuent de s’entasser sur les fonds marins des calanques de Cassis : les générations suivantes se débrouilleront avec…

L.V. 

Gardanne valorise ses friches minières

22 août 2017

La ville de Gardanne fait partie de ces terroirs durablement marqués par l’extraction minière. Dès le 18e siècle, de nombreux habitants de la région s’adonnaient à l’exploitation du charbon de terre pour pallier la rareté du bois de chauffage. Au début du 19e siècle, on compte ainsi déjà plus de 80 puits de mines en activité et sans doute 200 déjà abandonnés.

L’arrivée du chemin de fer accélère le mouvement et les années 1880-90 voient à la fois le creusement du premier puits de mine moderne au coeur de la cité minière de Biver, et l’installation de l’usine Péchiney d’alumine, qui profite du lignite de Gardanne et de la bauxite extraite dans le bassin minier varois tout proche. C’est cette même usine qui sera à l’origine des rejets en mer de boues rouges dans les années 1960 et qui défraie toujours la chronique sous son nouveau nom d’Alteo. Après la deuxième guerre mondiale, enfin, est édifiée la centrale thermique de Meyreuil, alimentée par le lignite dont l’extraction bat alors son plein à Gardanne.

Mais tout cycle minier a une fin. L’exploitation du lignite de Gardanne stagne à partir des années 1960. Soutenue artificiellement pour des raisons politiques, la production s’effondre à partir des années 1990 et le dernier puits ferme en 2003. Alors que l’industrie minière employait jusqu’à 6500 personnes au début des années 1950, à une période où le site attirait une forte population de travailleurs immigrés, et encore autour de 2000 après la relance de l’activité impulsée en 1981, il ne restait plus que 600 à 700 mineurs encore employés au moment de la fermeture du dernier site.

Depuis, la ville de Gardanne s’efforce de retrouver un nouveau souffle, à l’image du bassin d’emploi voisin, qui s’étend sur les communes de Peynier, Fuveau et Rousset, où s’est développée depuis les années 1960 une activité industrielle florissante axée sur la micro-électronique. L’histoire de cette zone d’activité est d’ailleurs très intéressante car liée étroitement au déclin de l’extraction minière comme l’a bien analysé Olivier Lambert, professeur à l’université d’Aix-Marseille et spécialiste de l’histoire industrielle locale.

Zone industrielle de Peynier-Rousset vue d’avion (source : Pays d’Aix développement)

Cette zone industrielle de Peynier-Rousset, créée en 1961, est en effet située dans le même bassin minier que Gardanne, situé à une quinzaine de km seulement. Les premiers puits pour l’exploitation du lignite y ont été creusés à partir de 1912 et une usine de production d’alumine y est construite à partir de 1917 par les Norvégiens de la Norsk Aluminium Company qui ont bien repéré l’intérêt des lieux, situés à proximité des futures mines de lignite en cours d’aménagement, de la vallée de l’Arc, source d’eau abondante, et de la voie ferrée Carnoules-Gardanne, pourvoyeuse de la bauxite varoise.

Mais en décembre 1918, alors que le creusement des puits atteint 425 m de profondeur, l’eau de la nappe s’engouffre brusquement dans les travaux miniers et ruine définitivement toute velléité d’exploitation houillère. Echaudés par cet échec industriel, les Norvégiens se retirent également. De nouveaux projets industriels sont bien relancés dans les années 1940 pour valoriser l’usine d’alumine en vue de produire des carburants de synthèse puis du gaz de ville, mais sans succès et en 1949, l’ensemble des terrains et des bâtiments est racheté par les Houillères du bassin de Provence, issues de la nationalisation des mines de charbon décidée à la Libération.

Ce sont donc les Houillères qui seront à l’origine de la création de la zone industrielle de Peynier-Rousset, la première des Bouches-du-Rhône, en 1961, déjà dans une perspective de reconversion pour pallier la baisse d’activité inéluctable de l’extraction du lignite de Gardanne. Fortement aidée à coup de subventions publiques et malgré certaines implantations durables comme celle de Volvic qui y produit son jus de fruit Oasis avec l’eau du puits de l’Arc, la zone industrielle vivote pendant une vingtaine d’années, tenue à bout de bras par les Houillères.

En 1979, la zone industrielle prend enfin son essor avec l’arrivée d’Eurotechnique, issu d’une association entre les Américains de National Semiconductor et le Français Saint-Gobain. La première usine de fabrication de puces électroniques au silicium est construite à Rousset. Elle passera en 1983 dans le giron de Thomson avant de rejoindre en 1987 SGS-Thomson, une nouvelle société franco-italienne de semi-conducteurs qui prendra plus tard son nom actuel de STMicroelectronics.

Effectifs des Houillères et de la zone industrielle de Rousset entre 1945 et 2010 (source : O. Lambert / revue Rives, 2013)

Depuis, ce site est devenu un pôle d’activités prospère tourné vers la microélectronique et les nouvelles technologies, qui employait en 2013 de l’ordre de 7000 personnes, soit davantage que l’industrie minière de Gardanne à son apogée, sans pour autant qu’il s’agisse d’une véritable reconversion industrielle même si le contexte politico-économique mis en place par l’action des Houillères et les nombreuses aides publiques à la reconversion de cet ex-bassin minier ont fortement contribué à ce succès.

Centre Georges Charpak à Gardanne (source : Ville de Gardanne)

Nul doute en tout cas que la ville de Gardanne souhaite manifestement s’inspirer de cet exemple pour assurer l’avenir de ses propres friches minières. L’inauguration en 2008 du centre de microélectronique Georges Charpak, rattaché à l’école des mines de Saint-Étienne, sur un campus de 6 ha, partie prenante du pôle de compétitivité « Solutions communicantes innovantes », illustre bien cette volonté de s’inscrire dans un environnement technologique en pleine évolution.

Centrale thermique de Meyreuil

En parallèle, la centrale thermique à charbon de Meyreuil, d’abord détenue par une filiale de Charbonnage de France, et désormais dans les mains de l’énergéticien allemand Uniper, tente une conversion difficile d’une des deux unités vers une centrale à biomasse. Le projet, lancé en 2103 et pour lequel ont déjà été investis 250 millions d’euros, devrait permettre à terme de brûler 850 000 t de bois chaque année, issus pour moitié de déchets et pour moitié de coupes de bois. C’est cependant ce dernier point qui inquiète fortement les associations locales de défense de l’environnement puisque cela reviendrait à prélever un tiers du gisement forestier disponible dans un rayon de 250 km… Le Tribunal administratif de Marseille a d’ailleurs annulé, le 8 juin dernier, l’autorisation d’exploitation accordée à la centrale !

Quant aux anciennes installations minières elles-mêmes, la ville tente de les valoriser après avoir racheté en 2006 les emprises du puits Morandat et du puits Z. Les puits ont été au préalable mis en sécurité et obturés en tête par des dalles en béton armé très épaisses pour éviter tout risque d’effondrement. La SEMAG (Société mixte d’aménagement de Gardanne) est ainsi à l’oeuvre pour réaménager les 14 ha de la future zone d’activité qui sera développée autour du puits Morandat, avec pour objectif l’implantations d’entreprises innovantes et de PME axées vers l’économie sociale et solidaire, permettant de générer près d’un millier d’emplois selon les prévisions les plus optimistes.

L’ancien hall des mineurs accueille d’ores et déjà une pépinière d’entreprises tandis que le bâtiment du Parc héberge l’unité territoriale après-mine créée par le BRGM et Charbonages de France pour gérer la mise en sécurité des anciennes mines dans le tiers sud-est de la France.

Le chevalement de l’ancien puits Morandat (source : Ville de Gardanne)

Les travaux de viabilisation ont déjà été lancés en vue d »aménager les premières tranches destinées à l’accueil d’entreprises. Il est notamment prévu la fourniture de chaleur via un réseau qui exploite le gisement géothermique des anciennes galeries minières désormais ennoyées. Une société spécifique, dénommée Énergie solidaire, a été créée pour cela, via une association entre la SEMAG et Dalkia EDF. Elle prévoit un investissement de 4 millions d’euros, la moitié de l’électricité nécessaire pour faire fonctionner la station de pompage étant issue de panneaux photovoltaïques.

Le chevalement du puits Morandat pourrait, quant à lui, être reconverti en un restaurant panoramique tandis que l’ancien vestiaire des mineurs devrait accueillir d’ici 2022 un centre de culture scientifique et technique imaginé dans l’esprit de la Cité des sciences de la Villette à Paris. Bref, les projets ne manquent pas à Gardanne pour valoriser ces anciennes friches minières, sans totalement tourner le dos à un passé dont la ville continue à s’enorgueillir.

L.V.  

La santé a t-elle un prix ?

12 août 2017

Hôpital d’Aubagne (photo © Frédérique Gros / La Provence)

Le sort de l’hôpital public Edmond Garcin d’Aubagne est une nouvelle fois sur la sellette. Soumis à un premier plan de redressement en 2008, qui avait occasionné une forte mobilisation en vue de maintenir opérationnel cet établissement, c’est maintenant son service de réanimation qui est voué à être transféré à la clinique privée de la Casamance selon les conclusions d’un cabinet d’audit, mandaté par l’Agence régionale de santé (ARS).

L’inauguration d’Argilla, organisée tous les deux ans à Aubagne, en a fait les frais le 5 août dernier, perturbée par une centaine de manifestants venus protester contre cette décision fortement orientée puisque le cabinet d’audit Nordmann reconnaît bien volontiers que son diagnostic avait été établi en vue de démontrer qu’un transfert au privé était la meilleure solution, comme le demandait l’ARS.

Banderolle devant l’hôpital d’Aubagne (source : Matin 9)

Face à une attitude aussi partisane, les médecins réanimateurs de l’hôpital d’Abagne ont décisé de relever le gant et de mener leur propre étude d’impact quant aux conséquences qu’aurait, sur le fonctionnement de l’établissement et surtout sur l’offre de soin proposée à la population, le transfert de son service de réanimation et sa transformation en Unité de soins continus come le préconise l’ARS. Leur conclusion est sans appel et radicalement opposée aux hypothèses initiales de l’ARS puisqu’ils considèrent qu’un tel transfert se traduirait par une aggravation du déficit de l’établissement hospitalier et par une dégradation de la qualité de l’offre de soin dont profitent des patients venant non seulement du bassin proche estimé à 180 000 habitants mais parfois aussi du Var.

Cette lutte incessante et fortement idéologique entre public et privé pour l’organisation des soins de santé va bien au-delà du seul cas de l’hôpital d’Aubagne. Elle agite fortement nos amis canadiens fermement attachés à une offre de soin publique et qui constatent avec effarement la dérive du système américain, largement aux mains du privé et qui se révèle être l’un des plus mauvais du monde en termes d’efficience. Alors que des pays comme la France ou le Canada consacrent grosso modo 10 % de leur richesse nationale à la santé, ce taux grimpe à plus de 17 % aux Etats-Unis alors que la proportion de ceux qui n’ont pas accès aux soins y atteint des sommets…

Dessin de Lardon

Alors que ce pays se déchire autour de l’avenir de la loi santé et du dispositif Medicaid mis en place par la volonté de Barak Obama et que son successeur, Donald Trump, fait tout pour renvoyer dans les oubliettes de l’histoire, un livre fort intéressant, intitulé « An American sickness », vient mettre en évidence le point faible du système sanitaire américain : son coût totalement exorbitant !

Elisabeth Rosenthal, auteur de An American sickness

L’auteur de cette étude, l’ex-médecin devenue journaliste, Elisabeth Rosenthal, dresse en effet un tableau assez effrayant d’un système de santé entièrement privatisé où les décisions ne sont plus prises par le personnel médical en fonction de règles d’éthique et en vue de favoriser le bien-être des patients, mais par des gestionnaires qui répondent avant tout aux intérets de leurs actionnaires en cherchant à maximiser les profits à court terme et le retour sur investissement.

Exactement le modèle que cherchent à imposer les fonds d’investissement qui détiennent désormais une part importante des plus de 1000 établissements hospitaliers privés actuellement opérationnels en France, lesquels accueillent environ un tiers des 45 millions de personnes hospitalisés annuellement dans ce pays.

Un domaine en pleine concentration dans lequel les fonds d’investissement rachètent à tour de bras des établissements aux médecins qui les ont créés, pour les restructurer, pressurer le personnel et maximiser les profits en externalisant nombre de fonctions annexes et souvent en revendant les murs pour fluidifier le capital investi. Le leader actuel est ainsi le groupe australien Ramsay Health Care qui a racheté en 2014 la Générale de Santé et détient désormais quelques 125 cliniques privées en France.

Aux USA, ce qui ressort de l’analyse de la journaliste c’est une formidable dérive des coûts d’hospitatlisation avec une surenchère liée au marketing médical. On choisit désormais son établissement hospitalier en fonction de la qualité architecturale des chambres et parce que le café est offert à l’accueil, ce qui explique que la journée d’hospitalisation peut être facturée 5000 $ ! Une opération de l’appendicite coûte jusqu’à 40 000 $ aux USA et le prix moyen d’un accouchement y dépasse 30 000 $…

Dessin de Schwartz paru dans le livre « La santé publique en questions de Laurent Chambaud en 2017 (source Luc Perino)

Le salaire des médecins y est en augmentation constante et un chirurgien orthopédique américain gagne en moyenne deux fois plus qu’un confrère allemand. Une dérive dont est largement responsable le réseau d’assurances privées puisque c’est lui qui finance l’essentiel du secteur, au détriment du patient dont l’accès aux soins devient de plus en plus difficile.

Face à un tell constat, Elisabeth Rosenthal critique l’acharnement de certains, dont la majorité des élus républicains, à considérer que la santé doit obéir aux seules règles du marché. On ne choisit pas d’être malade et le patient n’est pas seulement un consommateur qui pourrait choisir en toute connaissance de cause tel ou tel traitement. L’exemple américain est de ce point de vue assez instructif quant aux dérives dans lesquelles peut nous mener une conception aussi mercantile de la santé publique telle que souhaitent la pratiquer les cliniques privées françaises, avec parfois la complicité des responsable politiques. A chacun d’être vigilant car nous sommes tous concernés !

L.V.  

Marseille, nouveau roi du coffre-fort numérique ?

22 juillet 2017

Longtemps reconnue mondialement pour son rôle de port colonial, puis pour celui de cerveau de la French connexion et pour sa réputation déplorable de violence urbaine, Marseille tente depuis des années de se forger une nouvelle image de port d’accueil pour le tourisme de la croisière de luxe. Mais c’est dans un tout autre domaine que la ville est en train de connaître un développement inattendu : celui des data centers, ces coffres-forts modernes où sont stockées physiquement les milliards de données numériques que l’on a tendance à imaginer évaporées sur un nuage éthéré, le fameux « Cloud »…

Salle blanche pour le stockage des baies informatiques

Car la tendance actuelle en informatique est d’avoir des ordinateurs de plus en plus puissants mais paradoxalement de plus en plus vides, ce qui génère des flux de données croissant et totalement gigantesques à travers la planète entière. Les logiciels et le stockage de données, qui prend de plus en plus de place, sont désormais hébergés sur des serveurs situés on ne sait où, chez un prestataire informatique qui conserve de manière sécurisée nos données personnelles.

Un tel service d’hébergement des données numériques personnelles (nos photos, la vidéo des premiers pas du petit dernier, nos courriels, nos fiches de paies et autres papiers administratifs, nos fichiers numériques, etc.) est même fourni gratuitement par la plupart des fournisseurs d’accès internet, bien trop contents de récupérer ainsi à bon compte toutes nos données personnelles qui seront ensuite valorisées pour développer des sollicitations commerciales adaptées à nos centres d’intérêts personnels. C’est aussi un service payant qu’offrent de plus en plus de prestataires, tels que la Poste ou la Caisse d’Epargne, sous le nom de « coffres-forts numériques ».

Il s’est ainsi créé un nouveau marché très juteux, celui du stockage sécurisé de données numériques. Du fait de l’importance vitale de toutes ces données numériques qu’il convient d’archiver pour de longue durées tout en en conservant une parfaite traçabilité et en étant sûr de pouvoir les retrouver et les exploiter à tout moment, de nombreux prestataires sont ainsi apparus qui proposent de garantir la disponibilité, l’intégrité et la pérennité de ces données, moyennant juste rétribution…

Comme les château-forts d’antan, ces nouveaux coffres-forts numériques que sont les data centers sont conçus avec de multiples barrières de sécurité successives, ainsi que l’explique Fabrice Coquio, président d’Interxion France, un groupe néerlandais fondé en 1988, qui héberge les serveurs informatiques de plus de 200 clients dont Microsoft, Amazon, Facebook, Twitter, Yahoo, etc.

Comme tout château fort qui se respecte, il faut bien entendu une muraille solide, avec plusieurs niveaux de protections successifs : l’enceinte du bâtiment, protégée par barrières infra-rouges et vidéo surveillance avec détection de mouvement et vision nocturne, le bâtiment lui-même, équipé de sas d’accès sous alarmes, d’accès anti-effraction et de vidéo surveillance, les salles de stockage ensuite, protégées par contrôle d’accès et par système biométrique, et enfin les baies qui sont les systèmes informatiques dans lesquels sont stockées les données numériques, elles-mêmes rassemblées au sein de cubes fermés à l’aide d’un code ou d’un système de clé.

Autout du château s’étendent bien entendu, les douves, matérialisées ici par les systèmes de sécurisation des réseaux, sous forme de fibre noire cryptée qui fait transiter les données grâce à des signaux encodés. Quant aux armées qui gardent le château, ce sont les agents de sécurité habilités qui assurent une veille sur site 24h/24. Enfin, le donjon qui est consitué par le poste de pilotage et de commande par lequel transitent toutes les informations nécessaires à la maintenance du bâtiment.

Les bâtiments du premier data center d’Interxion implanté à Marseille depuis 2015 (source © Interxion)

Reste à savoir où implanter ces châteaux-forts de l’ère numérique. Et c’est là que Marseille se révèle, parmi d’autres, comme un emplacement particulièrement favorable. La présence de 13 câbles sous-marins qui arrivent ici en font en effet un point névralgique pour les échanges digitaux et télécoms entre l’Europe, le Moyen-Orient, l’Afrique et l’Asie. Les grands acteurs du Cloud ont bien repéré cette spécificité et l’activité tend donc à se développer.

C’est ainsi que la société Interxion y a ouvert en 2015 son huitième centre français de stockage, dans les locaux d’un ancien site SFR basé à la Joliette. Un investissement de 45 millions d’euros pour une surface utile qui sera portée à terme à 5 700 m² et une puissance électrique installée de 6 MW. Et ce n’est pas fini puisque cette société, numéro 2 mondial, qui exploite désormais 45 data centers à travers l’Europe, compte ouvrir deux nouveaux sites marseillais mitoyens, dans le secteur du cap Janet, à l’Estaque.

La halle Freyssinet du Cap Janet et la base U-boot attenante (photo © Kariyou)

Une maquette du futur centre MRS2 dans la halle Freyssinet rénovée (source © Interxion)

Le premier, dont la première pierre vient d’être posée à l’occasion d’un grand raout officiel en présence de Jean-Claude Gaudin, de Gérard Gazay et de Christine Cabau-Woehrel, présidente du Grand Port maritime de Marseille, se développera dans les locaux désaffectés des anciens ateliers de réparation navale Fouré-Lagadec, inoccupés depuis 1995. Il s’agit d’une vaste halle Freyssinet, c’est à dire conçue sur le modèle du gigantesque hangar à trois nefs surmontées de voûtes cylindriques minces que l’ingénieur Eugène Freyssinet avait conçu et réalisé en 1929 pour abriter les voies de la gare d’Austerlitz. Un ouvrage de référence, inscrit depuis 2012 au titre des monuments historiques, et dont la conception a inspiré un très grand nombre de hangars militaires, aéroportuaires et industriels à travers tout le pays.

Sur ce site, la demande de permis de construire a été déposée en vue d »aménager courant 2017 dans ce bâtiment 4 000 m² de salles blanches destinées au stockage sécurisé de données informatiques, et ceci pour un coût d’investissement évalué à 70 millions d’euros.

Vue aérienne du site de la base de sous-marins après la guerre

Quant au troisième site convoité par Intexion qui souhaite y aménager 10 000 m² de stockage supplémentaire, il s’agit ni plus ni moins que du bâtiment voisin, une ancienne base de sous-marins allemands datant de la seconde guerre mondiale, le « U-bootbunker Martha ». En réalité, cet imposant complexe en béton armé de 208 m de longueur et 45 m de largeur, dont la construction a été lancée en janvier 1943 et qui devait accueillir une vingtaine de sous-marins militaires, n’a jamais servi. Les travaux ont été stoppés en août 1944, suite au débarquement allié en Provence, avant même que le chenal d’accès des sous-marins ne soit creusé. La bâtiment n’a donc jamais été opérationnel, sauf ponctuellement pour y assurer la détention de prisonniers de guerre allemands, dont les fresques dessinées sur les murs peur meubler leur captivité sont encore visibles sur les parois.

Ce bâtiment, resté en l’état depuis sa construction, intéresse a plus haut point l’amateur de châteaux forts qu’est le directeur de la société Interxion. Véritable bunker massif construit sur le modèle des bases de Lorient, Brest et La Rochelle, il est surmonté d’une dalle de toit en béton armé de près de 6 m d’épaisseur, capable de résister à des bombes d’une tonne comme la Royal Air Force en avait fait l’expérience à Lorient. Quant aux murs, leur épaisseur varie entre 90 cm et 2,85 m pour ceux qui sont situés face à la mer et qui étaient susceptibles d’être bombardés depuis le large.

Une structure parfaitement adaptée donc à l’usage envisagé, d’autant que les salles de maintenance prévues par les ingénieurs allemands à l’étage, pourront facilement être aménagées en salles blanches. Une belle opportunité également pour le Grand Port maritime de Marseille qui se demande depuis plus de 70 ans ce qu’il pourrait bien faire de ce vestige historique aussi délabré qu’encombrant et dont la déconstruction coûterait une fortune. Une petite inquiétude néanmoins pour l’approvisionnement en électricité de ce château fort futuriste qui aura besoin en permanence d’une puissance électrique de 8 mégawatts, à comparer aux 50 MW que consomment l’ensemble des serveurs informatiques de Google et aux 100 MW produits par une tranche de réacteur nucléaire. De quoi se rappeler que le numérique commence à prendre une part non négligeable dans notre empreinte carbone globale…

L.V.  

Alternatives économiques : l’éco pour les nuls !

7 juillet 2017

Fondé en 1980 par l’économiste Denis Clerc en réaction au fameux slogan de Margaret Thatcher, « There is no alternative », le magazine Alternatives économiques, plus connu par les habitués sous son petit nom d’Alter Eco, est devenue une référence pour tous ceux qui ne sont pas complètement séduits par la doxa dominante du néolibéralisme le plus débridé. Edité par une société coopérative et diffusé à raison de 90 000 exemplaires payants chaque mois en moyenne, c’est devenu le deuxième magazine économique le plus lu en France, après Les Echos : une véritable référence donc en la matière qui vise à concilier le social et l’économique, dans un format très pédagogique et qui s’adresse à un très large lectorat.

Le dernier numéro d’Alter Eco va encore plus loin dans l’art de rendre accessible à tous certaines notions apparemment obscures qui font que le domaine de l’économie passe généralement pour rébarbatif et réservé aux seuls initiés. Le dossier du mois est en effet intitulé « Les (gros) mots de l’économie ». Trappe à liquidité, destruction créatrice, stagnation séculaire ou aléa moral : autant de termes parfaitement abscons pour qui n’a pas suivi un master d’économie ou ne sort pas de 2 mois de révisions fébriles en prévision de passer son bac en série ES.

L’idée de la réadction pour rendre abordable ces notions est non seulement de les expliciter par un texte d’une page, parfaitement limpide et souvent plein d’humour voire de poésie (Ah, le poéme en alexandrins sur la stagnation séculaire, un bijou d’anthologie !), mais surtout de demander à des dessinateurs d’illustrer chacune de ces notions par une planche de bande dessinée.

Le résultat est totalement bluffant et il faut vraiment se précipiter sur ce numéro double juillet-août d’Alter Eco qui assurément devrait devenir collector. Un exemple parmi d’autres pour vous donner envie de lire ce dossier où vous découvrirez aussi que la maladie hollandaise n’a rien à voir avec la frénésie pathologique de notre dernier Président de la République à escompter une soudaine et bienvenue inversion de la courbe du chômage, et où vous apprendrez stupéfait que ce bon vieux Adam Smith, outre le fait qu’il pourrait commettre des maladresses s’il se retrouvait de nos jours dans une rame de métro, n’a jamais vraiment assimilé le marché à une main invisible autorégulatrice comme on le lui attribue généreusement (et de manière perfide).

Un extrait du n° 370 d’Alternatives économiques…

Sur les externalités négatives, par exemple, l’explication est des plus limpides, basée sur l’exemple de l’agriculteur qui booste sa production à grands coûts de pesticides, provoquant pollution des nappes et des cours d’eau, avec toutes les répercussions environnementales et sanitaires qui en découlent, mais dont les coûts induits n’entrent évidemment en rien dans le bilan de son exploitation agricole. Une démonstration magistralement illustrée par Fabrice Erre, lui-même enseignant et auteur de bandes dessinées qui tient par ailleurs un blog intitulé Une année au lycée. Une adresse qui mérite le détour également et dont les dessins nous plongent actuellement dans l’ambiance des épreuves du baccalauréat : un petit extrait pour la route :

Dessin signé Fabrice Erre paru sur son blog à la date du 6 juillet 2017

Avec de tels professeurs aussi pédagogues, on se demande bien comment la France a bien pu tomber aussi bas dans le classement international PISA…

L. V. 

Insecticides tueurs d’abeille : Hulot a failli avaler de travers

2 juillet 2017

Lors de l’annonce du premier gouvernement d’Edouard Philippe le 17 mai dernier, peu après l’élection d’Emmanuel Macron à la Présidence de la République, nombreux étaient ceux qui pariaient que le nouveau ministre d’État à la transition écologique et solidaire, l’ex animateur de télé Nicolas Hulot, peu connu pour ses qualités diplomatiques et son art du compromis, ne ferait pas de vieux os à ce poste. Beaucoup se demandaient même s’il arriverait à battre le record de longévité d’Alain Bombard, resté secrétaire d’État pendant 32 jours avant d’être débarqué pour ses déclarations à l’emporte pièce sur la chasse à courre, voire celui de Léon Schwartzenberg, éphémère ministre de la santé de Michel Rocard, éjecté 9 jours après sa nomination pour avoir tenu des propos peu consensuels sur l’euthanasie.

Nicolas Hulot, ministre de la Transition écologique et solidaire (crédit photo Villard / SIPA)

Et pourtant, contre toute attente, Nicolas Hulot non seulement a été confirmé dans ses fonctions lors de la formation du second gouvernement Philippe, mais il est toujours à son poste un mois et demi plus tard, alors que d’autres poids-lourds de cet attelage, dont François Bayrou, Richard Ferrand ou encore Marielle de Sarnez ont déjà mordu la poussière… Pour quelqu’un qui déclarait voilà peu à propose de sa toute nouvelle charge ministérielle « j’espère que ce ne sera pas qu’un job d’été », c’est plutôt encourageant…

Et voilà même qu’il vient d’engranger la satisfaction de voir arbitrer en sa faveur un désaccord majeur avec le ministre de l’agriculture et de l’alimentation, l’ex député socialiste de la Manche, Stéphane Travert. Par comparaison avec les énormes couleuvres avalées par ses prédécesseurs à ce poste ingrat, dont Ségolène Royal qui avait dû laisser Manuel Valls lui imposer de laisser Alteo continuer de déverser en plein Parc national des Calanques ses eaux industrielles riches en métaux lourds et fortement alcalines, c’est donc plutôt un bon début.

Rappelons pour mémoire que les députés avaient adopté en mars 2016, à l’occasion de l’examen en deuxième lecture à l’Assemblée nationale de la loi Biodiversité, un amendement prévoyant d’interdire l’usage des insecticides à base de néonicoticoïdes, dont il a été largement prouvé la nocivité sur le système nerveux des abeilles. Un pas en avant que tous les défenseurs de l’environnement et surtout les apiculteurs attendaient depuis des années en observant année après année l’effondrement des colonies d’abeilles et autres pollinisateurs (bourdons et papillons notamment) : la production de miel qui était d’environ 30 000 tonnes par an il y a 20 ans, a péniblement atteint 15 000 tonnes en 2015…

Des ruches françaises de moins en moins productives (infographie AFP)

La particularité de ces substances actives (clothianidine et imidaclopride, produites par Bayer, et thiaméthoxame synthétisé par la firme Syngenta), commercialisées notamment sous les noms de Gaucho et Cruiser, est qu’elles ont un effet systémique, c’est à dire qu’elles envahissent tout le système de la plante, de la sève au pollen. Il suffit donc d’en enrober les graines pour contaminer toute la plante durant toute sa croissance, ce qui évite à l’agriculteur d’avoir ensuite à traiter ces cultures par des aspersions répétées comme avec d’autres produits.

Le gain de temps et les économies qui en résultent expliquent pourquoi ces insecticides ont été autant plébiscités jusqu’à constituer désormais un tiers des insecticides utilisés dans le monde. On l’utilise en particulier pour protéger les cultures de blé, d’orge ou de betterave contre les attaques de pucerons verts. Le hic, c’est que les pollinisateurs qui viennent butiner sur ces champs absorbent ces substances qui ont une action nocive puissante sur leur système nerveux et les désorientent, leur empêchant de rejoindre leur colonie, d’où la perte constatée de plus de 300 000 ruches chaque année, une véritable hécatombe qui ne se limite bien évidemment pas aux seules abeilles domestiques mais touche tous les insectes pollinisateurs.

En 2013 déjà, la Commission européenne avait décidé de limiter l’utilisation professionnelle de produits phytosanitaires contenant des substances actives de la famille des néonicotinoïdes sur certaines cultures et également d’interdire la mise sur le marché de semences traitées ainsi que les utilisations non-professionnelles. Il lui avait bien fallu en effet tenir compte de l’avis de l’Autorité européenne de sécurité sanitaire des aliments (AESA) qui avait constaté, au vu des inombrables études scientifiques concordantes sur le sujet, l’effet désastreux de ces substances sur les populations d’abeilles.

A l’époque, ces restrictions d’usage, entrées en vigueur au 1er décembre 2013, portaient sur 75 cultures différentes dont notamment des cultures fruitières (abricots, poires, pommes, pêche et nectarines, prunes), des cultures de fruits à coque (noix, noisettes amandes) ou des cultures de fruits rouges (fraises, myrtilles), jugées particulièrement attractives pour les abeilles. Mais il ne s’agissait que d’un moratoire temporaire car de nombreux pays, dont le Royaume-Uni en pointe sur ce dossier, s’étaient alors battus bec et ongles pour empêcher toute mesure d’interdiction définitive.

C’est donc en attendant que l’Europe se mette d’accord sur des mesures plus fermes sur le sujet que la France a débattu de la question à l’occasion du vote de la loi Biodiversité, d’autant que ce moratoire na manifestement pas eu les effets escomptés puisque les ventes d’insecticides néonicotinoïdes ont bondi en France, passant de 387 tonnes en 2013 à 508 en 2014, soit un gain de 31 % en un an !

Le débat a été houleux en 2016, avec même une intervention du ministre de l’agriculture Stéphane Le Foll, fortement aiguillé par les principales fédérations professionnelles agricoles des producteurs de blé, de maïs, d’oléagineux et de betteraves incitant par courrier les députés à ne surtout pas décider d’interdiction brutale de ces produits jugés indispensables pour garantir la compétitivité des filières. Il s’était finalement soldé par une interdiction à compter du 1er septembre 2018 sur l’ensemble des cultures mais avec possibilité d’accorder des dérogations jusqu’en 2020, histoire de laisser du temps à chacun de s’adapter, et éventuellement aux changements de majorité de revenir en arrière…

Stéphane Travert, ministre de l’agriculture et de l’alimentation crée le buzz en annonçant vouloir revenir sur l’interdiction prochaine des néonicotinoïdes (crédit photo BFMTV)

C’est bien d’ailleurs ce qui a failli se passer puisque dès sa nomination au ministère de l’agriculture et poussé par les lobbies agricoles et de l’agrochimie, Stéphane Travert est aussitôt monté au créneau en déclarant le 26 juin 2017, moins d’une semaine après son entrée en fonction, vouloir revenir sur cette interdiction prochaine des néonicotinoïdes, qu’il juge excessive par rapport aux obligations européennes et surtout gênante pour les intérêts de la profession.

Cette déclaration a aussitôt fait bondir son collègue Nicolas Hulot qui a immédiatement tweeté qu’il n’était pas question de revenir sur les engagements votés il y a un an, et déclarant : « Nous ne reviendrons pas sur ces acquis. Je veux être le garant de ce qu’ont fait mes prédécesseurs ». Sur un tel sujet, on ne l »imaginait pas en effet se déjuger lui qui avait toujours été en pointe dans ce combat contre les insecticides tueurs d’abeilles. En revanche, la position du chef du gouvernement, Edouard Philippe, était plus attendu. Cet ancien directeur des affaires publiques d’AREVA est en effet réputé peu sensible aux questions environnementales, au point d’avoir voté contre la loi Biodiversité en 2016, et contre la loi sur la Transition énergétique.

Et pourtant, ce même Edouard Philippe a signifié le jour même à son ministre de l’agriculture que le débat avait déjà été tranché et qu’il n’était pas question de revenir en arrière sur cette interdiction prochaine des insecticides néonicotinoïdes. Première victoire donc pour le nouveau ministre Nicolas Hulot, mais nul doute que le combat ne fait que commencer et qu’il aura d’autres occasions de monter au créneau pour éviter d’avaler trop de couleuvres sur les nombreux chantiers qui s’ouvrent devant lui… Pas de vacances donc pour Monsieur Hulot !

L. V.  

Fondation Louis Vuitton : merci les contribuables !

24 juin 2017

Jeunes Chinoises accro aux sacs Louis Vuitton…

LVMH : Louis Vuitton Moët Hennessy… Des lettres qui symbolisent le summum du luxe à la française, destiné à tous les snobinards de la planète, du riche émir qatari au parvenu de la mafia russe en passant par tous ces riches touristes asiatiques qui se pressent sur les Champs-Elysées pour acquérir à prix d’or un sac siglé destiné à exposer à tous leur réussite sociale.

Le groupe date de 1987, créé par le rapprochement de la firme Louis Vuitton, spécialisée en maroquinerie de luxe et issue d’une fabrique de malles fondée en 1854, et de la société de spiritueux qui regroupe des marques prestigieuses comme le cognac Hennessy (qui s’exporte depuis 1859 en Chine), mais aussi le champagne Moët et Chandon et la marque de parfums Christian Dior rachetée au groupe Boussac peu auparavant.

Bernard Arnault, PDG du groupe LVMH, en 2015 (photo © Eric Piemont/AFP)

C’est ce dernier fleuron du luxe français qui attise la convoitise du requin de la finance qu’est Bernard Arnault, lequel venait d’acquérir en 1984 ce qui restait de l’empire textile Boussac – Saint Frères. Dès 1989, Bernard Arnault prend ainsi le contrôle de LVMH, via la Financière Agache, et rassemble sous le nom de holding Christian Dior, les activités liées au parfum et à la haute-couture, qui s’enrichissent en 1997 à l’occasion de l’acquisition de Sephora. A l’issue d’une bataille juridico-financière féroce, l’impitoyable Bernard Arnault se débarasse progressivement des autres actionnaires et devient propriétaire principal du groupe LVMH en 1990. Tout le reste de l’histoire de cette société n’est qu’une longue succession d’OPA hostiles et de rachats à la hussarde pour permettre aux groupe de racheter des marques réputées et s’imposer progressivement comme le géant mondial du luxe.

L’affiche du film de François Ruffin, à charge contre Bernard Arnault

Détenu à 46,7 % par Bernard Arnault, son PDG, le groupe LVMH emploie de l’ordre de 125 000 personnes dans le monde, détient près de 4000 magasins disséminés à travers la planète et a engrangé en 2016 un chiffre d’affaire de 37,6 milliards d’euros. Champion de l’optimisation fiscale, LVMH serait le groupe français qui détient le plus de filiales implantées dans des paradis fiscaux, avant même BNP Paribas, pourtant assez fort dans ce domaine. Le groupe s’est également diversifié dans les médias, en rachetant notamment Les Echos et Le Parisien, histoire de manipuler l’opinion publique au gré de ses intérêts, tout en pesant de tout son poids sur les autres médias via le marché publicitaire de ses marques de luxe, LVMH constituant le principal annonceur publicitaire en France…

Epinglé par le journaliste et désormais député La France insoumise, François Ruffin, dans son film satirique « Merci, patron ! », le milliardaire Bernard Arnault se défend mollement en reconnaissant que « le groupe LVMH est l’illustration, l’incarnation de ce que, pour ces observateurs d’extrême gauche, l’économie libérale produit de pire ». Et voila que certains commencent à s’interroger sur les dessous d’une autre affaire qui concerne cette fois la Fondation Louis Vuitton.

Créée en 2006 pour faire contrepoids à la fondation installée dans l’ancienne Bourse du Commerce, à deux pas des Halles qui est dirigée par son rival de toujours, l’autre milliardaire François Pinault, la Fondation Louis Vuitton se présente comme un outil de mécénat artistique, né de la rencontre avec l’architecte Franck Gehry, concepteur du musée Guggenheim à Bilbao. Grâce à son entregent et en moins de 2 mois, le patron de LVMH obtient que la Ville de Paris lui cède gratuitement une parcelle de 1 ha dans le Bois de Boulogne pour une durée de 55 ans. Le permis de construire, qui fera l’objet d’un recours jusque devant le Conseil d’État, mais en vain, est attribué en un temps record et la starchitecte Franck Gehry peut laisser libre court à son imagination délirante pour concevoir ce que les observateurs qualifient selon leur inspiration de « bateau à voile », de « baleine-obus » ou de « nuage ».

Le bâtiment de la Fondation Louis Vuitton (source FLV)

Achevé fin 2013, le bâtiment bénéficie d’une inauguration en grandes pompes le 27 octobre 2014 en présence du chef de l’État, François Hollande, lequel a préféré venir inaugurer cet établissement privé plutôt que le Musée des Confluences à Lyon, comprenne qui pourra… A l’époque, tout le monde s’extasie devant l’originalité de cet écrin, même si les entreprises chargées de sa construction pour le moins atypique reconnaissent que « jamais un bâtiment n’aura été aussi complexe à construire pour satisfaire le génie d’un architecte ». Il faut recourir aux calculateurs de Dassault Aviation pour dimensionner les milliers de pièces à assembler dont 19 000 plaques de béton fibré toutes différentes et les 12 voiles en verre, moulées sur mesure dans un four spécial.

Inauguration du bâtiment par François Hollande vu par le dessinateur Na !

Un travail de titan qui a un coût, maintenu soigneusement caché… On parle à l’époque d’une facture dépassant les 100 millions d’euros. Mais selon l’universitaire Jean-Michel Tobelem, spécialiste du mécénat d’entreprise et dont la tribune publiée dans Le Monde en octobre 2014 sous le titre « Le mécénat d’entreprise sans la générosité » avait fait quelques vagues, le coût est plutôt de l’ordre de 400 à 500 millions, sans commune mesure avec les 75 millions d’euros qu’a coûté par exemple l’aménagement du Centre Pompidou à Metz. Mais à l’époque chacun n’a d’yeux que pour l’extrême générosité du milliardaire : « C’est un cadeau de Bernard Arnault aux Parisiens », comme le répètent en boucle ses thuriféraires.

Un chantier d’une grande complexité technique (source : Fondation Louis Vuitton)

Mais un cadeau de luxe : selon les dernières estimations dévoilées par Emmanuel Lévy dans l’hebdomadaire Marianne, le chantier pharaonique aurait finalement coûté la bagatelle de 775,8 millions d’euros ! Et ceci sans compter les coûts de fonctionnement qui se seraient élevés en 2015 à près de 80 millions d’euros, quasiment la moitié de ceux du Louvre qui reçoit pourtant 10 fois plus de visiteurs. Rapporté au nombre de visiteurs, cela représente quand même 80 € par tête de pipe. On comprend dans ces conditions pourquoi l’entrée est si chère : 14 € par personne, seuls les enfants de moins de 3 ans pouvant y entrer gratuitement. Dans le monde du luxe, il convient d’apprendre très jeune que tout se paye, et cher…

Le pire c’est que ce sont les contribuables français qui payent la plus grande part de ce geste de générosité du délicieux Bernard Arnault. Grâce aux dispositions législatives issues de la loi Aillagon de 2003, les plus généreuses du monde en faveur du mécénat d’entreprise, 60 % des sommes investies sont déduites de l’impôt sur les sociétés. En 2015, LVMH a ainsi siphoné à lui seul 10 % de l’enveloppe affectée.

Le bâtiment de la Fondation Louis Vuitton coloré par Daniel Buren en mai 2016 (photo © Philippe Guignard / Air Images / Fondation Louis Vuitton)

Et ce n’est pas tout puisque le groupe a également adressé à Bercy une demande de remboursement de la totalité de la TVA payée dans le cadre du chantier, soit la bagatelle de 130 millions d’euros supplémentaire. Au final, c’est donc près de 80 % du coût du projet qui sera payé non pas par le richissime propriétaire de LVMH mais bien par le contribuable français, tandis que le groupe de luxe cultive son image de généreux mécène éclairé qui se glorifie d’avoir réalisé « un acte philanthropique majeur vis-à-vis de Paris ». On reste en effet confondu devant un tel savoir faire en matière de communication…

L.V. 

Trump place les États-Unis au ban de l’humanité

3 juin 2017

Finalement, personne n’aura été capable de convaincre le président des États-Unis, l’insaisissable Donald Trump, que l’avenir de la planète pouvait justifier un minimum de sacrifice vis-à-vis des intérêts économiques américains à court terme. Ce n’est pourtant pas faute d’avoir essayé. Dès leur première rencontre et la poignée de main musclée avec le nouveau président français, Emmanuel Macron, ce dernier avait insisté pour que Donald Trump prenne le temps de la réflexion avant d’annoncer la sortie des États-Unis de l’Accord de Paris, qui avait été adopté par 195 pays à l’issue de la COP 21 en décembre 2015 et était entré en vigueur moins d’un an plus tard, le 4 novembre 2016, après que 146 pays, dont les États-Unis, l’aient ratifié.

Poignée de main entre Donald Trump et Emmanuel Macron lors du sommet de l’OTAN, le 25 mai 2017 à Bruxelles (photo © Reuters)

Le sujet avait été au coeur des discussions lors du sommet du G7 à Taormina où les autres chefs d’États présents avaient tenté de convaincre le magnat de l’immobilier américain, devenu président de la première puissance économique mondiale, que l’avenir de la planète méritait peut-être réflexion. Dans son pays même, de très nombreuses voix, dont celle de sa propre fille Ivanka, s’étaient élevées pour tenter de convaincre le président Trump de revenir sur sa promesse de campagne. Les PDG de très grosses entreprises américaines, dont Facebook, Google, Apple, ou encore Exxon ont également pris position en faveur du respect de l’Accord de Paris qui engage les États-Unis à diminuer d’ici 2015 de 26 à 28 % ses émissions de gaz à effet de serre par rapport à leur niveau de 2005, tout en contribuant au fonds de solidarité destiné à aider les pays émergents dans leur effort d’adaptation. Les maires de 75 villes représentant 42 millions d’habitants, ainsi que les gouverneurs de 12 États abritant 102 millions d’Américains, ont aussi publiquement appelé Trump à respecter cet accord.

Certains avaient d’ailleurs cru déceler lors de l’une de ses intervention post-élection une amorce de revirement sur le sujet mais avaient vite déchanté lorsqu’il était revenu, en mars dernier, sur le dispositif mis en place par Barak Obama pour tenter de limiter le développement des centrales thermiques (Clean Power Plan). Nicolas Hulot, qui n’était alors pas encore ministre de la transition écologique et solidaire n’avait pas mâcher ses mots : « Si un jour la notion d’écocide est reconnue en droit international, Donald Trump sera coupable de crimes contre l’humanité ». Même le pape François y était allé de sa mise en garde…

Le président américain Donald Trump annonçant que son pays allait quitter l’Accord de Paris sur le climat, le 1er juin 2017 à Washington (photo © Brendan Smialowski / AFP)

Mais Donald Trump n’a eu cure de tous ces avertissements et a donc annoncé jeudi 1er juin 2017 que les États-Unis se retiraient dès à présent de l’Accord de Paris, justifiant sa décision par sa volonté de faire passer en priorité les intérêts américains à court terme, devant l’avenir de l’humanité à plus long terme : « J’ai été élu pour représenter les habitants de Pittsburgh, pas de Paris ». On se saurait être plus clair en effet, ni se montrer plus égoïste… Pour quelqu’un qui est à la tête d’une fortune personnelle gigantesque, au point de préférer ne pas loger à la Maison Banche mais plutôt dans l’une de ses luxueuses demeures dont les photos qui circulent sur le net laissent béats, voilà qui en dit long sur son sens des responsabilités…

Une des 120 pièces de la maison de campagne de Donald Trump à Mar-a-lago (Floride)

C’est d’ailleurs le maire de Pittsburgh qui s’en est étranglé d’indignation, au point de rappeler que rien n’empêche les villes américaines de poursuivre leurs efforts et respecter leurs engagements malgré les déclarations du chef de l’État : « En tant que maire de Pittsburgh, je peux vous assurer que nous suivrons les directives de l’accord de Paris pour nos administrés, notre économie et notre avenir ».

Dessin de Kanar publié dans Alternatives économiques

C’est là tout le paradoxe de cette déclaration de Donald Trump qui va en réalité à l’encontre non seulement de l’opinion publique américaine, désormais favorable à plus de 70 % au maintien dans l’Accord de Paris, mais surtout des intérêts de l’économie américaine largement engagée dans la transition énergétique. On considère ainsi que les énergies renouvelables représentent dès à présent de l’ordre de 770 000 emplois aux États-Unis, 10 fois plus que le secteur du charbon que Donald Trump cherche à favoriser, et surtout que la vitesse de création des emplois y est 17 fois plus importante que dans le reste de l’économie américaine.

Un dessin signé JM (source : actu en dessin)

C’est bien d’ailleurs ce qui inquiète les Américains car la décision de Donald Trump risque de les freiner sur ce marché de la transition énergétique dans lequel la Chine s’est, elle, résolument engagée et se pose désormais en leader mondial, aux côtés de l’Union européenne qui, jusque-là, a été en pointe du combat politique contre le réchauffement climatique global. C’est donc peut-être un revirement géostratégique auquel nous assistons actuellement avec cette position totalement incohérente et irresponsable du chef de l’État américain, même si cette décision est davantage une posture électoraliste qu’un choix stratégique.

Car en réalité, cette dénonciation est pour l’instant largement rhétorique, ne serait-ce que parce que la procédure choisie par Donald Trump pour sortir de l’accord, par la voie de la dénonciation, ne sera effective qu’en novembre 2020, soit juste à la fin de son mandat présidentiel ! En revanche, sa portée symbolique est colossale et son impact sur le reste de la planète va être redoutable, en particulier pour les pays les plus pauvres qui comptaient fermement sur le fameux Fonds vert doté annuellement de 100 milliards de dollars pour les aider à engager leur propre transition énergétique et à s’adapter aux effets déjà bien visibles du changement climatique global.

La façade de la mairie de Paris illuminée en vert le 2 juin 2017 (photo © DR)

Pas sûr que le simple éclairage en vert de l’Hôtel de Ville de Paris, décidé illico par Anne Hidalgo, suffise pour contrebalancer les effets d’une telle décision…

L.V.  

La douche écolo qui vous en fait voir de toutes les couleurs

17 mai 2017

Ségolène Royal et Gabriel Della-Monica, le fondateur de Smart & Blue

« L’écologie ne doit pas être punitive » disait Ségolène Royale pour justifier l’abandon totalement injustifiable de l’écotaxe poids lourds. Encore ministre de l’écologie la semaine dernière, comme elle l’était déjà en 1992, l’auteur de cette sentence mémorable serait, aux dernières nouvelles, toujours à la recherche d’un point de chute pour se recaser après que sa candidature à la tête du Programme des Nations Unies pour l’Environnement a été écartée… Pour autant, affirmer que les changements de comportements individuels en faveur d’une meilleure prise en compte des enjeux environnementaux ne passent pas par la contrainte mais par l’adhésion et la conviction, voila assurément une idée qui ne manque pas de bon sens…

Pommeau de douche connecté Hydrao First (photo © Erwan Lecomte / Sciences et Avenir)

C’est ce côté ludique qu’a voulu explorer la jeune entreprise grenobloise Smart & Blue, un nom qui fleure bon le terroir alpin, en développant son dernier produit, elle qui se présente comme le « leader des technologies innovantes et connectées pour une gestion intelligente de l’eau potable », rien que ça ! L’idée, il est vrai ne manque pas d’originalité puisqu’elle consiste ni plus ni moins qu’à prendre sa douche en couleur, grâce à un pommeau intelligent dont les buses sont équipées de LED polychromes qui éclairent l’eau du bain de toutes les couleurs.

L’objectif n’est bien évidemment pas de transformer sa salle de bain en boîte de nuit, mais tout simplement d’inciter à économiser l’eau de la douche. Quand on ouvre le robinet, les LED éclairent l’eau du jet en vert. Jusque là, tout va bien, à condition de ne pas faire couler plus de 10 litres d’eau, un volume normalement largement suffisant pour se laver correctement, comme le savent tout ceux qui ont un jour testé les douches à l’ancienne, constituées d’un simple seau d’eau et d’un récipient adapté, bol en plastique ou calebasse selon les usages locaux.

A partir de ce volume fatidique de 10 l, le jet d’eau passe au bleu. Rien de bien inquiétant encore, mais à partir de 20 l, l’eau de la douche passe au rose, puis au rouge et au-delà de 40 l, le rouge se met à clignoter. Rassurez-vous, il n’arrivera rien de plus grave au-delà, mais après un tel festival de couleur, même le consommateur le plus endurci et le plus rétif aux économies d’eau sera incité à tourner le robinet et à attraper sa serviette pour se sécher. Selon le concepteur du système, le Français moyen n’utilise pas moins de 80 l pour sa douche quotidienne, au point que pour une famille de 4 personnes l’eau de la douche représente près de 40 % de la consommation quotidienne d’eau : l’enjeu n’est donc pas mince !

Répartition de la consommation de l’eau domestique par type d’usage en France (source © Centre d’information sur l’eau)

Bien évidemment, un concept aussi novateur, commercialisé sous le nom d’Hydrao First et déjà récompensé par plusieurs prix  n’a pas besoin d’électricité pour fonctionner car cela rendrait l’empreinte environnementale du dispositif nettement moins séduisante, sans compter le risque d’hydrocution : le système utilise simplement une turbine intégrée qui tourne sous l’effet du jet d’eau et qui fournit l’énergie nécessaire à l’éclairage des lampes. Un dispositif astucieux et par ailleurs totalement branché.

L’appli smart shower

Car bien entendu, un tel bijou de technologie est forcément connecté. Une appli adaptée permet de paramétrer sur son smartphone ses propres seuils de réglage des changements de couleurs mais aussi de suivre l’historique de consommation de ses 200 dernières douches et de comparer sa consommation par rapport à sa douche de référence. De quoi occuper les amateurs de statistiques, et de quoi attiser les conversations familiales car bien entendu l’appli n’est pas en mesure de faire la distinction en fonction de l’utilisateur. Impossible désormais, avec un tel mouchard à la maison, de se prélasser tranquillement sous la ouche sans se faire ensuite vertement remarquer qu’on a sérieusement fait baisser la moyenne familiale et fortement augmenter la facture d’eau et d’électricité.

Suivi de consommation (photo Sciences & Avenir)

Tout se paye en effet et on sait illico en sortant de la salle de bain combien nous ont coûté ces quelques minutes passées sous la douche. Pas autant certes que le pommeau lui-même car ce gadget futuriste est quand même vendu pour près de 90 € et on a intérêt à se doucher souvent pour espérer amortir un jour un tel investissement…

C’est en tout cas une excellente affaire pour son concepteur dont la société vient de recevoir une nouvelle récompense lors d’un salon professionnel qui s’est tenu à Las Vegas en janvier dernier pour ses deux dernières nouveautés Hydrao Drop et Hydrao Loop. Toujours connectée à la même application Smart Shower, cette dernière est un pommeau de douche dont le design très élaboré rappelle vaguement le signe mathématique de l’infini, mais dont les fonctionnalités sont tout à fait comparables à celle du pommeau d’entrée de gamme Hydrao First, avec néanmoins une efficacité accrue en matière d’économie d’eau, pour la modique somme de 169 €.

Hydrao Loop, dernier né de la gamme au look futuriste

On peut bien sûr ironiser sur l’aspect gadget de ces innovations mais on est bien obligé de reconnaitre que son inventeur, l’ingénieur en télécom Gabriel Della-Monica, a su faire d’une idée originale un beau succès commercial. Installée au sein du pôle de haute technologie nano et microélectronique de Grenoble, la société Smart & Blue a mis 2 ans pour développer le produit, disponible à la vente depuis 2015. Deux ans plus tard, la société a déjà embauché plus de 10 salariés et est en plein développement. Quant à la fabrication, elle est sous-traitée à une entreprise industrielle qui favorise l’intégration des travailleurs handicapés : un bel exemple de la French Tech qui réussit en mettant en avant ses valeurs de responsabilité sociale et environnementale. Le cas n’est pas si fréquent et mérite d’être salué !

L.V.

Aires coop et Vue sur Vert, une démarche immobilière éco-responsable

6 mai 2017

A la veille du second tour d’élections présidentielles dont l’environnement a été le grand absent, alors même que les urgences liées à l’adaptation au changement climatique et à la mise en œuvre de la transition énergétique auraient justifié que ces questions soient placées au coeur du débat, saluons l’initiative de cette agence immobilière, Aires Coop, qui se veut coopérative et éco-responsable : tout un programme !

Installée à Marseille, rue Paradis, et créée par deux sœurs, Claire Vergeniolle de Chantal et Sandrine Moreau, cette structure est rattachée à l’agence que cette dernière, ancienne expert comptable, avait fondée en 2010 sous le nom de Cap Patrimoine, spécialisée en conseil de création de patrimoine et dans la transaction de biens de standing en Corse. L’idée qui sous-tend la création d’Aires coop : aider ses clients à acquérir, à Marseille et dans ses environs, un bien immobilier respectueux de l’environnement et accompagner les acquéreurs dans leurs travaux de rénovation énergétique.

Chantier de rénovation à Marseille (architecte Joëlle Burle – source Vue sur Vert)

Aires coop concentre notamment ses activités sur certains quartiers paupérisés de Marseille dont le Panier et la Belle de Mai, pour en faciliter l’accès à des primo-accédants, qui bénéficient dans ces zones de prix encore attractifs pour des logements souvent vétustes où d’importants travaux de rénovation sont à prévoir. L’agence s’investit donc pour aider ces acquéreurs à identifier les possibilités d’aides, via notamment les prêts à taux zéro qui permettent d’assurer les investissements nécessaires en matière d’isolation thermique en particulier. Ainsi, sur un appartement vendu 120 000 € dans le Panier et nécessitant 20 000 € de travaux pour refaire l’isolation et le système de chauffage, il est possible de bénéficier de 13 000 € d’aides directes et de crédits d’impôt, à condition de bien connaître les procédures !

Maison bioclimatique près de Fuveau (source : Aires coop)

L’agence dispose aussi à la vente de biens immobiliers haut de gamme dont une maison d’architecte bioclimatique à ossature bois de 240 m², édifiée sur un vaste terrain boisé situé au pied de la Sainte-Victoire, près de Fuveau. Reconnue « bâtiment durable méditerranéen » par un jury de professionnels, cette villa est un bel exemple d’une construction conçue et réalisée selon une approche environnementale durable, grâce à une insertion soignée dans le paysage, des performances énergétique et une luminosité optimisées par une orientation idéale, ainsi qu’une sobriété extrême en matière d’empreinte environnementale du fait de ses panneaux solaires, sa toiture végétalisée et son système de récupération des eaux de pluie.

Cette agence immobilière un peu atypique vient de s’associer avec un partenaire reconnu dans le milieu de l’architecture durable, Floris Van Lidth, qui a dirigé pendant 6 ans l’association marseillaise EnvirobatBDM, qui œuvre pour la prise en compte des enjeux environnementaux dans la construction et la rénovation du bâti en région Provence-Alpes-Côte d’Azur.

Exemple de bâtiment labellisé BDM : crêche de Vaison-la Romaine (source EnvirobatBDM)

La démarche Bâtiments durables méditerranéens (BDM) est devenue un référentiel de qualité en matière d’éco-construction, créé en 2008 et porté par EnvirobatBDM, en partenariat avec l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) et le Conseil régional PACA. Elle vise notamment à favoriser, dans le domaine du bâtiment, la prise en compte du coût global du projet et pas seulement à minimiser les coûts de construction sans tenir compte des frais de fonctionnement et d’entretien ultérieur, mais aussi à améliorer les pratiques en matière de gestion de projet, alimentées par le retour d’expérience et l’innovation, ainsi que par une valorisation de la responsabilité sociale et environnementale des entreprises.

Lycée Alexandra David-Neel à Digne-les-Bains : une construction BDM de l’architecte SARL Leteissier-Corriol (source EnvirobatBDM)

Floris Van Lidth vient lui-même de créer sa propre structure, joliment dénommé Vue sur Vert, destinée à faciliter le développement de projets immobiliers écologiques. Cette coopération amorcée avec l’agence Aires coop permettra de fournir au client des conseils sur le montage juridique et financier des projets, un appui pour trouver des professionnels du bâtiment spécialisés en matière d’éco-construction, une aide pour la recherche du terrain à bâtir ou du bien à rénover, puis un accompagnement pour le suivi de la conception du projet immobilier et de sa réalisation.

L’émergence sur le marché de tels acteurs locaux incite à penser que la demande de nos concitoyens en matière de constructions plus respectueuses de l’environnement est en train de s’étoffer. C’est plutôt une bonne nouvelle dans un monde où climato-sceptiques et adeptes de la rentabilité à court terme ont tendance à tenir encore largement les rênes du pouvoir. Peut-être un espoir que les mentalités sont en train d’évoluer ?

L.V.  

Qui donc a écrit le programme d’Emmanuel Macron ?

1 mai 2017

On a beaucoup reproché à Emmanuel Macron de ne pas avoir fait l’effort de rédiger un programme cohérent, piochant ses idées à droite et au gauche au gré des opportunités. L’honnêteté oblige à reconnaître que ce n’est pas le cas. Présenté le 2 mars 2017, le programme du candidat d’En marche, désormais en lice pour le second tour de la présidentielle, est au contraire très structuré.

Celui qui en a coordonné l’élaboration : Jean Pisani-Ferry. Un économiste, qui a démissionné en janvier 2017 de son poste de commissaire général de France Stratégie, pour rejoindre à 65 ans l’équipe de campagne d’Emmanuel Macron, de 26 ans son cadet. Peu connu du grand public, cet ingénieur de Supélec qui a été aussi conseiller économique de Dominique Strauss-Kahn et de Christian Sautter au ministère de l’Économie, et expert auprès de la Commission européenne et du FMI, professeur à l’Ecole polytechnique et à l’Université libre de Bruxelles, est issu d’une lignée prestigieuse de grands serviteurs de l’État. Il est en effet le fils de l’ancien ministre du général de Gaulle et de François Mitterand, Edgard Pisani. Il est aussi, comme son nom l’indique, l’arrière petit-neveu de Jules Ferry en personne, excusez du peu…

Jean Pisani-Ferry, le 25 juin 2014 à Paris ( photo © T. A. Clary AFP/Archives)

Nommé en 2013 par François Hollande commissaire général à la stratégie et à la prospective, Jean Pisani-Ferry avait déjà eu l’occasion de travailler avec Emmanuel Macron lors de la campagne de 2012, et ce dernier lui avait confié en 2014, alors qu’il était ministre de l’économie, la rédaction d’un rapport sur « les domaines prioritaires d’investissement ».

Sa rigueur et son honnêteté, que ceux qui le côtoient s’accordent à lui reconnaître, ont fait percevoir sa présence auprès du candidat d’En marche comme un gage de sérieux. D’autant qu’il considère qu’un programme politique ne doit pas être un simple « catalogue de propositions » mais doit correspondre à une vision construite et prospective de l’action politique, comme le détaille un article des Echos qui rapporte ses propos : « Il ne faut pas se tromper de diagnostic. Le candidat ne peut pas tout prévoir, mais je crois beaucoup à ce que les Américains appellent le mandat, le capital politique donné par les électeurs pour être investi dans des choses difficiles ».

Dessin de Miss Lilou

Pour cela, il faut que l’intention du candidat soit clairement comprise. « On vit une époque que l’on peut qualifier de réactionnaire au sens où il y a une croyance que revenir en arrière peut être une solution à nos problèmes », analyse-t-il. « Face à cela, il faut construire l’utopie du monde de demain ».

A une semaine du second tour de la présidentielle, il n’est donc pas inintéressant de s’attacher à la vision de la société de demain que porte Jean Pisani-Ferry. Chargé en 2013 d’élaborer une stratégie à 10 ans pour la France, son rapport remis en juin 2014, est une somme ambitieuse, enrichie de nombreux échanges avec les partenaires sociaux et la société civile, qui balaie l’avenir de la France à l’horizon 2025. S’appuyant sur un diagnostic approfondi de la situation du pays et de ses points d’entrave, la rapport identifie 8 objectifs principaux parmi lesquels le besoin de réconcilier les citoyens avec la démocratie, la nécessité de combattre les discriminations en vue d’une égalité républicaine, le besoin de refonder une politique sociale lisible qui vise le plein emploi effectif, ou encore la mise en oeuvre d’un développement responsable et durable.

25 juin 2014 : Jean Pisani-Ferry remet à François Hollande le rapport prospectif sur la France dans 10 ans (photo © Elysée)

La prospective n’est pas un exercice facile, surtout dans un monde complexe et mouvant. La manière dont les politiques, parmi lesquels Emmanuel Macron, se sont emparés des propositions issues de cette analyse, est naturellement discutable, et chacun aura son opinion sur le sujet. Néanmoins, le diagnostic posé et les pistes explorées, non seulement lors de l’élaboration de ce rapport et des différentes notes thématiques qui le prolongent, mais aussi dans le cadre des débats qui ont été organisés dans de nombreuses villes par France Stratégie pour enrichir les échanges, tout ceci représente une matière à réflexion d’un grand intérêt.

Une interview de Jean Pisani-Ferry, réalisée pour l’association Réso Hebdo Eco en octobre 2016, alors qu’il était encore à la tête de France Stratégie, permet d’en retrouver quelques points saillants. Il y explique notamment comment la situation française du travail s’est dégradée par rapport à d’autres pays européens : non seulement le taux de chômage y est plus élevé (autour de 10 % alors qu’il est plus proche de 5 % chez nos voisins allemands, autrichiens ou danois) mais le taux d’emploi (qui mesure le nombre d’actifs occupés par rapport à la population totale en âge de travailler) y est plus faible : 64 % en France contre 76 % en Allemagne, Suède ou Pays-Bas.

Or, non seulement le travail est plus rare en France, mais les enquêtes montrent que la qualité du travail y est aussi moindre, en termes de rythmes d’activité, de charge de travail, de compatibilité avec la vie familiale ou d’autonomie des salariés. Et ceci alors que la France est l’un des pays qui consacre les moyens budgétaires les plus importants en matière de politique publique de l’emploi : 108 milliards d’euros par an ! Une des causes de faiblesse pointée par Jean Pisani-Ferry est le faible niveau de compétence d’une partie de la population active française, alors que les niveaux de coût salarial du pays exigeraient que la main d’oeuvre soit au contraire au top en matière de compétence professionnelle.

Un des intérêts d’une telle approche prospective sur le long terme est d’identifier les axes sur lesquels il importe d’investir en matière de politique publique en trouvant le bon équilibre entre dispositifs d’ampleur nationale et outils de formation et d’accompagnement pilotés de manière plus locale et plus proche du terrain. Pour répondre à l’ampleur des défis qui nous attendent, que ce soit face au changement climatique, à la nécessaire transition énergétique, au besoin de maintenir une forte cohésion sociale, à la nécessité de renforcer le niveau de formation et de compétence de chacun, les réponses ne peuvent être que globales et de long terme. Elles doivent s’appuyer sur un diagnostic approfondi et partagé, permettant de mobiliser un débat citoyen éclairé.

Bref, tout le contraire des idées simplistes qui laisseraient entendre qu’il n’y a qu’à supprimer l’immigration et sortir de l’Europe pour que, comme par miracle, la prospérité revienne pour chacun. « Il faut lutter contre la trumpisation des débats » dit Jean Pisani-Ferry. Ce n’est sans doute pas inutile en effet…

L.V.