Posts Tagged ‘Economie’

Lidl ou l’enfer du décor !

20 novembre 2017

Elise Lucet, présentatrice de l’émission Cash investigation (source : France Télévision)

L’émission Cash Investigation, produite par l’agence de presse Premières Lignes et présentée sur France 2 depuis 2012 par la journaliste Elise Lucet, n’a pas l’habitude de faire dans la dentelle. Les entreprises qui se trouvent piégées dans le feu des projecteurs y passent généralement un mauvais quart d’heure… Ce fut le cas lors de l’émission diffusée le mardi 26 septembre 2017 qui a atteint des records historiques d’audience avec pas moins de 3,8 millions de téléspectateurs ! Intitulée « Travail, ton univers impitoyable », elle dénonçait notamment les conditions de travail au sein des groupes Free et Lidl.

Chez Free, société créée en 2006 par Xavier Niel et fournisseur low cost d’accès internet, c’est son centre d’appel Mobipel, une filiale de l’opérateur basée à Colombes, près de Paris, qui était dans le viseur des journalistes d’investigation. Les licenciements s’y sont multipliés depuis un débrayage de quelques heures organisé en 2014 : l’émission en a dénombré 248, sur un site qui comptait environ 650 emplois ! Même si le numéro deux du groupe dément tout lien de cause à effet entre les deux, difficile de ne pas y voir la manifestation d’un management pour le moins expéditif…

Extrait de l’émission Cash investigation diffusée le 26 septembre 2017

D’autant que l’entreprise se distingue par un recours très fréquent au licenciement pour faute grave, donc sans versement d’indemnités ni préavis, et ceci pour des motifs « régulièrement jugés abusifs par les tribunaux de prud’hommes ». L’émission cite notamment le cas d’une responsable des ressources humaines elle-même licenciée pour faute grave, au motif qu’elle aurait eu le tort de procéder à des licenciements classiques pour « cause réelle et sérieuse », ouvrant donc droit à des paiements d’indemnités ! Une approche jugée totalement inappropriée par la Direction : depuis quand faudrait-il respecter les procédures et le droit des salariés ?

Quant au groupe de distribution alimentaire Lidl, il en prend sérieusement pour son grade dans cette émission à charge ! La société Lidl est pourtant une vénérable insitution puisque créée en 1930 par un certain Josef Schwarz sous la forme initiale d’un commerce de fruits exotiques aquel il a préféré donner le nom de son associé, Ludwig Lidl, car l’enseigne « Schwarzmarkt », qui signifie « marché noir », aurait pu prêter à confusion…

Enseigne du magasin Lidl de Carnoux-en-Provence

Depuis 1972, le groupe s’est spécialisé dans le hard-discount et possède désormais de l’ordre de 8 000 magasins répartis dans 26 pays. Implanté en France en 1988, Lidl y détient désormais plus de 1 500 points de vente, dont un à Carnoux ouvert en 2013 au Moulin des Calanques, et s’est quelque peu éloigné de son créneau du hard-discount initial, même si l’enseigne mise davantage sur les prix que sur la qualité des produits vendus pour attirer sa clientèle.

Toujours est-il que les conditions de travail pour les quelques 30 000 salariés de la société Lidl France, ne semblent guère enviables : harcèlement, pénibilité, licenciement et même suicide, bienvenue dans l’univers impitoyable du monde de la grande distribution… Une séquence en particulier a choqué les téléspectateurs : dans une conversation enregistrée entre un chef de magasin Lidl et son manager, ce dernier se met à hurler des menaces à l’attention de son subordonné : « Si je viens et que le magasin est mal tenu, je te promets que toi et moi on se verra toutes les semaines. Ça va être à feu et à sang. Je te mettrai six jours de mise à pied à longueur de temps, tu vas mourir ». Voilà qui dénote incontestablement une ambiance de saine émulation et de franche camaraderie au sein de l’entreprise…

Chez Lidl, comme dans de nombreuses autres entreprises sans doute, tout est fait pour augmenter la productivité, sans trop se préoccuper du bien-être des salariés, considérés avant tout comme des ressources jetables. On y excelle ainsi dans la polyvalence imposée aux caissières, ce qui permet d’éradiquer les temps morts et de réduire au strict minimum le personnel.

Dans les coulisses du monde du travail (source : Premières lignes)

On y a aussi développé la commande vocale qui règne en maître dans les entrepôts où une machine dicte aux préparateurs de commandes les tâches à effectuer, ce qui les transforme en robots qui s’épuisent à tenter de suivre les cadences infernales dictées par la machine. L’émission a ainsi constaté que le poids total des marchandises manipulées chaque jour par ces préparateurs de commande était proprement ahurissant, pouvant atteindre jusqu’à 8 tonnes ! De quoi générer lumbago et tassements de vertèbres à brève échéance.

Mais ce n’est pas très grave puisque le marché du travail actuel permet de licencier rapidement le personnel devenu inapte et de le remplacer par de la chair fraîche. Cash investigation a ainsi relevé que pas moins de 2196 salariés de l’enseigne ont été licenciés pour inaptitude sur les 5 dernières années alors que seuls 22 ont été recasés en interne à un poste de travail moins pénible. En parallèle, l’enseigne se vante d’avoir créé 8000 emplois en France sur cette même période, mais on comprend à quel prix…

Le ton incisif de la journaliste Elise Lucet et les révélations apportées lors de cette émission ont sans aucun doute fait du tort à l’enseigne. Les commentaires ont aussitôt fusé sur les réseaux sociaux, du style : « Un avertissement pour tentative de suicide… En gros, la prochaine fois, te rate pas, ou on te vire ». De nombreux téléspectateurs se sont souvenus de la publicité diffusée par Lidl, mettant en scène un employé d’une marque concurrente qui se rend dans un magasin Lidl et qui appelle son patron pour lui annoncer sa consternation face à la qualité et au prix des produits en vente chez Lidl. Chacun s’en est donc donné à cœur joie pour détourner cette publicité fort malvenue : « Allo patron, y a Elise Lucet chez Lidl. On est mal, patron, on est très mal… ».

Détournement de publicité sur Twitter (source : Huffington post)

Et de fait, la direction de Lidl France a manifestement accusé le coup, au point de se sentir obligée de faire paraître un communiqué de presse dès le lendemain 27 septembre, alors que des salariés d’un entrepôt du distributeur dans les Bouches-du-Rhône se mettaient en grève et que le député LREM Daniel Labaronne déposait une question écrite au gouvernement sur ce sujet ! Il fallait donc au plus vite éteindre l’incendie et la direction de Lidl s’est mobilisée en catastrophe pour tenter de rectifier le tir et rétablir auprès de ses clients une image plus présentable.

Il est bien difficile de déterminer à ce stade si ce coup de projecteur dont le distributeur se serait bien passé va affecter significativement ses ventes. Rien n’est moins sûr car, comme le soulignent nombre de spécialistes du marketing, en la matière, « c‘est la loi du porte-monnaie qui prime ». Autrement dit, le consommateur se moque bien des conditions de travail dans les entreprises, du moment qu’il a accès à des marchandises à prix abordables…

Faut-il contribuer à alimenter le système ?

Dans leur communiqué, les dirigeants de Lidl insistent sur leur souci de transparence et estiment avoir été piégés par les journalistes à qui ils ont ouvert leurs entrepôts et leurs magasins sans restriction. De son côté, un représentant syndical de la CGT juge que l’émission « dit exactement ce que l’on dénonce depuis des années, les mauvaises conditions de travail, le management ». La vérité est probablement entre les deux. Espérons en tout cas que le choc amènera responsables et salariés à approfondir le dialogue social au sein du groupe. Il semble qu’il subsiste une certaine marge de progrès dans ce sens…

L.V.    

Publicités

Canal de Provence : des plans d’eau qui rayonnent…

14 novembre 2017

Le Canal de Provence à Saint Maximin, dans le Var (photo © Camille Moirenc / SCP)

Créée en 1957 sous la forme d’une société anonyme d’aménagement régional, la Société du Canal de Provence, qui vient de fêter ses 60 ans, résulte en réalité d’un pacte passé en 1955 entre la Ville de Marseille et les deux départements des Bouches-du-Rhône et du Var, dans l’objectif de mettre en commun leurs droits d’eau sur la rivière du Verdon. Dès 1963, la société s’est vue confier, par concession d’État, la mission de réaliser et gérer le canal de Provence destiné à acheminer, vers l’agglomération marseillaise et une partie du Var, l’eau du Verdon stockée grâce aux différents barrages de Sainte-Croix, Quinson, Gréoux, Castillon et Chaudanne.

La construction du canal s’est échelonnée entre 1964 et 1986, à partir de la prise de Boutre, à Vinon-sur-Verdon. A Rians, le canal se divise en deux branches, l’une desservant le pays d’Aix et le nord de Marseille, l’autre l’Est marseillais et le Var. Le réseau s’est progressivement étendu, y compris via la construction récente de la liaison Verdon – Saint-Cassien destinée à alimenter le littoral varois jusqu’au golfe de Saint-Tropez. Il comprend désormais près de 70 km de canaux à ciel ouvert, 140 km en galerie souterraine et pas moins de 4500 km de canalisations.

Le barrage de Bimont, près de la Sainte-Victoire, géré par la SCP

La gouvernance a évolué également avec l’arrivée de la Région PACA en 1983, puis celle du département de Vaucluse en 1988, pour le développement de l’irrigation dans la plaine du Sud-Luberon. En 2008, l’ensemble du patrimoine appartenant à l’Etat et concédé à la SCP a été transféré à la Région, renforçant ainsi l’appropriation par les collectivités territoriales de ce patrimoine hydraulique.

Branche nord du canal de Provence (photo © Camille Moirenc / SCP)

De l’ordre de 2 millions de personnes, soit 40 % de la population régionale est désormais alimenté en tout ou partie par de l’eau acheminée par le réseau de la SCP. Une des particularités de ce réseau réside dans son mode de régulation dynamique, géré de manière centralisée depuis le siège de la société basé au Tholonet, et qui permet d’ajuster à tout moment les débits délivrés en fonction de la demande effective des utilisateurs.

C’est ce souci constant de l’innovation technologique qui a poussé la SCP, depuis déjà quelques années et après avoir exploité toutes les potentialités de l’hydroélectricité, à s’intéresser à la production d’énergie solaire sur son propre réseau. Dans une région aussi ensoleillée, un des freins au développement de cette production réside en effet dans le coût du foncier qui réduit les possibilités d’implantation de centrales photovoltaïques. Or, les plans d’eau et les canaux gérés par la SCP constituent de vastes superficies qui peuvent facilement être recouvertes de panneaux solaires.

Panneaux solaires installés dans le cadre du projet Canasol à Rians (source : Actu Environnement)

Qui plus est, une telle couverture présente de multiples intérêts. Les panneaux photovoltaïques protègent les canaux contre les intrusions et les chutes ou les baignades intempestives, ce qui est un des risques récurrents auquel est confrontée la SCP, et en même temps ils protègent l’eau des rayonnements solaires directs, ce qui permet de limiter l’évaporation et de garder à l’eau une certaine fraîcheur tout en évitant la prolifération des végétaux aquatiques, une autre des plaies de l’exploitant.

Et ce n’est pas tout ! En plein été et sous le chaud soleil de Provence, la température grimpe rapidement à la surface des panneaux photovoltaïques. Or, au-delà d’une certaine température (de l’ordre de 70 °C), le rendement des panneaux baisse fortement, perdant jusqu’à 15 % de leur efficacité énergétique. Le fait de les installer juste au-dessus de la surface des canaux présente donc une réelle opportunité puisqu’on peut facilement les arroser pour éviter tout échauffement intempestif.

Site du démonstrateur Canalsol à Rians (photo © Camille Moirenc / SCP)

Pour tester le concept, la SCP s’est alliée avec le pôle de recherche technologique du CEA en 2013, dans le cadre du pôle de compétitivité Capénergie, afin de créer une plateforme expérimentale située à proximité de son centre d’exploitation à Rians. 132 panneaux solaires ont ainsi été déployés et testés pendant plus d’un an à partir de l’automne 2014, pour évaluer l’intérêt du dispositif et comparer différentes orientations et modalités de refroidissement (par aspersion, par circulation direct ou par le seul effet passif de l’eau circulant à 1,20 m sous les panneaux et dont la température moyenne varie entre 15 et 18 °C).

Dispositif d’aspersion des panneaux photovoltaïques du projet Canalsol

Les résultats de ce projet de recherche baptisé Canalsol semblent suffisamment probants pour que la SCP poursuive ses efforts de développement technologique et envisage de passer à une phase très opérationnelle qui consisterait à installer une centrale photovoltaïque flottante sur le vaste réservoir à ciel ouvert du Vallon Dol situé sur les hauteurs de Marseille, au pied du massif de l’Étoile.

La réserve de Vallon Dol, sur les hauteurs de Marseille (photo © Camille Moirenc / SCP)

Ce gigantesque bassin qui s’étend sur 17 hectares contient 3 millions de m3 d’eau acheminée depuis le Verdon (soit plus de deux fois la capacité du Vieux Port !), de quoi assurer pendant une semaine entière l’alimentation en eau de toute la ville de Marseille. Construit en 1973, ce bassin qui peut être alimenté via les deux branches principales du canal de Provence sert de réserve pour l’usine de potabilisation située à proximité et géré par la SEM.

Pour aménager sur ce vaste plan d’eau une centrale solaire dont la puissance visée serait de 10 MW, la SCP vient de lancer une consultation, afin de choisir un partenaire avec lequel la SCP créerait une société de projet en vue de concevoir, financer, réaliser, exploiter, maintenir et vendre la production d’électricité de cette future installation de panneaux photovoltaïques flottants. Un projet ambitieux et innovant dont s’est fait l’écho La Provence et qui pourrait peut-être demain donner des idées à d’autres exploitants : à quand des panneaux photovoltaïques sur le Grand Canal à Venise ?

L.V. 

Qui organise la pénurie de beurre ?

5 novembre 2017

Certains se souviennent peut-être encore de ce temps pas si lointain où les chambres froides de ce qui était encore la Commission économique européenne débordaient de beurre, stocké pour éviter que les cours de cette matière première ne s’effondrent. Le stockage avait commencé en 1964 afin de venir en aide aux agriculteurs européens alors en pleine surproduction et, en 1986, on avait atteint le volume incroyable de 1,28 millions de tonnes de beurre stockés dans les réserves de l’Europe.

Pour remédier à cet excédent structurel, des quotas laitiers ont fini par être instaurés en 1984 et, peu à peu, les « montagnes de beurre » ont commencé à se résorber. Il a quand même fallu près de 20 ans pour y parvenir et c’est en 2007 seulement qu’ont été écoulés les dernières 6000 tonnes de beurre encore stockés, pour l’essentiel d’origine espagnole à cette date. A l’époque, le prix du marché s’élevait à 2 400 € la tonne. Le système des quotas laitiers a été finalement abandonné en avril 2015 et depuis, c’est le marché mondial qui régit la commercialisation des produits laitiers sans aucun filet de sécurité.

Le résultat ne s’est pas fait attendre puisque dès 2016, le prix du lait payé au producteur est descendu en dessous du coût de production et le revenu moyen d’un éleveur en France aurait baissé de plus de 26 % entre 2015 et 2016 selon l’INSEE. Il ne reste déjà plus que 70 000 fermes laitières en France, un tiers d’entre elles ayant disparu au cours des 10 dernières années. Avec la fin des quotas laitiers qui fixaient des volumes plafond de production par pays, la production européenne a fortement augmenté, du fait principalement des grosses fermes industrielles du nord de l’Europe, ce qui tire les prix à la baisse et étrangle les derniers éleveurs laitiers encore en activité en France.

Manège de traite à la ferme industrielle dite des 1000 vaches, à Ducrat, près d’Abbeville dans la Somme (source © La Voix du Nord)

Et l’on apprend désormais que le beurre, qui jadis encombrait les frigos de Bruxelles, est devenue une denrée rare. Les rayons des supermarchés se vident et les boulangers industriels qui en sont de gros consommateurs (sachant qu’un croissant est composé à 50 % de beurre…) se retrouvent en chômage partiel faute de matière première. Le prix du beurre est ainsi passé en dix-huit mois de 2 500 à 6 500 € la tonne : un bond spectaculaire et qui pourrait encore se poursuivre. Mais comment a t-on bien pu en arriver là ? Le Marché aurait-il perdu la main, sa fameuse « main invisible » si chère aux économistes libéraux ?

Vache de race Prim’Holstein

On pourrait d’abord s’étonner que les cours du lait soient au plus bas alors que ceux du beurre, qui en dérivent directement n’ont jamais atteint de tels sommets. Certains invoquent des raisons techniques liées non pas à une météo qui aurait été défavorable à la production laitière comme certains le prétendent, mais qui découlent effectivement d’une politique menée depuis des années par la filière : en France, plus des deux-tiers du cheptel laitier sont constitués de Prim’Holstein, ces vaches laitières qui constituent l’essentiel des troupeaux européens et qui fournissent jusqu’à 10 000 litres de lait par tête et par an. Depuis des décennies, les chercheurs de l’INRA comme leurs collègues européens ont orienté la sélection de cette race dans le seul but de produire davantage de lait et moins de matière grasse. Or, sans matière grasse dans le lait, il est plus difficile de faire du beurre : il faut en moyenne 22 l de lait pour produire un kg de beurre, mais cela peut varier fortement sachant qu’un litre de lait contient selon les cas entre 35 et 45 g/l de matière grasse.

Couverture du Time de 2014 vantant les mérites du beurre

Or la consommation mondiale de beurre est désormais en hausse. Avec 8 kg par an et par habitant, la France se place au premier rangs des gros consommateurs, mais la demande est en train d’exploser dans d’autres pays, notamment asiatiques où l’on commence à prendre goût aux viennoiseries. Même aux USA, les diététiciens sont en train de revenir sur leur jugement très négatif concernant la consommation des corps gras en général et du beurre en particulier, ainsi que l’a rappelé le Time à sa Une en 2014.

Dans ce supermarché Cora, des rayons de beurre quasi vide (photo © Aurélien Laudy pour l’Union)

Beurre dans la baratte (source © Agrilait)

Mais la pénurie de beurre ne frappe curieusement que la France. Or la production de beurre français est plutôt en croissance, avec un volume global de 368 000 tonnes produit en 2015 contre 341 000 en 2010. Notre pays est actuellement le 6ème producteur mondial de beurre et le 2ème en Europe derrière l’Allemagne. De 2006 à 2010, la production mondiale de beurre a ainsi augmenté de 14 % et dépasse actuellement les 10 millions de tonnes, le premier producteur étant désormais l’Inde. Mais le géant de la production laitière est la Nouvelle-Zélande qui produit pas moins de 27 % du lait mondial, exporté principalement sous forme de poudre de lait. D’ailleurs, la France importe chaque année deux fois plus de beurre qu’elle n’en exporte, et sa principale source d’approvisionnement est justement la Nouvelle-Zélande.

Un dessin de Na !

En réalité, on se retrouve confrontés à deux phénomènes qui se surimposent. Le premier est un mouvement de fond, d’ampleur mondial et qui reflète une demande accrue de beurre, du fait de l’émergence de nouveaux marchés, notamment en Chine, alors même que la production de beurre a été volontairement freinée depuis des années parce que les consommateurs s’étaient orientés plutôt, pour des raisons diététiques, vers la consommation d’huiles végétales et de margarines. Ce mouvement de fond explique donc que les prix mondiaux du beurre soient en forte hausse, alors que ceux du lait n’augmentent que de manière modérée, du fait des stocks importants de poudre de lait encore disponibles, en particulier en Europe qui a en réserve plus de 350 000 tonnes, de quoi peser significativement sur les cours mondiaux.

A cela vient s’ajouter un élément conjoncturel spécifiquement français. On se souvient qu’en 2016, à l’issue d’une crise agricole comme la France en connaît régulièrement, le principal industriel du secteur, Lactalis, avait accepté de payer un peu plus cher le lait, à 290 € la tonne, ce qui lui permettait de s’aligner sur le prix des autres acteurs (Bongrain, SODIAAL ou Danone) tout en restant très en deçà des coûts réels de production que la profession agricole évalue entre 330 et 380 € la tonne selon les exploitations.

Mais en France, ce sont les 4 centrales d’achat de la grande distribution (Intermarché/Casino, Carrefour/Dia, Auchan/Système U et Leclerc) qui font la pluie et le beau temps en matière de fixation des prix des produits alimentaires. Les négociations avec les producteurs et les industriels de l’agro-alimentaire ont lieu une fois par an et la grande distribution s’y emploie à imposer à ses fournisseurs les prix les plus bas.

C’est la raison pour laquelle, le prix du beurre en grande surface n’a jusqu’à ce jour quasiment pas augmenté, contrairement à ce qu’on observe en Allemagne par exemple où le prix de la plaquette de beurre a plus que doublé. Comme vient de le reconnaître, après une semaine de tergiversations, le ministre de l’agriculture et de l’alimentation, Stéphane Travert, la pénurie de beurre dans les rayons des magasins s’explique en réalité principalement par un nouveau bras de fer entre industriels et géants de la grande distribution.

Faute de pouvoir vendre leur beurre en France à un prix rémunérateur, les acteurs de la filière préfèrent donc l’exporter, tout simplement. Bienvenue dans le monde de la mondialisation heureuse !

L.V.  

Ecoles de Marseille : après Gaudin, le déluge…

23 octobre 2017

Jean-Claude Gaudin avec le président Macron à Marseille, le 21 septembre 2017 (photo © Anne-Christine Poujoulat / AFP)

Frappé par la loi sur le cumul des mandats, le pagnolesque Jean-Claude Gaudin vient (enfin !) d’abandonner son poste de sénateur et les nombreux avantages associés, y compris les petits chèques qu’il touchait chaque trimestre grâce à un arrangement entre amis, histoire d’arrondir ses fins de mois. Du coup, certains se prennent à espérer que celui qui est élu de la deuxième ville de France depuis maintenant 52 ans, maire de la commune depuis 22 ans et président de la métropole Aix-Marseille-Provence depuis sa création, va peut-être enfin s’occuper de la gestion de sa ville et en particulier de celle de ses écoles publiques ?

Il faut dire que certaines de celles-ci sont dans un état de délabrement avancé, pour le plus grand profit d’ailleurs de l’enseignement privé qui connaît un essor foudroyant dans la commune. Enseignants et parents d’élèves ne cessent de s’époumoner pour dénoncer depuis des années les classes non chauffées où les enfants doivent garder leur manteau tout l’hiver, celles dont les fenêtres jamais remplacées laissent passer la bise glaciale les jours de mistral et se transforment en fournaise à l’approche des beaux jours, celles dont les plafond tombent régulièrement sur la tête des élèves et fuient à chaque orage, celles dont les dallages usés libèrent allègrement leurs fibres d’amiante tandis que les fragments de laine de verre des faux-plafonds saupoudrent la tête des élèves, celles où se promènent en toute quiétude cafards, blattes et souris, celles dont les tables bancales et rapiécées obligent à toutes sortes d’acrobaties…

Pétition ouverte par Charlotte Magri sur le site Change.org suite à sa lettre ouverte

Une lettre ouverte adressée en novembre 2015 à Najat Vallaud-Belkacem, alors ministre de l’Éducation nationale, par Charlotte Magri, enseignante dans une école primaire des quartiers nord de Marseille, lettre publiée intégralement par différents médias dont Marsactu et dont la lecture est édifiante, avait bien permis de secouer un peu le cocotier. Relayé notamment par le quotidien Libération qui avait publié le 1er février 2016 un article au vitriol titré « Marseille: école primaire, gestion secondaire », ce cri du cœur avait mis sous le feu des projecteurs la gestion totalement défaillante des 444 écoles primaires publiques de la commune phocéenne, et tout particulièrement de celles situées dans les quartiers les plus défavorisés de la ville.

Curieusement, dès le 4 février 2016, le préfet des Bouches-du-Rhône recevait mission d’« évaluer les conditions de fonctionnement du service public d’éducation dans les écoles des quartiers prioritaires de la politique de la ville », évaluation devant intégrer « l’ensemble des éléments de sécurité, de salubrité, d’hygiène et de santé publique, mais aussi les conditions d’apprentissage des élèves et de travail des enseignants ». Vaste programme !

Sol d’une école marseillaise (photo © Boris Horvat / AFP / Le Figaro)

En même temps, le gouvernement ne pouvait que rappeler que, selon la loi française, «  les communes ont la charge des écoles maternelles et élémentaires : elles sont propriétaires des locaux, en charge de la construction […], des réparations, de l’équipement, et des frais de fonctionnement ». Ce qui n’empêche pas l’État de mettre à la disposition de la ville de Marseille des moyens considérables avec 330 nouveaux postes d’enseignants pour la rentrée 2016, 7 millions d’euros versés au titre des activités périscolaires, mais aussi, depuis 2014, 2,5 millions d’euros pour la rénovation des écoles dans le cadre de l’Agence nationale pour la rénovation urbaine (ANRU) et 1,4 million pour les travaux d’urgence au titre de la politique de la ville.

Danièle Casanova, adjointe à la mairie de Marseille en charge de l’Education (photo © Tony Selliez / Radio France)

A l’époque, Danièle Casanova, élue depuis 1995 et adjointe au maire en charge de l’Éducation affirmait que la ville avait investi en 2015 un montant total de 31,6 millions d’euros pour l’entretien des écoles et promettait pour l’exercice 2016 la mise en œuvre de 523 nouveaux chantiers pour un montant global de près de 37 millions d’euros, tout en annonçant la signature avec le Conseil départemental d’une convention de coopération de 60 millions d’euros sur trois ans, histoire de minimiser l’effort pour le contribuable marseillais.

A titre indicatif, les dépenses totales de fonctionnement de la ville de Marseille se sont élevées à 1,1 milliard d’euros pour l’année 2015 et les dépenses d’investissement à 440 millions d’euros. Force est donc de constater que l’entretien des bâtiments scolaires est bien loin d’accaparer la totalité des ressources budgétaires de la collectivité. Manifestement, la municipalité a d’autres priorités, la rénovation du stade Vélodrome qui coûtera, rappelons-le au passage, 400 millions d’euros à la ville au terme du versement des 31 annuités prévues, présente manifestement un degré de priorité nettement supérieur…

Toujours est-il que la majorité municipale a bien été obligée de chercher des solutions à une situation aussi dégradée, fruit de décennies d’inactions. Dès février 2016, Jean-Claude Gaudin annonçait la nécessité de lancer un véritable « plan Marshall » pour tenter de réagir à un état de fait qu’il avait lui-même laissé se constituer, mandature après mandature.

L’école du Parc Kalliste (15e arrondissement) prétendument mitraillée à la Kalachnikov (photo © P. N. / La Provence)

A la veille de la rentrée de septembre 2017, le maire de Marseille a bien tenté une ultime manœuvre de diversion en dénonçant tout à trac des attaques à la Kalachnikov contre deux écoles des quartiers nord de la ville et en précisant qu’une dizaine d’établissements scolaires au moins avait été vandalisées pendant les vacances, histoire de suggérer que, confrontée à de tels actes de violence, la commune était bien incapable de faire face et que toute réparation revenait à colmater la fuite du tonneau des Danaïdes.

En l’occurrence, il s’est avéré que ces propos relevaient de la pure galéjade et Jean-Claude Gaudin s’est retrouvé la risée de toute la presse nationale, Canard enchaîné en tête, une fois que les forces de l’ordre eurent rétabli la vérité : nulle trace de dégradation à l’école de Font-Vert et pas la moindre vitre brisée non plus à celle du Parc Kalliste où le maire avait juré avoir relevé pas moins de 24 impacts d’arme de guerre…

Un extrait du Canard enchaîné du 6 septembre 2017

Après cette tentative piteuse, il a bien fallu trouvé autre chose et le Conseil municipal a donc voté ce lundi 16 octobre 2017, les crédits nécessaires pour le fameux Plan Marshall des écoles. Sauf que la méthode proposée, qui s’appuie sur le principe d’un partenariat public-privé (PPP, rebaptisé par certaines mauvaises langues « plan pour payer plus ») est pour le moins douteuse et rappelle furieusement le scandale du financement de la rénovation du stade Vélodrome pourtant vertement épinglé par la Chambre régionale des comptes.

Ruines du lycée Pailleron après son incendie en 1973 (photo © Georges Beutter / Paris Match / SCOOP)

Certes, l’ambition est au rendez-vous puisque le programme prévoit la destruction de 32 établissements obsolètes construits dans les années 1960 en structure métallique, à l’image du célèbre lycée parisien Edouard Pailleron dont l’incendie criminel en 1973 avait causé la mort de 20 personnes, et leur remplacement par 28 nouvelles écoles, ainsi que la construction de 6 établissements supplémentaires, en six ans.

Un programme qui nécessiterait d’emprunter pour couvrir le montant des travaux. Réalisé sous maîtrise d’ouvrage de la Ville de Marseille, le programme d’investissement coûterait à la collectivité pas moins de 950 millions d’euros, remboursement des emprunts et service de la dette compris, en intégrant également les frais d’entretien des bâtiments sur la période de l’emprunt. Mais c’est une autre voie qu’à choisie la majorité, celle du PPP qui consiste à faire financer la totalité du programme par un groupe de BTP qui se charge de la construction des nouveaux bâtiments et se rembourse ensuite largement en faisant payer un loyer à la collectivité pour l’utilisation des locaux.

Cette approche du PPP est très avantageuse pour les groupes privés de BTP qui en profitent pour faire travailler leurs propres entreprises à moindre coût, pour tirer profit des terrains libérés en centre ville afin de maximiser les droits à construire, qui chargent les coûts d’entretien facturés à la collectivité, et qui arrivent, avec la perception des loyers, à se faire rembourser jusqu’à deux fois, et parfois davantage, le montant réel de leur investissement. De fait, via la méthode du PPP et selon les propres estimations de la commune, le même programme coûtera à la collectivité au moins 100 millions supplémentaires comme cela a été annoncé en séance du Conseil municipal !

Le stade vélodrome rénové et les constructions annexes réalisées grâce aux droits à bâtir (photo © Bouygues Construction)

Dans ces conditions et sauf à soupçonner Jean-Claude Gaudin de vouloir favoriser les géants du BTP, on se demande bien pourquoi la Ville de Marseille s’engage dans une telle voie, malgré les multiples exemples de dérives constatées, toutes vertement critiquées par les différentes Chambres régionales des comptes. La réponse est malheureusement très simple : à force de laisser s’accumuler la quantité de travaux d’entretien nécessaires pour assurer le bon fonctionnement du patrimoine municipal, la Ville est dans l’incapacité d’emprunter la somme nécessaire pour engager un programme de réhabilitation à la hauteur des enjeux.

Dans ces conditions et à supposer que la collectivité ne puisse dégager davantage de ressources, quitte à rogner sur d’autres postes moins prioritaires, la sagesse voudrait qu’on étale les investissement et qu’on réalise les travaux par étape en fonction de ses capacités réelles d’endettement. Mais pour un maire qui vient de fêter ses 78 ans et qui a déjà annoncé qu’il ne se représentera pas en 2020, la solution des PPP ne présente que des avantages : bien sûr elle coûtera plus cher à la collectivité et bloquera pour longtemps toute capacité future d’investissement, mais elle permet d’inaugurer rapidement des chantiers tout en permettant de remplir les poches des entreprises privées amies. Et tant pis pour les générations futures qui auront à payer lourdement et longtemps les impérities de ce maire désinvolte…

L.V.  

Photovoltaïque : à l’ombre des tulipes en fleur…

9 octobre 2017

L’irrigation des vignes, une pratique en plein développement

Avec le réchauffement climatique qui se profile, les conditions climatiques méditerranéennes sont en train d’évoluer et les mesures d’adaptation sont d’ores et déjà indispensables, en particulier dans le monde agricole. Les viticulteurs utilisent de plus en plus l’irrigation au goutte-à-goutte dans leurs vignes, encouragés en cela par les producteurs d’eau brute qui y voient là un débouché commercial juteux. Les pratiques culturales elles-mêmes évoluent avec un développement des bandes enherbées entre les rangs de vigne pour limiter les risques d’érosion lors des violents orages qui risquent de se multiplier à l’avenir.

Parallèlement, on assiste à la mise en œuvre de pratiques encore expérimentales qui consistent à installer des panneaux photovoltaïques dans les champs, au milieu des cultures, pour produire de l’électricité verte tout en participant à l’ombrage des parcelles qui sinon seraient grillées par le soleil.

La méthode paraît de prime abord plutôt farfelue puisqu’on sait que les végétaux pour se développer ont principalement besoin de lumière, moteur essentiel de la photosynthèse. Mais dès 1981, des chercheurs allemands ont imaginé installer des panneaux photovoltaïques au milieu des champs en calculant que, si on les place à une hauteur suffisante au dessus du sol et moyennant un espacement adapté, leur impact sur le rayonnement solaire au sol est tout à fait acceptable.

Une telle disposition permet bien entendu de valoriser au maximum l’espace agricole puisqu’on ne se contente pas d’y faire pousser des choux, des carottes ou du colza, mais qu’on peut en même temps y produire de l’électricité. Mais en réalité, l’idée est encore plus astucieuse qu’il n’y paraît et s’apparente plutôt au concept de l’agroécologie et des cultures étagées, mis en valeur par des générations de paysans à travers le monde.

Globalement, la photosynthèse augmente avec le niveau de radiation solaire, mais on observe expérimentalement un palier au-delà duquel toute augmentation d’irradiation n’a plus d’effet, sinon d’augmenter l’évapotranspiration jusqu’à conduire dans certains cas au flétrissement. D’où l’idée d’utiliser les panneaux photovoltaïques comme des ombrières qui se déploient au-delà de ce point pour protéger les cultures une fois qu’elles ont eu leur dose optimale de rayonnement solaire.

Dispositif test mis en place par le Japonais Akira Nagashima (source : renewable energy world)

C’est cette idée qu’a mise en pratique dès 2004 le Japonais Akira Nagashima, ex-ingénieur en machinisme agricole, en bricolant une sorte de pergola constituée de panneaux photovoltaïques espacés, posés sur une structure métallique légère facilement démontable. Ses essais ont montré qu’il fallait laisser au moins deux-tiers de vide non ombragé entre les panneaux pour en optimiser l’efficacité. Encouragé par le Ministère de l’agriculture le procédé tend à se développer au Japon où il apporte aux maraîchers un complément substantiel de revenus.

Dispositif expérimental installé dans le cadre du projet Sun’Agri

En France, l’INRA (Institut national de la recherche agronomique) s’intéresse également à cette pratique et travaille depuis 2009 avec la société française Sun’R, à un programme de recherche dénommé Sun’Agri. Objectif affiché : développer « l’agrivoltaïque dynamique », rien de moins… Pour rester simple, il s’agit simplement d’optimiser au mieux la cohabitation entre les cultures au sol et les panneaux photovoltaïques situés à plus de 4 m de hauteur pour ne pas gêner le passage des engins agricoles.

Ces panneaux permettent la production électrique comme revenu secondaire pour l’agriculteur mais participent également à l’optimisation de la production agricole. En effet, un système astucieux de pilotage permet d’orienter à volonté les panneaux pour assurer un ombrage minimal au sol pendant les phases de photosynthèse, plus important lors des grandes chaleurs, et total (en plaçant les panneaux à plat comme une toiture) pour assurer une protection contre les gelées nocturnes hivernales.

Plus près de chez nous, la société Agrivolta, créée en 2016 par un ancien horticulteur de Rousset, Christian Davico, et sa fille, et installée dans l’incubateur d’entreprises CleanTech, sur le plateau de l’Arbois à Aix-en-Provence, s’investit également sur ce créneau. Comme le raconte La Provence, c’est sa propre expérience de producteur qui l’a conduit sur cette voie, afin de proposer des solutions techniques qui permettent en même temps de protéger les cultures florales, particulièrement vulnérables aux aléas climatiques, contre les excès d’ensoleillement et contre les gelées, mais aussi contre les orages violents et la grêle, là encore en utilisant des panneaux photovoltaïques orientables montés sur portiques et qui pourraient même être pilotés à distance par les équipes techniques de la jeune start-up afin d’en optimiser la disposition.

Récompensée en septembre 2017 par le premier prix de l’innovation remis dans le cadre des Smart City Innovation Awards par La Tribune et Aix-Marseille French Tech, la jeune entreprise aixoise vient de signer un premier contrat prometteur avec le SCRADH, le Syndicat du centre régional d’application et de démonstration horticole. Créée en 1984 et basé à Hyères-les-palmiers, cette station expérimentale spécialisée dans la filière des fleurs coupées est affiliée à l’Institut technique de l’horticulture (ASTREDHOR) et emploie 14 personnes au bénéfice de ses 180 adhérents, pour développer des techniques innovantes de production en plein champ, sous serres et hors-sol.

Vue du prototype d’Agrivolta à Hyères (photo DR – La Provence)

A Hyères, les expérimentations pilotées par le SCRADH viseront dans un premier temps à étudier l’effet de l’ombrière photovoltaïque intelligente brevetée par Agrivolta sur un champ de pivoines, et ceci sur une durée de 3 ans. L’objectif n’est pas seulement de faire rougir les pivoines mais plus prosaïquement d’évaluer l’impact du dispositif sur les rendements agricoles et les consommations d’eau. Après les ombrières photovoltaïques sur les parkings de gare et de supermarchés, et bientôt peut-être sur les canaux de la Société du Canal de Provence, voila qu’on va peut-être devoir s’habituer aussi à en voir fleurir au milieu des parcelles agricoles…

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

Scandale sanitaire : des cochonneries dans le jambon

26 septembre 2017

L’information ne date pas d’hier puisque c’est en octobre 2015 que le Centre international de recherche sur le cancer, basé à Lyon et dépendant de l’Organisation mondiale de la santé, l’a confirmé urbi et orbi : les charcuteries sont cancérigènes, directement responsables du cancer colo-rectal, le plus fréquent chez les hommes après ceux du poumon et de la prostate, et chez les femmes après le cancer du sein. Pour cette même année 2015, selon les chiffres de l’Institut national du cancer, on dénombrait en France 43 000 nouveaux cas de cancer du colo-rectum déclarés et près de 18 000 décès du fait de cette maladie : moins que le cancer du poumon qui a tué cette année-là plus de 30 000 Français (hommage aux industriels du tabac !), mais bien davantage que les accidents de la route qui n’ont fait « que » moins de 3 500 morts durant cette même période.

Certes, la chacuterie n’est assurément pas la seule responsable de tous ces cancers mais il semble néanmoins qu’elle en porte une large part. Surtout, tout laisse à penser que l’on se trouve dans un cas de figure très comparable à ce que l’on a observé pour de précédents scandales sanitaires comme celui de l’amiante, du tabac ou de la vache folle pour ne prendre que quelques exemples : d’un côté une perception de plus en plus précise du risque sanitaire, régulièrement dénoncé par l’ensemble des acteurs de la santé publique, et de l’autre une propagande menée sans vergogne par les industriels de l’agro-alimentaire pour enfumer les consommateurs en semant le doute…

Un récent ouvrage, publié il y a quelques semaines sous le titre provocateur « Cochonneries – Comment la charcuterie est devenue un poison » par Guillaume Coudray, formé à Sciences Po et réalisateur de films documentaires, vient mettre bruyamment les pieds dans le plat. Après cinq années d’enquête minutieuse menée dans les archives administratives et médicales, l’auteur y décortique de manière implacable ce qui a conduit à une telle situation.

Pour bien comprendre le problème, il faut remonter en arrière, aux origines de la salaison, qui ne date pas d’hier. Pendant des siècles, l’homme a pris l’habitude de conserver la viande en y ajoutant du sel et des épices. On retrouve ainsi dans les archives un règlement parisien datant de 1476 et détaillant la liste des ingrédients autorisés pour la fabrication de saucisses. Jusqu’à la fin du XIXème siècle, dans toute l’Europe, seul le sel intervient dans la conservation de la charcuterie, tandis que d’autres épices telles que le poivre, le fenouil et de nombreuses herbes aromatique servent de réhausseurs de goût. La coloration rose est quant à elle assurée par l’ajout de colorants naturels comme le safran pour la mortadelle italienne.

Salaison d’oiseaux dans l’Egypte ancienne (source INRAP)

Comme dans bien d’autres domaines, l’innovation est venue des États-Unis où sont nés, dès la fin du XVIIIème siècle, dans le Massachussetts, les premiers charcutiers industriels, les « packers » qui se mettent à conditionner la viande salée dans des tonneaux ou des caisses destinées notamment aux marins au long-cours. L’activité se déplace peu à peu vers l’ouest et la ville de Cincinnati, dans l’Ohio, prend en 1835 le surnom officiel de « Porkopolis » après être devenue le principal centre de production de porcs du pays et sans doute du monde !

Abattoirs de l’usine Armour à Chicago en 1893 (croquis Octave Uzanne)

A l’époque, la saison d’abattage est strictement limitée entre novembre et mars. Comme en Europe où il est d’usage dans les campagnes de faire les cochonnailles pour Noël, c’est en effet pendant l’hiver, lorsque la température ambiante est suffisamment fraîche, que l’on peut en toute sécurité abattre les bêtes et saler la viande, dans une véritable course contre la montre.

Mais on n’arrête pas la course au profit et bientôt cette activité décline au profit de la ville de Chicago qui s’impose en quelques années comme la capitale mondiale de la viande et notamment de la charcuterie. Sauf qu’entre temps les techniques ont évolué : les charcuteries américaines industrielles sont désormais traitées systématiquement à base de salpêtre (nitrate de potassium), puis de nitrate de sodium, un produit extrait d’immenses gisements situés au pied de la Cordillère des Andes. Après la première guerre mondiale, on se met à utiliser le nitrite de sodium, un produit chimique développé pour l’industrie de l’armement et devenu bon marché. Bien que mortel à partir de 2 g/kg, il est rapidement autorisé dans l’industrie alimentaire à faibles doses car ses propriétés intéressent fortement les charcutiers industriels.

L’intérêt de ces sels, par rapport au chlorure de sodium classique, est en effet multiple : il atténue le goût de salé, donne au jambon une belle coloration rose carmin durable, prolonge la durée de conservation des aliments et surtout il accélère considérablement la maturation de la viande, ce qui permet de formidables gains de productivité.

D’ailleurs, l’effet économique est foudroyant. Dès 1874, la France tente vainement de se protéger contre les importations massives de charcuteries américaines traiées au salpêtre. Mais face aux menaces de rétorsions concernant ses exportations de pinard, les industriels français s’adaptent et tout le monde se met à bourrer la charcuterie de nitrates, borates et autres sulfites : vive la modernité !

Ce n’est qu’au milieu des années 1950 que des chercheurs se rendent compte que les produits nitrés utilisés désormais dans toutes les salaisons provoquent la formation de nitrosamines, dont la diméthylnitrosamine (ou N-nitrosodiméthylamine, qu’on appellera par son petit nom NDMA) considérée comme cancérigène. On sait depuis longtemps que les nitrites sont toxiques à haute dose et les autorités sanitaires ont fixé des limites au dosage en additifs nitrés. Mais l’on découvre à cette date que leur combinaison avec les protéines carnées conduit à la formation de cette NDMA qui provoque des tumeurs cancéreuses.

Un article retentissant paru en 1968 dans le journal médical The Lancet, met en garde contre ce mécanisme. Mais les autorités sanitaires et notamment l’Autorité européenne de sécurité des aliments, empêtrée dans de multiples conflits d’intérêt avec le milieu agro-industriel, se contente de baisser symboliquement les seuils acceptés de nitrites sans prendre nullement en compte ce risque liés à la formation de NDMA. Au contraire, elle relaie vigoureusement les arguments de la filière industrielle qui prétend que, sans les ajouts d’additifs nitrés, les consommateurs seraient exposés au risque de botulisme, liés à l’apparition de la bactérie toxique Clostridium botulinum.

Le jambon de Parme, garanti sans nitrites (source l’Observatoire des aliments)

Or cette affirmation est parfaitement erronée puisque de très nombreuses charcuteries traditionnelles ont toujours été et sont encore produites sans additifs nitrés. C’est notamment le cas du jambon de Parme, qui bénéficie d’une appellation d’origine contrôlée et d’un cahier des charges interdisant strictement tout ajout d’additif nitré, et ceci depuis 1993 : en 25 ans, les 9 millions de jambons produits n’ont jamais causé un seul cas de botulisme….

C’était aussi le cas du jambon de Bayonne jusque dans les années 1960, mais ces temps sont désormais révolus… Les besoins de l’industrialisation agro-alimentaire passent aujourd’hui avant les préoccupations de santé publique : bon appétit quand même !

L.V. 

JO de Paris : quelles retombées économiques ?

24 septembre 2017

C’est la grande nouvelle du mois : les jeux olympiques d’été se dérouleront bien à Paris en 2024, 100 ans tout juste après que la ville-lumière a accueilli ses dernières olympiades, en 1924, sous la pression du baron Pierre de Coubertin. Le tuyau était percé depuis un bon moment déjà puisqu’il n’y avait plus d’autres candidats en lice, ce qui n’a pas empêché les médias nationaux d’en faire des tonnes à l’annonce de la décision officielle, le 13 septembre dernier.

Bien sûr, tout le monde met en avant la renommée internationale formidable qui rejaillira de cet événement d’ampleur mondiale, et surtout l’impact économique qui devrait en découler. Sur ce dernier point, l’acteur qui fait référence en la matière est le Centre de droit et d’économie du sport (CDES), une structure associative rattachée à la faculté de Limoges, spécialisée dans la formation d’encadrants sportifs mais qui se targue surtout de réaliser les études d’impact des grandes manifestations sportives, histoire d’en justifier l’intérêt a priori.

Comme pour chaque événement sportif majeur, le CDES a fait tourner ses calculatrices et estime que les retombées économiques à attendre s’élèveront au minimum à 5,3 milliards d’euros et pourraient même atteindre 10,7 milliards d’euros selon le scénario le plus optimiste. Une partie de ces retombées économiques bénéficierait au secteur du BTP, mais un tiers irait aux professionnels du tourisme et la plus grosse part du gâteau devrait tomber dans l’escarcelle des partenaires en charge de l’organisation. On évoque la création de 119 000 emplois dans les domaines du BTP, du tourisme et de l’événementiel, et on estime les rentrées fiscales à près de 250 millions d’euros pour la seule quinzaine que dureront les jeux.

Tony Estanguet, co-président de Paris 2024, s’offre un selfie avec des inspecteurs du CIO et une partie du comité parisien, au Stade de France, le 15 mai 2017 (crédit photo © Franck Fife / AFP)

Bref, le tableau paraît idyllique ! A se demander même pourquoi on n’organise pas des JO chaque année s’il s’agit de la recette idéale pour booster une économie atone…

Sauf que la réalité paraît assez éloignée de ces analyses pour le moins optimistes, comme le rappelle notamment Pierre Rondeau, professeur d’économie à l’Université Panthéon-Sorbonne et spécialiste de la sociologie du sport, dans un article publié par le site The Conversation. Force est en effet de constater que les grands événements sportifs internationaux, s’ils flattent l’ego des pays organisateurs et contribuent à en augmenter leur notoriété, « n’ont pratiquement jamais rapporté d’argent, n’ont jamais vraiment été bénéficiaires et n’ont jamais soutenu l’emploi durable »…

L’arc de triomphe aux couleurs des JO de 2024 (crédit photo © Benoit Tessier / Reuters)

Les études d’impact oublient en effet généralement un facteur important que constituent les effets de substitution et d’éviction. En d’autres termes, les grandes manifestations sportives attirent certes un public spécifique mais font fuir le public habituel ! Ainsi en 2016, la fréquentation touristique du Brésil n’a pas connu de rebond significatif car le pays est déjà le plus touristique d’Amérique du Sud : les touristes habituels ont largement évité de s’y rendre pendant la période des JO, laissant la place à un public de supporters et de fans de sport. Il s’est passé la même chose pendant la Coupe du monde de football organisée en France en 1998, année au cours de laquelle le nombre de touristes reçus a été exactement identique qu’en 1997 ou 1999, avec simplement une différence de motivation, les visiteurs s’agglutinant davantage au Stade de France qu’au Musée du Louvre…

A cela s’ajoute souvent une réelle difficulté à tenir les budgets souvent très optimistes prévus pour l’organisation de tels événements. Un économiste, Wladimir Andreff, a ainsi montré que depuis les JO de 1968, le taux de dépassement des budgets est en moyenne de 167 % ! A Pékin par exemple, pour les JO de 2008, dans un pays pourtant réputé pour sa capacité de planification, il a atteint 1130 %. A Londres, en 2012, le budget prévisionnel était établi à 4,6 milliards d’euros mais les JO ont finalement coûté 11 milliards (voire 15 selon certaines sources) et les retombées économiques se sont limitées à 1,72 milliards alors qu’elles avaient été estimées à 12 milliards : un cruel fiasco financier pour le pays…

Dessin publié dans Un dessin par jour

Pour les futurs JO de Paris, le budget prévisionnel annoncé à ce jour par le comité organisateur s’élève à 6,5 miliards d’euros. Une petite moitié sera consacrée à la construction des infrastructures nécessaires. Même si la grand stade est déjà disponible, il faudra quand même compter au moins 1 milliard pour remettre au goût du jour le Stade de France et construire une piscine olympique, auquel il conviendra d’ajouter près de 2 miliards pour l’édification du village olympique et du centre d’accueil des médias. Ce budget d’investissement sera pris en charge pour moitié au moins par des fonds publics, provenant principalement de l’État mais aussi des différentes collectivites territoriales concernées (dont 145 millions d’euros pour la ville de Paris et autant pour la Région Ile-de-France).

La préparation des JO 2024 : une stratégie de longue haleine qui mérite bien quelques sacrifices (dessin de Deligne publié dans Urtikan)

Le reste du budget, déjà réévalué de 3,2 à 3,6 milliards d’euros est destiné au Comité d’organisation des jeux et sera financé en partie par le CIO et en partie par des sponsors et des investisseurs privé. Quant aux recettes issues de la billetterie, leur apport restera relativement modeste, évalué en première approche à 1,1 milliards d’euros, sur la base d’une hypothèse de remplissage des stades à 88 % pour les épreuves olympiques et à 75 % pour les jeux paraolympiques, avec une volonté affichée d’offrir la moitié des places à un prix abordable inférieur à 50 €.

Un dessin de Mutio publié sur le site Urtikan

Alors, les JO à Paris, une bonne opération ou un gouffre financier en perspective ? La maire de Paris, Anne Hidalgo, n’est pas spécialement optimiste à ce sujet, elle qui prévenait en février 2015 que : « les jeux, c’est très joli, mais il n’y a pas une ville qui s’y soit retrouvée sur le plan financier »…

Le géographe Loïc Ravenel, responsable du Centre international d’économie du sport, ne dit pas autre chose en affirmant dans le magazine Alternatives économiques : « cette histoire de retombées économiques, c’est de l’enfumage. Assumons qu’à ce niveau de sport-spectacle, ça ne rapporte pas. Aujourd’hui, on accepte que la culture soit déficitaire parce qu’on estime que c’est important pour une société. Reconnaissons qu’on veut organiser une grande compétition sportive pour des questions d’image, de fête populaire, mais arrêtons de vouloir le justifier économiquement ».

Voilà qui a au moins le mérite d’être clair ! Quand on aime, on ne compte pas… Et tant pis pour les contribuables qui devront bien payer la note mais qui auront au moins passé un bon moment devant leur petit écran !

L.V.  

Transports publics gratuits : une idée d’avenir ?

9 septembre 2017

Sur le territoire de l’ancienne communauté d’agglomération du Pays d’Aubagne et de l’Étoile, qui s’est fondue début 2016 dans la métropole Aix-Marseille-Provence, les transports publics, y compris le tramway, sont gratuits depuis mai 2009. Une mesure portée à l’époque par l’ancienne présidente de l’agglo, Magali Giovannangeli (Front de gauche) mais que celle qui lui a succédé en 2014, Sylvia Barthélemy (UDI), n’a jamais souhaité remettre en cause.

Les bus gratuits à Niort depuis le 1er septembre 2017 (photo © B.C. / La Charente libre)

Et voila que l’actualité braque de nouveau ses projecteurs sur cette question de la gratuité des transports publics, à l’occasion de la mise en application d’une promesse de campagne du nouveau maire de Niort, le gaulliste étiqueté Parti radical, Jérôme Baloge : depuis le 1er septembre 2017, les bus desservent gratuitement les 45 communes de la Communauté d’agglomération du Niortais qui compte quand même 120 000 habitants. Du coup, les articles fleurissent dans la presse pour rappeler, comme le fait notamment Libération, que ce sont désormais 22 collectivités en France qui ont mis en œuvre ce principe de gratuité des transports publics, pour la plupart de petites communes à l’instar de Gap, Vitré ou Libourne, mais aussi quelques agglomérations plus importantes comme celle de Châteauroux dans l’Indre, ou encore la communauté urbaine de Dunkerque qui compte 200 000 habitants.

Dans cette dernière, pour l’instant, les bus ne sont gratuits que le week-end, depuis maintenant 2 ans, mais la mesure devrait être étendue à tous les jours de la semaine d’ici l’an prochain. D’ailleurs, lorsque cette mesure a été instaurée, en septembre 2015, ce sont les Aubagnaises Magali Giovannangeli et Sylvia Barthélemy qui ont été invitées à venir faire part auprès de la population de leur retour d’expérience en matière de transports publics gratuits, comme le rapporte la presse locale.

Magali Giovannangeli, artisane de la gratuité des transports publics d’Aubagne (photo © T. B. / Sud Ouest)

Et ce retour d’expérience est globalement positif, à Aubagne comme dans d’autres agglomérations où l’impact a pu être analysé. A Aubagne, selon Maxime Huré, chercheur à l’université de Perpignan et président de l’association Villes innovantes et gestion des savoirs, la fréquentation des bus aurait triplé depuis 2009 et il estime que un tiers de ces nouveaux utilisateurs utilisent désormais les transports en commun en lieu et place de leur voiture. Des chiffres qui semblent néanmoins à relativiser puisque les responsables locaux n’évoquent eux-même qu’une augmentation de fréquentation de 170 % et un report modal très difficile à estimer… A Dunkerque, la fréquentation dans les bus a augmenté de 78 % le dimanche, et à Châteauroux, elle aurait été multipliée par deux.

On cite aussi le cas de Tallinn, 430 000 habitants, capitale de l’Estonie qui affirme, elle, avoir vu augmenter sa fréquentation de 7 à 8 % seulement, depuis 4 ans que les bus ont été rendus gratuits pour ses ressortissants. En revanche, la mesure a contribué à attirer en ville 40 000 nouveaux habitants dont les impôts locaux représentent des rentrées fiscales supplémentaires de 38 millions d’euros alors que la billetterie ne rapportait que 12 millions par an. Une opération largement profitable donc et qui pourrait être étendue prochainement à l’ensemble du pays.

Il semble que cet argument de l’augmentation de la fréquentation soit le principal en faveur de la gratuité des transports en commun. Plutôt que de faire tourner des véhicules à vide comme cela a été longtemps le cas des bus de la Marcouline, autant rendre le service gratuit pour en augmenter l’attractivité. Cela contribue à revitaliser les centre-villes et à décongestionner le réseau routier urbain.

Un bus gratuit à Aubagne (photo © Audrey Cerdan / Rue89)

Mais le coût du service n’est pas, loin s’en faut, le seul obstacle à leur utilisation : l’extension du réseau, la fréquence des liaisons et surtout leur fiabilité, voire le confort des usagers sont d’autres critères qui font que de nombreux usagers sont réticents à utiliser les transports en commun.

De ce point de vue, l’enquête réalisée en 2013 à Aubagne par Rue 89, est édifiante. On y entend une étudiante de 17 ans déclarer sans vergogne : « le bus était déjà gratuit avant puisqu’on ne payait pas et qu’on ne s’est jamais fait contrôler ». Aucun impact donc en terme de pouvoir d’achat, mais un gain en confort puisque désormais, prendre le bus est « moins stressant », ce qui explique d’ailleurs qu’à Châteauroux, les chauffeurs observent des groupes de jeunes passer tout leur mercredi après-midi à se faire promener en ville, au point qu’il a fallu réintroduire une présence humaine aux côté des chauffeurs pour remplacer la disparition des contrôleurs et rassurer les autres voyageurs. Il n’y a cependant pas eu d’augmentation des incivilités comme le craignaient certains opposants.

L’impact sur la décongestion de la circulation reste cependant modeste. A Aubagne, les chauffeurs ont parfois le sentiment de conduire un manège qui incite certains à attendre 25 minutes pour s’asseoir dans le bus le temps d’un arrêt plutôt que de marcher à pied, tandis que les déplacements du quotidien pour aller travailler n’ont guère évolué, la plupart se faisant au-delà de l’aire où les transports publics sont gratuits. Rares sont d’ailleurs les Carnussiens qui empruntent les transports en commun pour se rendre à Aubagne, découragés par la fréquence très insuffisante des bus et leur coût relativement élevé (1,80 € le ticket).

A Aubagne, la gratuité des transports publics s’affiche avec fierté (photo © archives f.c. / La Marseillaise)

Pour autant, ces expériences ont le mérite de montrer que les modèles de gestion des transports en commun peuvent être multiples et que le recours à la gratuité est parfaitement pertinent dans certaines circonstances. A Aubagne l’extension de la communauté d’agglomération en 2008 avait permis de faire passer le montant de la contribution des entreprises de 0,6 % à 1,5 % puis 1,8 %, représentant l’essentiel des recettes et permettant de couvrir la quasi totalité des dépenses du réseau de transports publics. Il en est de même à Niort où les recettes de la billetterie ne représentent que 10 % du financement du réseau, et même seulement 8 % à Dunkerque. Dans ces conditions, on conçoit en effet que l’on puisse envisager de se priver de cet apport relativement marginal tout en boostant la fréquentation du réseau et en incitant les habitants à utiliser davantage les transports en commun, plus économiques et surtout plus écologiques en site urbain dense.

Mais ce cas de figure est loin d’être généralisé. En agglomération parisienne par exemple, la part payée par les usagers (billets et abonnements) représente de l’ordre de 50 % des recettes affectées au réseau de transports en commun. Rendre l’accès gratuit permet certes de faire des économies non négligeables puisque cela permettrait de supprimer quelques 1250 agents affectés au contrôle (mais qu’il faudrait sans doute redéployer pour assurer des missions d’accompagnement et de sécurité auprès des voyageurs) et d’économiser environ 90 millions d’euros par an sur la billetterie et les dispositifs de contrôle.

Mais les autorités organisatrices de transports se verraient alors privées d’une part importante de leurs ressources alors que leur problématique principale est actuellement d’investir toujours davantage pour mieux entretenir et moderniser le réseau et le matériel, fiabiliser et densifier la desserte, mais aussi prolonger les lignes au fur et à mesure que l’urbanisation progresse, et ceci pour tenter de répondre aux besoins des usagers dans un contexte de réseau totalement saturé.

Quai du RER A à Paris : on approche de la saturation… (photo © AFP)

Le contexte n’est d’ailleurs pas très différent dans l’aire métropolitaine marseillaise. Certes, le goût bien ancré des populations locales pour la voiture individuelle nécessite des approches volontaristes pour inciter chacun à utiliser davantage les réseaux de transports en commun. La gratuité du service peut y contribuer, au moins dans une période transitoire et lorsque le contexte le permet. Elle présente néanmoins le grave inconvénient de se priver d’une source généralement importante de recettes alors que la problématique principale est d’investir davantage pour développer et adapter l’offre de transports publics aux besoins.

Comme souvent en matière de gestion des services publics, les choses ne sont pas si simples qu’il n’y paraît et l’optimum revient souvent à mobiliser en parallèle plusieurs leviers complémentaires, selon un dosage qui peut être très variable selon le contexte local…

L.V.  

Un nouveau château en Espagne

28 août 2017

L’architecte américano-canadien Franck Gehry fait assurément partie de ces starchitectes dont l’oeuvre ne laisse pas indifférent. Concepteur notamment du musée Guggenheim à Bilbao, de la Fondation Louis Vuitton à Paris, de la maison dansante à Prague ou encore de la tour de la fondation Luma en cours de construction à Arles, ses œuvres sont tout sauf classiques. Défiant les lois de la pesanteur, les bâtiments qu’il conçoit, parfois en s’inspirant simplement d’une boule de papier froissé, semblent totalement déstructurés, déformés, bancals et pour tout dire complètement loufoques, bousculant tous les principes architecturaux les plus solidement établis.

Vue d’ensemble de la Bodega Marqués de Riscal (source : Hotel Marqués de Riscal)

Parmi ces chantiers, il en est un qui retient particulièrement l’attention. C’est celui de l’hôtel de luxe édifié en 2006 sur une propriété viticole espagnole, Marqués de Riscal. Située à proximité de la ville médiévale d’Elciego, dans la vallée de l’Ebre, à mi-chemin entre Burgos et Pampelune, ce vignoble est aussi ancien que réputé. Fondée en 1860 par Camilo Hurtado de Amézaga, marquis de Riscal, un aristocrate acquis aux idées libérales et empreint de culture française, la maison Herederos del marqués de Riscal est désormais à la tête d’un domaine qui s’étend sur pas moins de 1500 ha avec des vignes en terrasses cultivées de manière extensive et surplombant la vallée de l’Ebre.

La bodega et les vignobles à proximité du village d’Elciego

Une partie des 180000 bouteilles stockées dans les chais

Une partie des caves date de 1858 et leur extension a été réalisée en 1883. Depuis, la marque est devenue un géant du vin espagnol de la Rioja, avec plus de 5 millions de bouteilles vendues annuellement, dont 70 % à l’export, et a même racheté, en 2010, 350 ha de vignobles à l’un de ses concurrents, le Français Pernod Ricard. Ici, on n’est plus dans le monde artisanal des vignerons à l’ancienne…

Mais le génie commercial de cette véritable entreprise viticole qu’est devenu le domaine Marqués de Riscal réside dans l’investissement hôtelier très haut de gamme conçu il y a maintenant plus de 10 ans pour attirer sur la propriété une clientèle aisée autour d’une véritable Cité du vin, vaste lieu d’accueil thématique de quelque 100 000 m2 consacré à l’élaboration, au soin et à l’étude du vin, entouré d’un complexe hôtelier luxueux assorti de salles de réception et de réunions.

Et c’est là que la patte de l’architecte Franck Gehry a su donner toute l’originalité qu’il fallait pour que cet immense complexe hôtelier et touristique perdu au milieu des vignes, dans un cadre enchanteur avec le village médiéval d’Elciego en arrière plan, devienne un site d’attaction proprement extraordinaire du fait de sa conception pour le moins originale. Il faut dire que si le projet date de 1998, il a fallu du temps, et de nombreuses dégustations de Rioja, pour convaincre l’architecte Franck Gehry, de s’engager dans la conception de cette bodega atypique, mais le résultat vaut le détour !

Les rubans en titane (source : Hôtel Marqués de Riscal)

Le bâtiment lui-même évoque vaguement une forme de cep de vigne avec ses piliers évasés vers le ciel qui supportent des éléments de forme cubiques disposés de manière apparemment très anarchique, avec de grandes ouvertures d’orientation variée. Le tout est enveloppé et surmonté de volutes enrubannées métalliques servant de pare-soleil, en acier inoxydable et titane, dans les tons rose, or et argent, sensé évoquer les teintes du vin, des capsules et de la maille dorée qui orne les bouteilles de la propriété. Vu de loin et en fonction des reflets de la lumière, l’effet est saisissant de voir ces rubans métalliques émerger au dessus des rangées de vignes, tels un paquet cadeau abandonné au milieu des ceps…

Des façades qui se marient avec celles des bâtiments anciens (source : Hôtel Marqués de Riscal)

Les façades sont en pierre, taillées dans le grès local, ce qui leur donne une certaine parenté avec celles des bâtiments historiques tout proches. Quant à l’aménagement intérieur, il est à l’avenant, de nombreux éléments ayant été dessinés par l’architecte lui-même. On y compte 43 chambres et suites luxueuses, accessibles pour la somme modique de 310 € la nuit pour les plus modestes d’entre elles, jusqu’à 800 € pour ceux qui ne comptent pas bouder leur plaisir en regardant à la dépense…

Une des 43 chambres de l’établissement (source : Hôtel Marqués de Riscal)

Le lieu, qui accueille désormais 70 000 visiteurs chaque année, dispose de surcroît de deux restaurants dont l’un tenu par un chef étoilé, de nombreuses salles de réunion et de réception, y compris pour ceux qui veulent s’y marier en grandes pompes, et bien entendu d’un spa luxueux où l’on pratique notamment la vinothérapie qui consiste en un bain dans une barrique en bois remplie d’un mélange à base de marc de raisin…

Le spa de l’hôtel (source : Hôtel Marqués de Riscal)

Destiné manifestement à une clientèle huppée et capable de dépenser sans compter, ce type d’établissement ne laisse cependant pas indifférent du fait de son architecture pour le moins originale, dont la conception a nécessité des études numériques poussées en trois dimensions et même des essais en soufflerie pour vérifier que les volutes en titane n’allaient pas s’envoler à la moindre brise. Quant à la réalisation d’une construction aussi biscornue, dont le coût reste tenu secret, on n’ose même pas imaginer le dialogue au jour le jour entre son concepteur et les entreprises en charge de concrétiser sur le chantier un projet aussi audacieux…

L.V.  

Gardanne valorise ses friches minières

22 août 2017

La ville de Gardanne fait partie de ces terroirs durablement marqués par l’extraction minière. Dès le 18e siècle, de nombreux habitants de la région s’adonnaient à l’exploitation du charbon de terre pour pallier la rareté du bois de chauffage. Au début du 19e siècle, on compte ainsi déjà plus de 80 puits de mines en activité et sans doute 200 déjà abandonnés.

L’arrivée du chemin de fer accélère le mouvement et les années 1880-90 voient à la fois le creusement du premier puits de mine moderne au coeur de la cité minière de Biver, et l’installation de l’usine Péchiney d’alumine, qui profite du lignite de Gardanne et de la bauxite extraite dans le bassin minier varois tout proche. C’est cette même usine qui sera à l’origine des rejets en mer de boues rouges dans les années 1960 et qui défraie toujours la chronique sous son nouveau nom d’Alteo. Après la deuxième guerre mondiale, enfin, est édifiée la centrale thermique de Meyreuil, alimentée par le lignite dont l’extraction bat alors son plein à Gardanne.

Mais tout cycle minier a une fin. L’exploitation du lignite de Gardanne stagne à partir des années 1960. Soutenue artificiellement pour des raisons politiques, la production s’effondre à partir des années 1990 et le dernier puits ferme en 2003. Alors que l’industrie minière employait jusqu’à 6500 personnes au début des années 1950, à une période où le site attirait une forte population de travailleurs immigrés, et encore autour de 2000 après la relance de l’activité impulsée en 1981, il ne restait plus que 600 à 700 mineurs encore employés au moment de la fermeture du dernier site.

Depuis, la ville de Gardanne s’efforce de retrouver un nouveau souffle, à l’image du bassin d’emploi voisin, qui s’étend sur les communes de Peynier, Fuveau et Rousset, où s’est développée depuis les années 1960 une activité industrielle florissante axée sur la micro-électronique. L’histoire de cette zone d’activité est d’ailleurs très intéressante car liée étroitement au déclin de l’extraction minière comme l’a bien analysé Olivier Lambert, professeur à l’université d’Aix-Marseille et spécialiste de l’histoire industrielle locale.

Zone industrielle de Peynier-Rousset vue d’avion (source : Pays d’Aix développement)

Cette zone industrielle de Peynier-Rousset, créée en 1961, est en effet située dans le même bassin minier que Gardanne, situé à une quinzaine de km seulement. Les premiers puits pour l’exploitation du lignite y ont été creusés à partir de 1912 et une usine de production d’alumine y est construite à partir de 1917 par les Norvégiens de la Norsk Aluminium Company qui ont bien repéré l’intérêt des lieux, situés à proximité des futures mines de lignite en cours d’aménagement, de la vallée de l’Arc, source d’eau abondante, et de la voie ferrée Carnoules-Gardanne, pourvoyeuse de la bauxite varoise.

Mais en décembre 1918, alors que le creusement des puits atteint 425 m de profondeur, l’eau de la nappe s’engouffre brusquement dans les travaux miniers et ruine définitivement toute velléité d’exploitation houillère. Echaudés par cet échec industriel, les Norvégiens se retirent également. De nouveaux projets industriels sont bien relancés dans les années 1940 pour valoriser l’usine d’alumine en vue de produire des carburants de synthèse puis du gaz de ville, mais sans succès et en 1949, l’ensemble des terrains et des bâtiments est racheté par les Houillères du bassin de Provence, issues de la nationalisation des mines de charbon décidée à la Libération.

Ce sont donc les Houillères qui seront à l’origine de la création de la zone industrielle de Peynier-Rousset, la première des Bouches-du-Rhône, en 1961, déjà dans une perspective de reconversion pour pallier la baisse d’activité inéluctable de l’extraction du lignite de Gardanne. Fortement aidée à coup de subventions publiques et malgré certaines implantations durables comme celle de Volvic qui y produit son jus de fruit Oasis avec l’eau du puits de l’Arc, la zone industrielle vivote pendant une vingtaine d’années, tenue à bout de bras par les Houillères.

En 1979, la zone industrielle prend enfin son essor avec l’arrivée d’Eurotechnique, issu d’une association entre les Américains de National Semiconductor et le Français Saint-Gobain. La première usine de fabrication de puces électroniques au silicium est construite à Rousset. Elle passera en 1983 dans le giron de Thomson avant de rejoindre en 1987 SGS-Thomson, une nouvelle société franco-italienne de semi-conducteurs qui prendra plus tard son nom actuel de STMicroelectronics.

Effectifs des Houillères et de la zone industrielle de Rousset entre 1945 et 2010 (source : O. Lambert / revue Rives, 2013)

Depuis, ce site est devenu un pôle d’activités prospère tourné vers la microélectronique et les nouvelles technologies, qui employait en 2013 de l’ordre de 7000 personnes, soit davantage que l’industrie minière de Gardanne à son apogée, sans pour autant qu’il s’agisse d’une véritable reconversion industrielle même si le contexte politico-économique mis en place par l’action des Houillères et les nombreuses aides publiques à la reconversion de cet ex-bassin minier ont fortement contribué à ce succès.

Centre Georges Charpak à Gardanne (source : Ville de Gardanne)

Nul doute en tout cas que la ville de Gardanne souhaite manifestement s’inspirer de cet exemple pour assurer l’avenir de ses propres friches minières. L’inauguration en 2008 du centre de microélectronique Georges Charpak, rattaché à l’école des mines de Saint-Étienne, sur un campus de 6 ha, partie prenante du pôle de compétitivité « Solutions communicantes innovantes », illustre bien cette volonté de s’inscrire dans un environnement technologique en pleine évolution.

Centrale thermique de Meyreuil

En parallèle, la centrale thermique à charbon de Meyreuil, d’abord détenue par une filiale de Charbonnage de France, et désormais dans les mains de l’énergéticien allemand Uniper, tente une conversion difficile d’une des deux unités vers une centrale à biomasse. Le projet, lancé en 2103 et pour lequel ont déjà été investis 250 millions d’euros, devrait permettre à terme de brûler 850 000 t de bois chaque année, issus pour moitié de déchets et pour moitié de coupes de bois. C’est cependant ce dernier point qui inquiète fortement les associations locales de défense de l’environnement puisque cela reviendrait à prélever un tiers du gisement forestier disponible dans un rayon de 250 km… Le Tribunal administratif de Marseille a d’ailleurs annulé, le 8 juin dernier, l’autorisation d’exploitation accordée à la centrale !

Quant aux anciennes installations minières elles-mêmes, la ville tente de les valoriser après avoir racheté en 2006 les emprises du puits Morandat et du puits Z. Les puits ont été au préalable mis en sécurité et obturés en tête par des dalles en béton armé très épaisses pour éviter tout risque d’effondrement. La SEMAG (Société mixte d’aménagement de Gardanne) est ainsi à l’oeuvre pour réaménager les 14 ha de la future zone d’activité qui sera développée autour du puits Morandat, avec pour objectif l’implantations d’entreprises innovantes et de PME axées vers l’économie sociale et solidaire, permettant de générer près d’un millier d’emplois selon les prévisions les plus optimistes.

L’ancien hall des mineurs accueille d’ores et déjà une pépinière d’entreprises tandis que le bâtiment du Parc héberge l’unité territoriale après-mine créée par le BRGM et Charbonages de France pour gérer la mise en sécurité des anciennes mines dans le tiers sud-est de la France.

Le chevalement de l’ancien puits Morandat (source : Ville de Gardanne)

Les travaux de viabilisation ont déjà été lancés en vue d »aménager les premières tranches destinées à l’accueil d’entreprises. Il est notamment prévu la fourniture de chaleur via un réseau qui exploite le gisement géothermique des anciennes galeries minières désormais ennoyées. Une société spécifique, dénommée Énergie solidaire, a été créée pour cela, via une association entre la SEMAG et Dalkia EDF. Elle prévoit un investissement de 4 millions d’euros, la moitié de l’électricité nécessaire pour faire fonctionner la station de pompage étant issue de panneaux photovoltaïques.

Le chevalement du puits Morandat pourrait, quant à lui, être reconverti en un restaurant panoramique tandis que l’ancien vestiaire des mineurs devrait accueillir d’ici 2022 un centre de culture scientifique et technique imaginé dans l’esprit de la Cité des sciences de la Villette à Paris. Bref, les projets ne manquent pas à Gardanne pour valoriser ces anciennes friches minières, sans totalement tourner le dos à un passé dont la ville continue à s’enorgueillir.

L.V.  

La santé a t-elle un prix ?

12 août 2017

Hôpital d’Aubagne (photo © Frédérique Gros / La Provence)

Le sort de l’hôpital public Edmond Garcin d’Aubagne est une nouvelle fois sur la sellette. Soumis à un premier plan de redressement en 2008, qui avait occasionné une forte mobilisation en vue de maintenir opérationnel cet établissement, c’est maintenant son service de réanimation qui est voué à être transféré à la clinique privée de la Casamance selon les conclusions d’un cabinet d’audit, mandaté par l’Agence régionale de santé (ARS).

L’inauguration d’Argilla, organisée tous les deux ans à Aubagne, en a fait les frais le 5 août dernier, perturbée par une centaine de manifestants venus protester contre cette décision fortement orientée puisque le cabinet d’audit Nordmann reconnaît bien volontiers que son diagnostic avait été établi en vue de démontrer qu’un transfert au privé était la meilleure solution, comme le demandait l’ARS.

Banderolle devant l’hôpital d’Aubagne (source : Matin 9)

Face à une attitude aussi partisane, les médecins réanimateurs de l’hôpital d’Abagne ont décisé de relever le gant et de mener leur propre étude d’impact quant aux conséquences qu’aurait, sur le fonctionnement de l’établissement et surtout sur l’offre de soin proposée à la population, le transfert de son service de réanimation et sa transformation en Unité de soins continus come le préconise l’ARS. Leur conclusion est sans appel et radicalement opposée aux hypothèses initiales de l’ARS puisqu’ils considèrent qu’un tel transfert se traduirait par une aggravation du déficit de l’établissement hospitalier et par une dégradation de la qualité de l’offre de soin dont profitent des patients venant non seulement du bassin proche estimé à 180 000 habitants mais parfois aussi du Var.

Cette lutte incessante et fortement idéologique entre public et privé pour l’organisation des soins de santé va bien au-delà du seul cas de l’hôpital d’Aubagne. Elle agite fortement nos amis canadiens fermement attachés à une offre de soin publique et qui constatent avec effarement la dérive du système américain, largement aux mains du privé et qui se révèle être l’un des plus mauvais du monde en termes d’efficience. Alors que des pays comme la France ou le Canada consacrent grosso modo 10 % de leur richesse nationale à la santé, ce taux grimpe à plus de 17 % aux Etats-Unis alors que la proportion de ceux qui n’ont pas accès aux soins y atteint des sommets…

Dessin de Lardon

Alors que ce pays se déchire autour de l’avenir de la loi santé et du dispositif Medicaid mis en place par la volonté de Barak Obama et que son successeur, Donald Trump, fait tout pour renvoyer dans les oubliettes de l’histoire, un livre fort intéressant, intitulé « An American sickness », vient mettre en évidence le point faible du système sanitaire américain : son coût totalement exorbitant !

Elisabeth Rosenthal, auteur de An American sickness

L’auteur de cette étude, l’ex-médecin devenue journaliste, Elisabeth Rosenthal, dresse en effet un tableau assez effrayant d’un système de santé entièrement privatisé où les décisions ne sont plus prises par le personnel médical en fonction de règles d’éthique et en vue de favoriser le bien-être des patients, mais par des gestionnaires qui répondent avant tout aux intérets de leurs actionnaires en cherchant à maximiser les profits à court terme et le retour sur investissement.

Exactement le modèle que cherchent à imposer les fonds d’investissement qui détiennent désormais une part importante des plus de 1000 établissements hospitaliers privés actuellement opérationnels en France, lesquels accueillent environ un tiers des 45 millions de personnes hospitalisés annuellement dans ce pays.

Un domaine en pleine concentration dans lequel les fonds d’investissement rachètent à tour de bras des établissements aux médecins qui les ont créés, pour les restructurer, pressurer le personnel et maximiser les profits en externalisant nombre de fonctions annexes et souvent en revendant les murs pour fluidifier le capital investi. Le leader actuel est ainsi le groupe australien Ramsay Health Care qui a racheté en 2014 la Générale de Santé et détient désormais quelques 125 cliniques privées en France.

Aux USA, ce qui ressort de l’analyse de la journaliste c’est une formidable dérive des coûts d’hospitatlisation avec une surenchère liée au marketing médical. On choisit désormais son établissement hospitalier en fonction de la qualité architecturale des chambres et parce que le café est offert à l’accueil, ce qui explique que la journée d’hospitalisation peut être facturée 5000 $ ! Une opération de l’appendicite coûte jusqu’à 40 000 $ aux USA et le prix moyen d’un accouchement y dépasse 30 000 $…

Dessin de Schwartz paru dans le livre « La santé publique en questions de Laurent Chambaud en 2017 (source Luc Perino)

Le salaire des médecins y est en augmentation constante et un chirurgien orthopédique américain gagne en moyenne deux fois plus qu’un confrère allemand. Une dérive dont est largement responsable le réseau d’assurances privées puisque c’est lui qui finance l’essentiel du secteur, au détriment du patient dont l’accès aux soins devient de plus en plus difficile.

Face à un tell constat, Elisabeth Rosenthal critique l’acharnement de certains, dont la majorité des élus républicains, à considérer que la santé doit obéir aux seules règles du marché. On ne choisit pas d’être malade et le patient n’est pas seulement un consommateur qui pourrait choisir en toute connaissance de cause tel ou tel traitement. L’exemple américain est de ce point de vue assez instructif quant aux dérives dans lesquelles peut nous mener une conception aussi mercantile de la santé publique telle que souhaitent la pratiquer les cliniques privées françaises, avec parfois la complicité des responsable politiques. A chacun d’être vigilant car nous sommes tous concernés !

L.V.  

Marseille, nouveau roi du coffre-fort numérique ?

22 juillet 2017

Longtemps reconnue mondialement pour son rôle de port colonial, puis pour celui de cerveau de la French connexion et pour sa réputation déplorable de violence urbaine, Marseille tente depuis des années de se forger une nouvelle image de port d’accueil pour le tourisme de la croisière de luxe. Mais c’est dans un tout autre domaine que la ville est en train de connaître un développement inattendu : celui des data centers, ces coffres-forts modernes où sont stockées physiquement les milliards de données numériques que l’on a tendance à imaginer évaporées sur un nuage éthéré, le fameux « Cloud »…

Salle blanche pour le stockage des baies informatiques

Car la tendance actuelle en informatique est d’avoir des ordinateurs de plus en plus puissants mais paradoxalement de plus en plus vides, ce qui génère des flux de données croissant et totalement gigantesques à travers la planète entière. Les logiciels et le stockage de données, qui prend de plus en plus de place, sont désormais hébergés sur des serveurs situés on ne sait où, chez un prestataire informatique qui conserve de manière sécurisée nos données personnelles.

Un tel service d’hébergement des données numériques personnelles (nos photos, la vidéo des premiers pas du petit dernier, nos courriels, nos fiches de paies et autres papiers administratifs, nos fichiers numériques, etc.) est même fourni gratuitement par la plupart des fournisseurs d’accès internet, bien trop contents de récupérer ainsi à bon compte toutes nos données personnelles qui seront ensuite valorisées pour développer des sollicitations commerciales adaptées à nos centres d’intérêts personnels. C’est aussi un service payant qu’offrent de plus en plus de prestataires, tels que la Poste ou la Caisse d’Epargne, sous le nom de « coffres-forts numériques ».

Il s’est ainsi créé un nouveau marché très juteux, celui du stockage sécurisé de données numériques. Du fait de l’importance vitale de toutes ces données numériques qu’il convient d’archiver pour de longue durées tout en en conservant une parfaite traçabilité et en étant sûr de pouvoir les retrouver et les exploiter à tout moment, de nombreux prestataires sont ainsi apparus qui proposent de garantir la disponibilité, l’intégrité et la pérennité de ces données, moyennant juste rétribution…

Comme les château-forts d’antan, ces nouveaux coffres-forts numériques que sont les data centers sont conçus avec de multiples barrières de sécurité successives, ainsi que l’explique Fabrice Coquio, président d’Interxion France, un groupe néerlandais fondé en 1988, qui héberge les serveurs informatiques de plus de 200 clients dont Microsoft, Amazon, Facebook, Twitter, Yahoo, etc.

Comme tout château fort qui se respecte, il faut bien entendu une muraille solide, avec plusieurs niveaux de protections successifs : l’enceinte du bâtiment, protégée par barrières infra-rouges et vidéo surveillance avec détection de mouvement et vision nocturne, le bâtiment lui-même, équipé de sas d’accès sous alarmes, d’accès anti-effraction et de vidéo surveillance, les salles de stockage ensuite, protégées par contrôle d’accès et par système biométrique, et enfin les baies qui sont les systèmes informatiques dans lesquels sont stockées les données numériques, elles-mêmes rassemblées au sein de cubes fermés à l’aide d’un code ou d’un système de clé.

Autout du château s’étendent bien entendu, les douves, matérialisées ici par les systèmes de sécurisation des réseaux, sous forme de fibre noire cryptée qui fait transiter les données grâce à des signaux encodés. Quant aux armées qui gardent le château, ce sont les agents de sécurité habilités qui assurent une veille sur site 24h/24. Enfin, le donjon qui est consitué par le poste de pilotage et de commande par lequel transitent toutes les informations nécessaires à la maintenance du bâtiment.

Les bâtiments du premier data center d’Interxion implanté à Marseille depuis 2015 (source © Interxion)

Reste à savoir où implanter ces châteaux-forts de l’ère numérique. Et c’est là que Marseille se révèle, parmi d’autres, comme un emplacement particulièrement favorable. La présence de 13 câbles sous-marins qui arrivent ici en font en effet un point névralgique pour les échanges digitaux et télécoms entre l’Europe, le Moyen-Orient, l’Afrique et l’Asie. Les grands acteurs du Cloud ont bien repéré cette spécificité et l’activité tend donc à se développer.

C’est ainsi que la société Interxion y a ouvert en 2015 son huitième centre français de stockage, dans les locaux d’un ancien site SFR basé à la Joliette. Un investissement de 45 millions d’euros pour une surface utile qui sera portée à terme à 5 700 m² et une puissance électrique installée de 6 MW. Et ce n’est pas fini puisque cette société, numéro 2 mondial, qui exploite désormais 45 data centers à travers l’Europe, compte ouvrir deux nouveaux sites marseillais mitoyens, dans le secteur du cap Janet, à l’Estaque.

La halle Freyssinet du Cap Janet et la base U-boot attenante (photo © Kariyou)

Une maquette du futur centre MRS2 dans la halle Freyssinet rénovée (source © Interxion)

Le premier, dont la première pierre vient d’être posée à l’occasion d’un grand raout officiel en présence de Jean-Claude Gaudin, de Gérard Gazay et de Christine Cabau-Woehrel, présidente du Grand Port maritime de Marseille, se développera dans les locaux désaffectés des anciens ateliers de réparation navale Fouré-Lagadec, inoccupés depuis 1995. Il s’agit d’une vaste halle Freyssinet, c’est à dire conçue sur le modèle du gigantesque hangar à trois nefs surmontées de voûtes cylindriques minces que l’ingénieur Eugène Freyssinet avait conçu et réalisé en 1929 pour abriter les voies de la gare d’Austerlitz. Un ouvrage de référence, inscrit depuis 2012 au titre des monuments historiques, et dont la conception a inspiré un très grand nombre de hangars militaires, aéroportuaires et industriels à travers tout le pays.

Sur ce site, la demande de permis de construire a été déposée en vue d »aménager courant 2017 dans ce bâtiment 4 000 m² de salles blanches destinées au stockage sécurisé de données informatiques, et ceci pour un coût d’investissement évalué à 70 millions d’euros.

Vue aérienne du site de la base de sous-marins après la guerre

Quant au troisième site convoité par Intexion qui souhaite y aménager 10 000 m² de stockage supplémentaire, il s’agit ni plus ni moins que du bâtiment voisin, une ancienne base de sous-marins allemands datant de la seconde guerre mondiale, le « U-bootbunker Martha ». En réalité, cet imposant complexe en béton armé de 208 m de longueur et 45 m de largeur, dont la construction a été lancée en janvier 1943 et qui devait accueillir une vingtaine de sous-marins militaires, n’a jamais servi. Les travaux ont été stoppés en août 1944, suite au débarquement allié en Provence, avant même que le chenal d’accès des sous-marins ne soit creusé. La bâtiment n’a donc jamais été opérationnel, sauf ponctuellement pour y assurer la détention de prisonniers de guerre allemands, dont les fresques dessinées sur les murs peur meubler leur captivité sont encore visibles sur les parois.

Ce bâtiment, resté en l’état depuis sa construction, intéresse a plus haut point l’amateur de châteaux forts qu’est le directeur de la société Interxion. Véritable bunker massif construit sur le modèle des bases de Lorient, Brest et La Rochelle, il est surmonté d’une dalle de toit en béton armé de près de 6 m d’épaisseur, capable de résister à des bombes d’une tonne comme la Royal Air Force en avait fait l’expérience à Lorient. Quant aux murs, leur épaisseur varie entre 90 cm et 2,85 m pour ceux qui sont situés face à la mer et qui étaient susceptibles d’être bombardés depuis le large.

Une structure parfaitement adaptée donc à l’usage envisagé, d’autant que les salles de maintenance prévues par les ingénieurs allemands à l’étage, pourront facilement être aménagées en salles blanches. Une belle opportunité également pour le Grand Port maritime de Marseille qui se demande depuis plus de 70 ans ce qu’il pourrait bien faire de ce vestige historique aussi délabré qu’encombrant et dont la déconstruction coûterait une fortune. Une petite inquiétude néanmoins pour l’approvisionnement en électricité de ce château fort futuriste qui aura besoin en permanence d’une puissance électrique de 8 mégawatts, à comparer aux 50 MW que consomment l’ensemble des serveurs informatiques de Google et aux 100 MW produits par une tranche de réacteur nucléaire. De quoi se rappeler que le numérique commence à prendre une part non négligeable dans notre empreinte carbone globale…

L.V.  

Alternatives économiques : l’éco pour les nuls !

7 juillet 2017

Fondé en 1980 par l’économiste Denis Clerc en réaction au fameux slogan de Margaret Thatcher, « There is no alternative », le magazine Alternatives économiques, plus connu par les habitués sous son petit nom d’Alter Eco, est devenue une référence pour tous ceux qui ne sont pas complètement séduits par la doxa dominante du néolibéralisme le plus débridé. Edité par une société coopérative et diffusé à raison de 90 000 exemplaires payants chaque mois en moyenne, c’est devenu le deuxième magazine économique le plus lu en France, après Les Echos : une véritable référence donc en la matière qui vise à concilier le social et l’économique, dans un format très pédagogique et qui s’adresse à un très large lectorat.

Le dernier numéro d’Alter Eco va encore plus loin dans l’art de rendre accessible à tous certaines notions apparemment obscures qui font que le domaine de l’économie passe généralement pour rébarbatif et réservé aux seuls initiés. Le dossier du mois est en effet intitulé « Les (gros) mots de l’économie ». Trappe à liquidité, destruction créatrice, stagnation séculaire ou aléa moral : autant de termes parfaitement abscons pour qui n’a pas suivi un master d’économie ou ne sort pas de 2 mois de révisions fébriles en prévision de passer son bac en série ES.

L’idée de la réadction pour rendre abordable ces notions est non seulement de les expliciter par un texte d’une page, parfaitement limpide et souvent plein d’humour voire de poésie (Ah, le poéme en alexandrins sur la stagnation séculaire, un bijou d’anthologie !), mais surtout de demander à des dessinateurs d’illustrer chacune de ces notions par une planche de bande dessinée.

Le résultat est totalement bluffant et il faut vraiment se précipiter sur ce numéro double juillet-août d’Alter Eco qui assurément devrait devenir collector. Un exemple parmi d’autres pour vous donner envie de lire ce dossier où vous découvrirez aussi que la maladie hollandaise n’a rien à voir avec la frénésie pathologique de notre dernier Président de la République à escompter une soudaine et bienvenue inversion de la courbe du chômage, et où vous apprendrez stupéfait que ce bon vieux Adam Smith, outre le fait qu’il pourrait commettre des maladresses s’il se retrouvait de nos jours dans une rame de métro, n’a jamais vraiment assimilé le marché à une main invisible autorégulatrice comme on le lui attribue généreusement (et de manière perfide).

Un extrait du n° 370 d’Alternatives économiques…

Sur les externalités négatives, par exemple, l’explication est des plus limpides, basée sur l’exemple de l’agriculteur qui booste sa production à grands coûts de pesticides, provoquant pollution des nappes et des cours d’eau, avec toutes les répercussions environnementales et sanitaires qui en découlent, mais dont les coûts induits n’entrent évidemment en rien dans le bilan de son exploitation agricole. Une démonstration magistralement illustrée par Fabrice Erre, lui-même enseignant et auteur de bandes dessinées qui tient par ailleurs un blog intitulé Une année au lycée. Une adresse qui mérite le détour également et dont les dessins nous plongent actuellement dans l’ambiance des épreuves du baccalauréat : un petit extrait pour la route :

Dessin signé Fabrice Erre paru sur son blog à la date du 6 juillet 2017

Avec de tels professeurs aussi pédagogues, on se demande bien comment la France a bien pu tomber aussi bas dans le classement international PISA…

L. V. 

Insecticides tueurs d’abeille : Hulot a failli avaler de travers

2 juillet 2017

Lors de l’annonce du premier gouvernement d’Edouard Philippe le 17 mai dernier, peu après l’élection d’Emmanuel Macron à la Présidence de la République, nombreux étaient ceux qui pariaient que le nouveau ministre d’État à la transition écologique et solidaire, l’ex animateur de télé Nicolas Hulot, peu connu pour ses qualités diplomatiques et son art du compromis, ne ferait pas de vieux os à ce poste. Beaucoup se demandaient même s’il arriverait à battre le record de longévité d’Alain Bombard, resté secrétaire d’État pendant 32 jours avant d’être débarqué pour ses déclarations à l’emporte pièce sur la chasse à courre, voire celui de Léon Schwartzenberg, éphémère ministre de la santé de Michel Rocard, éjecté 9 jours après sa nomination pour avoir tenu des propos peu consensuels sur l’euthanasie.

Nicolas Hulot, ministre de la Transition écologique et solidaire (crédit photo Villard / SIPA)

Et pourtant, contre toute attente, Nicolas Hulot non seulement a été confirmé dans ses fonctions lors de la formation du second gouvernement Philippe, mais il est toujours à son poste un mois et demi plus tard, alors que d’autres poids-lourds de cet attelage, dont François Bayrou, Richard Ferrand ou encore Marielle de Sarnez ont déjà mordu la poussière… Pour quelqu’un qui déclarait voilà peu à propose de sa toute nouvelle charge ministérielle « j’espère que ce ne sera pas qu’un job d’été », c’est plutôt encourageant…

Et voilà même qu’il vient d’engranger la satisfaction de voir arbitrer en sa faveur un désaccord majeur avec le ministre de l’agriculture et de l’alimentation, l’ex député socialiste de la Manche, Stéphane Travert. Par comparaison avec les énormes couleuvres avalées par ses prédécesseurs à ce poste ingrat, dont Ségolène Royal qui avait dû laisser Manuel Valls lui imposer de laisser Alteo continuer de déverser en plein Parc national des Calanques ses eaux industrielles riches en métaux lourds et fortement alcalines, c’est donc plutôt un bon début.

Rappelons pour mémoire que les députés avaient adopté en mars 2016, à l’occasion de l’examen en deuxième lecture à l’Assemblée nationale de la loi Biodiversité, un amendement prévoyant d’interdire l’usage des insecticides à base de néonicoticoïdes, dont il a été largement prouvé la nocivité sur le système nerveux des abeilles. Un pas en avant que tous les défenseurs de l’environnement et surtout les apiculteurs attendaient depuis des années en observant année après année l’effondrement des colonies d’abeilles et autres pollinisateurs (bourdons et papillons notamment) : la production de miel qui était d’environ 30 000 tonnes par an il y a 20 ans, a péniblement atteint 15 000 tonnes en 2015…

Des ruches françaises de moins en moins productives (infographie AFP)

La particularité de ces substances actives (clothianidine et imidaclopride, produites par Bayer, et thiaméthoxame synthétisé par la firme Syngenta), commercialisées notamment sous les noms de Gaucho et Cruiser, est qu’elles ont un effet systémique, c’est à dire qu’elles envahissent tout le système de la plante, de la sève au pollen. Il suffit donc d’en enrober les graines pour contaminer toute la plante durant toute sa croissance, ce qui évite à l’agriculteur d’avoir ensuite à traiter ces cultures par des aspersions répétées comme avec d’autres produits.

Le gain de temps et les économies qui en résultent expliquent pourquoi ces insecticides ont été autant plébiscités jusqu’à constituer désormais un tiers des insecticides utilisés dans le monde. On l’utilise en particulier pour protéger les cultures de blé, d’orge ou de betterave contre les attaques de pucerons verts. Le hic, c’est que les pollinisateurs qui viennent butiner sur ces champs absorbent ces substances qui ont une action nocive puissante sur leur système nerveux et les désorientent, leur empêchant de rejoindre leur colonie, d’où la perte constatée de plus de 300 000 ruches chaque année, une véritable hécatombe qui ne se limite bien évidemment pas aux seules abeilles domestiques mais touche tous les insectes pollinisateurs.

En 2013 déjà, la Commission européenne avait décidé de limiter l’utilisation professionnelle de produits phytosanitaires contenant des substances actives de la famille des néonicotinoïdes sur certaines cultures et également d’interdire la mise sur le marché de semences traitées ainsi que les utilisations non-professionnelles. Il lui avait bien fallu en effet tenir compte de l’avis de l’Autorité européenne de sécurité sanitaire des aliments (AESA) qui avait constaté, au vu des inombrables études scientifiques concordantes sur le sujet, l’effet désastreux de ces substances sur les populations d’abeilles.

A l’époque, ces restrictions d’usage, entrées en vigueur au 1er décembre 2013, portaient sur 75 cultures différentes dont notamment des cultures fruitières (abricots, poires, pommes, pêche et nectarines, prunes), des cultures de fruits à coque (noix, noisettes amandes) ou des cultures de fruits rouges (fraises, myrtilles), jugées particulièrement attractives pour les abeilles. Mais il ne s’agissait que d’un moratoire temporaire car de nombreux pays, dont le Royaume-Uni en pointe sur ce dossier, s’étaient alors battus bec et ongles pour empêcher toute mesure d’interdiction définitive.

C’est donc en attendant que l’Europe se mette d’accord sur des mesures plus fermes sur le sujet que la France a débattu de la question à l’occasion du vote de la loi Biodiversité, d’autant que ce moratoire na manifestement pas eu les effets escomptés puisque les ventes d’insecticides néonicotinoïdes ont bondi en France, passant de 387 tonnes en 2013 à 508 en 2014, soit un gain de 31 % en un an !

Le débat a été houleux en 2016, avec même une intervention du ministre de l’agriculture Stéphane Le Foll, fortement aiguillé par les principales fédérations professionnelles agricoles des producteurs de blé, de maïs, d’oléagineux et de betteraves incitant par courrier les députés à ne surtout pas décider d’interdiction brutale de ces produits jugés indispensables pour garantir la compétitivité des filières. Il s’était finalement soldé par une interdiction à compter du 1er septembre 2018 sur l’ensemble des cultures mais avec possibilité d’accorder des dérogations jusqu’en 2020, histoire de laisser du temps à chacun de s’adapter, et éventuellement aux changements de majorité de revenir en arrière…

Stéphane Travert, ministre de l’agriculture et de l’alimentation crée le buzz en annonçant vouloir revenir sur l’interdiction prochaine des néonicotinoïdes (crédit photo BFMTV)

C’est bien d’ailleurs ce qui a failli se passer puisque dès sa nomination au ministère de l’agriculture et poussé par les lobbies agricoles et de l’agrochimie, Stéphane Travert est aussitôt monté au créneau en déclarant le 26 juin 2017, moins d’une semaine après son entrée en fonction, vouloir revenir sur cette interdiction prochaine des néonicotinoïdes, qu’il juge excessive par rapport aux obligations européennes et surtout gênante pour les intérêts de la profession.

Cette déclaration a aussitôt fait bondir son collègue Nicolas Hulot qui a immédiatement tweeté qu’il n’était pas question de revenir sur les engagements votés il y a un an, et déclarant : « Nous ne reviendrons pas sur ces acquis. Je veux être le garant de ce qu’ont fait mes prédécesseurs ». Sur un tel sujet, on ne l »imaginait pas en effet se déjuger lui qui avait toujours été en pointe dans ce combat contre les insecticides tueurs d’abeilles. En revanche, la position du chef du gouvernement, Edouard Philippe, était plus attendu. Cet ancien directeur des affaires publiques d’AREVA est en effet réputé peu sensible aux questions environnementales, au point d’avoir voté contre la loi Biodiversité en 2016, et contre la loi sur la Transition énergétique.

Et pourtant, ce même Edouard Philippe a signifié le jour même à son ministre de l’agriculture que le débat avait déjà été tranché et qu’il n’était pas question de revenir en arrière sur cette interdiction prochaine des insecticides néonicotinoïdes. Première victoire donc pour le nouveau ministre Nicolas Hulot, mais nul doute que le combat ne fait que commencer et qu’il aura d’autres occasions de monter au créneau pour éviter d’avaler trop de couleuvres sur les nombreux chantiers qui s’ouvrent devant lui… Pas de vacances donc pour Monsieur Hulot !

L. V.  

Fondation Louis Vuitton : merci les contribuables !

24 juin 2017

Jeunes Chinoises accro aux sacs Louis Vuitton…

LVMH : Louis Vuitton Moët Hennessy… Des lettres qui symbolisent le summum du luxe à la française, destiné à tous les snobinards de la planète, du riche émir qatari au parvenu de la mafia russe en passant par tous ces riches touristes asiatiques qui se pressent sur les Champs-Elysées pour acquérir à prix d’or un sac siglé destiné à exposer à tous leur réussite sociale.

Le groupe date de 1987, créé par le rapprochement de la firme Louis Vuitton, spécialisée en maroquinerie de luxe et issue d’une fabrique de malles fondée en 1854, et de la société de spiritueux qui regroupe des marques prestigieuses comme le cognac Hennessy (qui s’exporte depuis 1859 en Chine), mais aussi le champagne Moët et Chandon et la marque de parfums Christian Dior rachetée au groupe Boussac peu auparavant.

Bernard Arnault, PDG du groupe LVMH, en 2015 (photo © Eric Piemont/AFP)

C’est ce dernier fleuron du luxe français qui attise la convoitise du requin de la finance qu’est Bernard Arnault, lequel venait d’acquérir en 1984 ce qui restait de l’empire textile Boussac – Saint Frères. Dès 1989, Bernard Arnault prend ainsi le contrôle de LVMH, via la Financière Agache, et rassemble sous le nom de holding Christian Dior, les activités liées au parfum et à la haute-couture, qui s’enrichissent en 1997 à l’occasion de l’acquisition de Sephora. A l’issue d’une bataille juridico-financière féroce, l’impitoyable Bernard Arnault se débarasse progressivement des autres actionnaires et devient propriétaire principal du groupe LVMH en 1990. Tout le reste de l’histoire de cette société n’est qu’une longue succession d’OPA hostiles et de rachats à la hussarde pour permettre aux groupe de racheter des marques réputées et s’imposer progressivement comme le géant mondial du luxe.

L’affiche du film de François Ruffin, à charge contre Bernard Arnault

Détenu à 46,7 % par Bernard Arnault, son PDG, le groupe LVMH emploie de l’ordre de 125 000 personnes dans le monde, détient près de 4000 magasins disséminés à travers la planète et a engrangé en 2016 un chiffre d’affaire de 37,6 milliards d’euros. Champion de l’optimisation fiscale, LVMH serait le groupe français qui détient le plus de filiales implantées dans des paradis fiscaux, avant même BNP Paribas, pourtant assez fort dans ce domaine. Le groupe s’est également diversifié dans les médias, en rachetant notamment Les Echos et Le Parisien, histoire de manipuler l’opinion publique au gré de ses intérêts, tout en pesant de tout son poids sur les autres médias via le marché publicitaire de ses marques de luxe, LVMH constituant le principal annonceur publicitaire en France…

Epinglé par le journaliste et désormais député La France insoumise, François Ruffin, dans son film satirique « Merci, patron ! », le milliardaire Bernard Arnault se défend mollement en reconnaissant que « le groupe LVMH est l’illustration, l’incarnation de ce que, pour ces observateurs d’extrême gauche, l’économie libérale produit de pire ». Et voila que certains commencent à s’interroger sur les dessous d’une autre affaire qui concerne cette fois la Fondation Louis Vuitton.

Créée en 2006 pour faire contrepoids à la fondation installée dans l’ancienne Bourse du Commerce, à deux pas des Halles qui est dirigée par son rival de toujours, l’autre milliardaire François Pinault, la Fondation Louis Vuitton se présente comme un outil de mécénat artistique, né de la rencontre avec l’architecte Franck Gehry, concepteur du musée Guggenheim à Bilbao. Grâce à son entregent et en moins de 2 mois, le patron de LVMH obtient que la Ville de Paris lui cède gratuitement une parcelle de 1 ha dans le Bois de Boulogne pour une durée de 55 ans. Le permis de construire, qui fera l’objet d’un recours jusque devant le Conseil d’État, mais en vain, est attribué en un temps record et la starchitecte Franck Gehry peut laisser libre court à son imagination délirante pour concevoir ce que les observateurs qualifient selon leur inspiration de « bateau à voile », de « baleine-obus » ou de « nuage ».

Le bâtiment de la Fondation Louis Vuitton (source FLV)

Achevé fin 2013, le bâtiment bénéficie d’une inauguration en grandes pompes le 27 octobre 2014 en présence du chef de l’État, François Hollande, lequel a préféré venir inaugurer cet établissement privé plutôt que le Musée des Confluences à Lyon, comprenne qui pourra… A l’époque, tout le monde s’extasie devant l’originalité de cet écrin, même si les entreprises chargées de sa construction pour le moins atypique reconnaissent que « jamais un bâtiment n’aura été aussi complexe à construire pour satisfaire le génie d’un architecte ». Il faut recourir aux calculateurs de Dassault Aviation pour dimensionner les milliers de pièces à assembler dont 19 000 plaques de béton fibré toutes différentes et les 12 voiles en verre, moulées sur mesure dans un four spécial.

Inauguration du bâtiment par François Hollande vu par le dessinateur Na !

Un travail de titan qui a un coût, maintenu soigneusement caché… On parle à l’époque d’une facture dépassant les 100 millions d’euros. Mais selon l’universitaire Jean-Michel Tobelem, spécialiste du mécénat d’entreprise et dont la tribune publiée dans Le Monde en octobre 2014 sous le titre « Le mécénat d’entreprise sans la générosité » avait fait quelques vagues, le coût est plutôt de l’ordre de 400 à 500 millions, sans commune mesure avec les 75 millions d’euros qu’a coûté par exemple l’aménagement du Centre Pompidou à Metz. Mais à l’époque chacun n’a d’yeux que pour l’extrême générosité du milliardaire : « C’est un cadeau de Bernard Arnault aux Parisiens », comme le répètent en boucle ses thuriféraires.

Un chantier d’une grande complexité technique (source : Fondation Louis Vuitton)

Mais un cadeau de luxe : selon les dernières estimations dévoilées par Emmanuel Lévy dans l’hebdomadaire Marianne, le chantier pharaonique aurait finalement coûté la bagatelle de 775,8 millions d’euros ! Et ceci sans compter les coûts de fonctionnement qui se seraient élevés en 2015 à près de 80 millions d’euros, quasiment la moitié de ceux du Louvre qui reçoit pourtant 10 fois plus de visiteurs. Rapporté au nombre de visiteurs, cela représente quand même 80 € par tête de pipe. On comprend dans ces conditions pourquoi l’entrée est si chère : 14 € par personne, seuls les enfants de moins de 3 ans pouvant y entrer gratuitement. Dans le monde du luxe, il convient d’apprendre très jeune que tout se paye, et cher…

Le pire c’est que ce sont les contribuables français qui payent la plus grande part de ce geste de générosité du délicieux Bernard Arnault. Grâce aux dispositions législatives issues de la loi Aillagon de 2003, les plus généreuses du monde en faveur du mécénat d’entreprise, 60 % des sommes investies sont déduites de l’impôt sur les sociétés. En 2015, LVMH a ainsi siphoné à lui seul 10 % de l’enveloppe affectée.

Le bâtiment de la Fondation Louis Vuitton coloré par Daniel Buren en mai 2016 (photo © Philippe Guignard / Air Images / Fondation Louis Vuitton)

Et ce n’est pas tout puisque le groupe a également adressé à Bercy une demande de remboursement de la totalité de la TVA payée dans le cadre du chantier, soit la bagatelle de 130 millions d’euros supplémentaire. Au final, c’est donc près de 80 % du coût du projet qui sera payé non pas par le richissime propriétaire de LVMH mais bien par le contribuable français, tandis que le groupe de luxe cultive son image de généreux mécène éclairé qui se glorifie d’avoir réalisé « un acte philanthropique majeur vis-à-vis de Paris ». On reste en effet confondu devant un tel savoir faire en matière de communication…

L.V. 

Trump place les États-Unis au ban de l’humanité

3 juin 2017

Finalement, personne n’aura été capable de convaincre le président des États-Unis, l’insaisissable Donald Trump, que l’avenir de la planète pouvait justifier un minimum de sacrifice vis-à-vis des intérêts économiques américains à court terme. Ce n’est pourtant pas faute d’avoir essayé. Dès leur première rencontre et la poignée de main musclée avec le nouveau président français, Emmanuel Macron, ce dernier avait insisté pour que Donald Trump prenne le temps de la réflexion avant d’annoncer la sortie des États-Unis de l’Accord de Paris, qui avait été adopté par 195 pays à l’issue de la COP 21 en décembre 2015 et était entré en vigueur moins d’un an plus tard, le 4 novembre 2016, après que 146 pays, dont les États-Unis, l’aient ratifié.

Poignée de main entre Donald Trump et Emmanuel Macron lors du sommet de l’OTAN, le 25 mai 2017 à Bruxelles (photo © Reuters)

Le sujet avait été au coeur des discussions lors du sommet du G7 à Taormina où les autres chefs d’États présents avaient tenté de convaincre le magnat de l’immobilier américain, devenu président de la première puissance économique mondiale, que l’avenir de la planète méritait peut-être réflexion. Dans son pays même, de très nombreuses voix, dont celle de sa propre fille Ivanka, s’étaient élevées pour tenter de convaincre le président Trump de revenir sur sa promesse de campagne. Les PDG de très grosses entreprises américaines, dont Facebook, Google, Apple, ou encore Exxon ont également pris position en faveur du respect de l’Accord de Paris qui engage les États-Unis à diminuer d’ici 2015 de 26 à 28 % ses émissions de gaz à effet de serre par rapport à leur niveau de 2005, tout en contribuant au fonds de solidarité destiné à aider les pays émergents dans leur effort d’adaptation. Les maires de 75 villes représentant 42 millions d’habitants, ainsi que les gouverneurs de 12 États abritant 102 millions d’Américains, ont aussi publiquement appelé Trump à respecter cet accord.

Certains avaient d’ailleurs cru déceler lors de l’une de ses intervention post-élection une amorce de revirement sur le sujet mais avaient vite déchanté lorsqu’il était revenu, en mars dernier, sur le dispositif mis en place par Barak Obama pour tenter de limiter le développement des centrales thermiques (Clean Power Plan). Nicolas Hulot, qui n’était alors pas encore ministre de la transition écologique et solidaire n’avait pas mâcher ses mots : « Si un jour la notion d’écocide est reconnue en droit international, Donald Trump sera coupable de crimes contre l’humanité ». Même le pape François y était allé de sa mise en garde…

Le président américain Donald Trump annonçant que son pays allait quitter l’Accord de Paris sur le climat, le 1er juin 2017 à Washington (photo © Brendan Smialowski / AFP)

Mais Donald Trump n’a eu cure de tous ces avertissements et a donc annoncé jeudi 1er juin 2017 que les États-Unis se retiraient dès à présent de l’Accord de Paris, justifiant sa décision par sa volonté de faire passer en priorité les intérêts américains à court terme, devant l’avenir de l’humanité à plus long terme : « J’ai été élu pour représenter les habitants de Pittsburgh, pas de Paris ». On se saurait être plus clair en effet, ni se montrer plus égoïste… Pour quelqu’un qui est à la tête d’une fortune personnelle gigantesque, au point de préférer ne pas loger à la Maison Banche mais plutôt dans l’une de ses luxueuses demeures dont les photos qui circulent sur le net laissent béats, voilà qui en dit long sur son sens des responsabilités…

Une des 120 pièces de la maison de campagne de Donald Trump à Mar-a-lago (Floride)

C’est d’ailleurs le maire de Pittsburgh qui s’en est étranglé d’indignation, au point de rappeler que rien n’empêche les villes américaines de poursuivre leurs efforts et respecter leurs engagements malgré les déclarations du chef de l’État : « En tant que maire de Pittsburgh, je peux vous assurer que nous suivrons les directives de l’accord de Paris pour nos administrés, notre économie et notre avenir ».

Dessin de Kanar publié dans Alternatives économiques

C’est là tout le paradoxe de cette déclaration de Donald Trump qui va en réalité à l’encontre non seulement de l’opinion publique américaine, désormais favorable à plus de 70 % au maintien dans l’Accord de Paris, mais surtout des intérêts de l’économie américaine largement engagée dans la transition énergétique. On considère ainsi que les énergies renouvelables représentent dès à présent de l’ordre de 770 000 emplois aux États-Unis, 10 fois plus que le secteur du charbon que Donald Trump cherche à favoriser, et surtout que la vitesse de création des emplois y est 17 fois plus importante que dans le reste de l’économie américaine.

Un dessin signé JM (source : actu en dessin)

C’est bien d’ailleurs ce qui inquiète les Américains car la décision de Donald Trump risque de les freiner sur ce marché de la transition énergétique dans lequel la Chine s’est, elle, résolument engagée et se pose désormais en leader mondial, aux côtés de l’Union européenne qui, jusque-là, a été en pointe du combat politique contre le réchauffement climatique global. C’est donc peut-être un revirement géostratégique auquel nous assistons actuellement avec cette position totalement incohérente et irresponsable du chef de l’État américain, même si cette décision est davantage une posture électoraliste qu’un choix stratégique.

Car en réalité, cette dénonciation est pour l’instant largement rhétorique, ne serait-ce que parce que la procédure choisie par Donald Trump pour sortir de l’accord, par la voie de la dénonciation, ne sera effective qu’en novembre 2020, soit juste à la fin de son mandat présidentiel ! En revanche, sa portée symbolique est colossale et son impact sur le reste de la planète va être redoutable, en particulier pour les pays les plus pauvres qui comptaient fermement sur le fameux Fonds vert doté annuellement de 100 milliards de dollars pour les aider à engager leur propre transition énergétique et à s’adapter aux effets déjà bien visibles du changement climatique global.

La façade de la mairie de Paris illuminée en vert le 2 juin 2017 (photo © DR)

Pas sûr que le simple éclairage en vert de l’Hôtel de Ville de Paris, décidé illico par Anne Hidalgo, suffise pour contrebalancer les effets d’une telle décision…

L.V.  

La douche écolo qui vous en fait voir de toutes les couleurs

17 mai 2017

Ségolène Royal et Gabriel Della-Monica, le fondateur de Smart & Blue

« L’écologie ne doit pas être punitive » disait Ségolène Royale pour justifier l’abandon totalement injustifiable de l’écotaxe poids lourds. Encore ministre de l’écologie la semaine dernière, comme elle l’était déjà en 1992, l’auteur de cette sentence mémorable serait, aux dernières nouvelles, toujours à la recherche d’un point de chute pour se recaser après que sa candidature à la tête du Programme des Nations Unies pour l’Environnement a été écartée… Pour autant, affirmer que les changements de comportements individuels en faveur d’une meilleure prise en compte des enjeux environnementaux ne passent pas par la contrainte mais par l’adhésion et la conviction, voila assurément une idée qui ne manque pas de bon sens…

Pommeau de douche connecté Hydrao First (photo © Erwan Lecomte / Sciences et Avenir)

C’est ce côté ludique qu’a voulu explorer la jeune entreprise grenobloise Smart & Blue, un nom qui fleure bon le terroir alpin, en développant son dernier produit, elle qui se présente comme le « leader des technologies innovantes et connectées pour une gestion intelligente de l’eau potable », rien que ça ! L’idée, il est vrai ne manque pas d’originalité puisqu’elle consiste ni plus ni moins qu’à prendre sa douche en couleur, grâce à un pommeau intelligent dont les buses sont équipées de LED polychromes qui éclairent l’eau du bain de toutes les couleurs.

L’objectif n’est bien évidemment pas de transformer sa salle de bain en boîte de nuit, mais tout simplement d’inciter à économiser l’eau de la douche. Quand on ouvre le robinet, les LED éclairent l’eau du jet en vert. Jusque là, tout va bien, à condition de ne pas faire couler plus de 10 litres d’eau, un volume normalement largement suffisant pour se laver correctement, comme le savent tout ceux qui ont un jour testé les douches à l’ancienne, constituées d’un simple seau d’eau et d’un récipient adapté, bol en plastique ou calebasse selon les usages locaux.

A partir de ce volume fatidique de 10 l, le jet d’eau passe au bleu. Rien de bien inquiétant encore, mais à partir de 20 l, l’eau de la douche passe au rose, puis au rouge et au-delà de 40 l, le rouge se met à clignoter. Rassurez-vous, il n’arrivera rien de plus grave au-delà, mais après un tel festival de couleur, même le consommateur le plus endurci et le plus rétif aux économies d’eau sera incité à tourner le robinet et à attraper sa serviette pour se sécher. Selon le concepteur du système, le Français moyen n’utilise pas moins de 80 l pour sa douche quotidienne, au point que pour une famille de 4 personnes l’eau de la douche représente près de 40 % de la consommation quotidienne d’eau : l’enjeu n’est donc pas mince !

Répartition de la consommation de l’eau domestique par type d’usage en France (source © Centre d’information sur l’eau)

Bien évidemment, un concept aussi novateur, commercialisé sous le nom d’Hydrao First et déjà récompensé par plusieurs prix  n’a pas besoin d’électricité pour fonctionner car cela rendrait l’empreinte environnementale du dispositif nettement moins séduisante, sans compter le risque d’hydrocution : le système utilise simplement une turbine intégrée qui tourne sous l’effet du jet d’eau et qui fournit l’énergie nécessaire à l’éclairage des lampes. Un dispositif astucieux et par ailleurs totalement branché.

L’appli smart shower

Car bien entendu, un tel bijou de technologie est forcément connecté. Une appli adaptée permet de paramétrer sur son smartphone ses propres seuils de réglage des changements de couleurs mais aussi de suivre l’historique de consommation de ses 200 dernières douches et de comparer sa consommation par rapport à sa douche de référence. De quoi occuper les amateurs de statistiques, et de quoi attiser les conversations familiales car bien entendu l’appli n’est pas en mesure de faire la distinction en fonction de l’utilisateur. Impossible désormais, avec un tel mouchard à la maison, de se prélasser tranquillement sous la ouche sans se faire ensuite vertement remarquer qu’on a sérieusement fait baisser la moyenne familiale et fortement augmenter la facture d’eau et d’électricité.

Suivi de consommation (photo Sciences & Avenir)

Tout se paye en effet et on sait illico en sortant de la salle de bain combien nous ont coûté ces quelques minutes passées sous la douche. Pas autant certes que le pommeau lui-même car ce gadget futuriste est quand même vendu pour près de 90 € et on a intérêt à se doucher souvent pour espérer amortir un jour un tel investissement…

C’est en tout cas une excellente affaire pour son concepteur dont la société vient de recevoir une nouvelle récompense lors d’un salon professionnel qui s’est tenu à Las Vegas en janvier dernier pour ses deux dernières nouveautés Hydrao Drop et Hydrao Loop. Toujours connectée à la même application Smart Shower, cette dernière est un pommeau de douche dont le design très élaboré rappelle vaguement le signe mathématique de l’infini, mais dont les fonctionnalités sont tout à fait comparables à celle du pommeau d’entrée de gamme Hydrao First, avec néanmoins une efficacité accrue en matière d’économie d’eau, pour la modique somme de 169 €.

Hydrao Loop, dernier né de la gamme au look futuriste

On peut bien sûr ironiser sur l’aspect gadget de ces innovations mais on est bien obligé de reconnaitre que son inventeur, l’ingénieur en télécom Gabriel Della-Monica, a su faire d’une idée originale un beau succès commercial. Installée au sein du pôle de haute technologie nano et microélectronique de Grenoble, la société Smart & Blue a mis 2 ans pour développer le produit, disponible à la vente depuis 2015. Deux ans plus tard, la société a déjà embauché plus de 10 salariés et est en plein développement. Quant à la fabrication, elle est sous-traitée à une entreprise industrielle qui favorise l’intégration des travailleurs handicapés : un bel exemple de la French Tech qui réussit en mettant en avant ses valeurs de responsabilité sociale et environnementale. Le cas n’est pas si fréquent et mérite d’être salué !

L.V.

Qui donc a écrit le programme d’Emmanuel Macron ?

1 mai 2017

On a beaucoup reproché à Emmanuel Macron de ne pas avoir fait l’effort de rédiger un programme cohérent, piochant ses idées à droite et au gauche au gré des opportunités. L’honnêteté oblige à reconnaître que ce n’est pas le cas. Présenté le 2 mars 2017, le programme du candidat d’En marche, désormais en lice pour le second tour de la présidentielle, est au contraire très structuré.

Celui qui en a coordonné l’élaboration : Jean Pisani-Ferry. Un économiste, qui a démissionné en janvier 2017 de son poste de commissaire général de France Stratégie, pour rejoindre à 65 ans l’équipe de campagne d’Emmanuel Macron, de 26 ans son cadet. Peu connu du grand public, cet ingénieur de Supélec qui a été aussi conseiller économique de Dominique Strauss-Kahn et de Christian Sautter au ministère de l’Économie, et expert auprès de la Commission européenne et du FMI, professeur à l’Ecole polytechnique et à l’Université libre de Bruxelles, est issu d’une lignée prestigieuse de grands serviteurs de l’État. Il est en effet le fils de l’ancien ministre du général de Gaulle et de François Mitterand, Edgard Pisani. Il est aussi, comme son nom l’indique, l’arrière petit-neveu de Jules Ferry en personne, excusez du peu…

Jean Pisani-Ferry, le 25 juin 2014 à Paris ( photo © T. A. Clary AFP/Archives)

Nommé en 2013 par François Hollande commissaire général à la stratégie et à la prospective, Jean Pisani-Ferry avait déjà eu l’occasion de travailler avec Emmanuel Macron lors de la campagne de 2012, et ce dernier lui avait confié en 2014, alors qu’il était ministre de l’économie, la rédaction d’un rapport sur « les domaines prioritaires d’investissement ».

Sa rigueur et son honnêteté, que ceux qui le côtoient s’accordent à lui reconnaître, ont fait percevoir sa présence auprès du candidat d’En marche comme un gage de sérieux. D’autant qu’il considère qu’un programme politique ne doit pas être un simple « catalogue de propositions » mais doit correspondre à une vision construite et prospective de l’action politique, comme le détaille un article des Echos qui rapporte ses propos : « Il ne faut pas se tromper de diagnostic. Le candidat ne peut pas tout prévoir, mais je crois beaucoup à ce que les Américains appellent le mandat, le capital politique donné par les électeurs pour être investi dans des choses difficiles ».

Dessin de Miss Lilou

Pour cela, il faut que l’intention du candidat soit clairement comprise. « On vit une époque que l’on peut qualifier de réactionnaire au sens où il y a une croyance que revenir en arrière peut être une solution à nos problèmes », analyse-t-il. « Face à cela, il faut construire l’utopie du monde de demain ».

A une semaine du second tour de la présidentielle, il n’est donc pas inintéressant de s’attacher à la vision de la société de demain que porte Jean Pisani-Ferry. Chargé en 2013 d’élaborer une stratégie à 10 ans pour la France, son rapport remis en juin 2014, est une somme ambitieuse, enrichie de nombreux échanges avec les partenaires sociaux et la société civile, qui balaie l’avenir de la France à l’horizon 2025. S’appuyant sur un diagnostic approfondi de la situation du pays et de ses points d’entrave, la rapport identifie 8 objectifs principaux parmi lesquels le besoin de réconcilier les citoyens avec la démocratie, la nécessité de combattre les discriminations en vue d’une égalité républicaine, le besoin de refonder une politique sociale lisible qui vise le plein emploi effectif, ou encore la mise en oeuvre d’un développement responsable et durable.

25 juin 2014 : Jean Pisani-Ferry remet à François Hollande le rapport prospectif sur la France dans 10 ans (photo © Elysée)

La prospective n’est pas un exercice facile, surtout dans un monde complexe et mouvant. La manière dont les politiques, parmi lesquels Emmanuel Macron, se sont emparés des propositions issues de cette analyse, est naturellement discutable, et chacun aura son opinion sur le sujet. Néanmoins, le diagnostic posé et les pistes explorées, non seulement lors de l’élaboration de ce rapport et des différentes notes thématiques qui le prolongent, mais aussi dans le cadre des débats qui ont été organisés dans de nombreuses villes par France Stratégie pour enrichir les échanges, tout ceci représente une matière à réflexion d’un grand intérêt.

Une interview de Jean Pisani-Ferry, réalisée pour l’association Réso Hebdo Eco en octobre 2016, alors qu’il était encore à la tête de France Stratégie, permet d’en retrouver quelques points saillants. Il y explique notamment comment la situation française du travail s’est dégradée par rapport à d’autres pays européens : non seulement le taux de chômage y est plus élevé (autour de 10 % alors qu’il est plus proche de 5 % chez nos voisins allemands, autrichiens ou danois) mais le taux d’emploi (qui mesure le nombre d’actifs occupés par rapport à la population totale en âge de travailler) y est plus faible : 64 % en France contre 76 % en Allemagne, Suède ou Pays-Bas.

Or, non seulement le travail est plus rare en France, mais les enquêtes montrent que la qualité du travail y est aussi moindre, en termes de rythmes d’activité, de charge de travail, de compatibilité avec la vie familiale ou d’autonomie des salariés. Et ceci alors que la France est l’un des pays qui consacre les moyens budgétaires les plus importants en matière de politique publique de l’emploi : 108 milliards d’euros par an ! Une des causes de faiblesse pointée par Jean Pisani-Ferry est le faible niveau de compétence d’une partie de la population active française, alors que les niveaux de coût salarial du pays exigeraient que la main d’oeuvre soit au contraire au top en matière de compétence professionnelle.

Un des intérêts d’une telle approche prospective sur le long terme est d’identifier les axes sur lesquels il importe d’investir en matière de politique publique en trouvant le bon équilibre entre dispositifs d’ampleur nationale et outils de formation et d’accompagnement pilotés de manière plus locale et plus proche du terrain. Pour répondre à l’ampleur des défis qui nous attendent, que ce soit face au changement climatique, à la nécessaire transition énergétique, au besoin de maintenir une forte cohésion sociale, à la nécessité de renforcer le niveau de formation et de compétence de chacun, les réponses ne peuvent être que globales et de long terme. Elles doivent s’appuyer sur un diagnostic approfondi et partagé, permettant de mobiliser un débat citoyen éclairé.

Bref, tout le contraire des idées simplistes qui laisseraient entendre qu’il n’y a qu’à supprimer l’immigration et sortir de l’Europe pour que, comme par miracle, la prospérité revienne pour chacun. « Il faut lutter contre la trumpisation des débats » dit Jean Pisani-Ferry. Ce n’est sans doute pas inutile en effet…

L.V.  

Eden, la Méhari écologique du XXIe siècle

18 avril 2017

Tous les fans de Deux-Chevaux, Dyane et Méhari connaissent le 2CV Méhari Club de Cassis (MCC), dont l’aventure a commencé dans les années 1980. Les frères Marquès ont d’abord personnalisé des Méhari en belles voitures de plage avant de lancer un catalogue complet de pièces détachées de toute la gamme des 2CV, Dyane et Méhari.

Devant le succès, Citröen SA leur a confié en 1998 les outillages d’origine du quai de Javel, afin de reproduire les pièces de la Méhari. Le même passage de relais a eu lieu en 2000 pour la 2CV.

Méhari 4 x 4 de 1979 (photo © Citroën)

Aujourd’hui, la famille Marquès a cédé son fond industriel et commercial à une nouvelle organisation financière, épaulée par la Banque Publique d’Investissement. Elle est pilotée par MM Julien V. et Stéphane W. (deux bons camarades de Terminale…), dûment diplômés et expérimentés en industrie auto. Avec courage, ils lancent l’Eden.

L’Eden, c’est à la base l’historique Méhari, lancée en 1968, il y a près de 50 ans, avec sa carrosserie en plastique moulé, fixée sur un châssis et munie d’une suspension et d’une motorisation issus de la mythique 2CV (qui, elle, date de 70 ans !). Mais contrairement à ses aînées, l’Eden est équipée d’une nouvelle motorisation entièrement électrique, alimentée par une batterie ion-lithium de dernière génération.

L’Eden, écologique et tout électrique, entièrement montée à Cassis et partiellement fabriquée à Carnoux…

Il s’agit bien d’une nouvelle voiture, dûment homologuée depuis mars 2016 pour la France et l’Europe, classée véhicule utilitaire à 4 places. Offrant une autonomie de 120 km, la batterie se recharge en moins de 4 h sur une simple prise électrique domestique. La voiture est entièrement montée à Cassis, dans les locaux agrandis du MCC (qui occupent 8 000 m2 sur un terrain de 10 hectares) et, cerise sur le gâteau, plusieurs des pièces, dont le châssis et une sellerie très variée sont fabriqués à Carnoux même.

La E-Méhari de Citroën

La Méhari cassidaine se distingue en tout cas très nettement de sa petite sœur relookée E-Mehari que Citroën vient tout juste de dévoiler, un véhicule électrique également, directement inspiré de la Bluesummer de Bolloré et qui, elle, sera fabriquée à Rennes, avec un objectif de 1000 exemplaires, pour un prix de vente qui devrait revenir à 25 000 €, hors coût de location des batteries (79 € par mois). Même une fois déduit le bonus écologique qui s’élève à 6 000 € pour l’achat d’un véhicule électrique, l’investissement reste élevé pour un véhicule au confort minimaliste !

L’Eden devrait d’ailleurs être proposée à la vente pour un prix assez comparable, mais avec une carrosserie identique à celle d’origine, ce qui devrait plaire aux nostalgiques des années 1960… C’est d’ailleurs là-dessus que compte manifestement le 2CV-Mehari Club de Cassis puisque la présentation officielle de l’Eden s’est faite à l’occasion de la 40e édition du salon Rétromobile, qui s’est tenu Porte de Versailles début février 2016 et que le lancement commercial a eu lieu lors de l’édition suivante du salon, en février 2017.

Présentation du concept-car Eden au salon Rétromobile en février 2016 (photo © G. Pelletier)

Nous ne pouvons donc que nous réjouir de cette belle création industrielle, qui allie avec bonheur la tradition mythique et l’esprit de la 2CV avec la dernière modernité écologique : 10 kW seulement et un entretien quasiment inexistant ! Et de surcroît, une conduite 100 % plaisir, cheveux au vent et selon l’esprit de liberté des belles années.

Bravo, longue vie et prospérité à l’Eden !

Léonide G.