Posts Tagged ‘Idée reçue’

Vers une privatisation des barrages hydroélectriques ?

21 avril 2018

Voilà une information qui a fait le buzz dans tous les médias, de Libération à La Dépêche du midi, en passant par le blogger Ludo Torbey dont la vidéo d’Osons causer sur le sujet fait un tabac : Macron ose s’attaquer à notre patrimoine hydroélectrique et veut privatiser les barrages d’EDF, pour le plus grand bénéfice des multinationales, Total en tête, mais aussi les Allemands EON et Vattenfall, l’Italien Enel, le Canadien Hydro-Québec, voire des entreprises chinoises qui vont donc s’emparer de nos grands barrages, fleurons du génie industriel français.

Un véritable cauchemar pour les 160 000 salariés d’EDF dont 21 000 dans le secteur de l’hydroélectricité, et principalement les syndicalistes de la CGT qui ont été les premiers à monter au créneau après avoir appris, à l’occasion d’une réunion intersyndicale à Matignon le 7 février dernier, de la bouche de Thibaud Normand et Antoine Peillon, conseillers énergie du Premier ministre, que la France avait fini par céder aux exigences de la Commission européenne et acceptait d’ouvrir à la concurrence certaines des 433 concessions hydroélectriques françaises, et ceci dès 2018.

Barrage EDF de Sainte-Croix sur le Verdon, mis en service en 1974 (source © photothèque EDF)

On dénombre en France de l’ordre de 2300 installations hydroélectriques dont 433 donc qui relèvent du régime de la concession car d’une puissance supérieure à 4,5 MW. Elles totalisent à elles-seules 95 % de la puissance installée, soit de l’ordre de 24 GW. La part de l’hydroélectricité dans le mix énergétique français est relativement modeste, autour de 12 % (deux fois moins qu’au Portugal par exemple), même si l’hydroélectricité représente plus des deux tiers de l’énergie renouvelable produite en France.

Quoi qu’on en dise, la France reste totalement dépendante de la filière nucléaire pour son alimentation électrique et EDF fait tout pour que cette situation perdure, s’opposant de toutes ses forces à la volonté politique de réduire la part du nucléaire, refusant obstinément de fermer ces centrales même en fin de vie.

Or sur ces 433 concessions hydroélectriques, l’entreprise EDF en gère près de 85 %, le reste se partageant entre la CNR (Compagnie nationale du Rhône) et la SHEM (Société hydro-électrique du Midi). La CNR, créée en 1933, privatisée en 2001 et premier producteur français d’énergie exclusivement renouvelable est détenue principalement par le groupe public Caisse des Dépôts et des collectivités territoriales, avec comme actionnaire de référence minoritaire ENGIE (ex GDF-Suez). La SHEM, également producteur d’énergie 100 % renouvelable et lointaine héritière de la Compagnie des chemins de fer du Midi est aussi une filiale d’ENGIE.

C’est cette position dominante, quasi exclusive, d’EDF sur le parc hydroélectrique français, que l’Union européenne conteste depuis des années, prônant pour une ouverture à la concurrence. Car, contrairement à ce qu’on pourrait imaginer, les barrages en question n’appartiennent pas à EDF mais à l’État qui en a financé la construction (un gros investissement puisque l’on considère qu’il faut de l’ordre de 1 milliard d’euros pour aménager de quoi produire 1 GW).

Marcel Paul, syndicaliste et résistant, ministre de la production industrielle dans le gouvernement de Charles de Gaulle et instigateur de la création d’EDF-GDF en 1946

A l’époque où la plupart de ces barrages ont été construits, juste après la guerre, EDF était un service public, créé en 1946 sous l’impulsion du ministre et ancien résistant Marcel Paul avec un statut d’établissement public à caractère industriel et commercial. Bénéficiant alors d’un régime de monopole, EDF a pu s’arroger la quasi-totalité des concessions hydroélectriques, pour des durées de 75 ans.

Depuis, on s’est rendu compte que les situations de monopole jouaient rarement en faveur de l’usager ou du consommateur. La loi Sapin, adoptée en 2013 pour tenter de lutter contre les pratiques de corruption, a réduit la durée des délégations de services publics précisément pour éviter les dérives liées aux rentes de situation. En parallèle, l’ouverture progressive du marché de l’électricité à la concurrence sous l’impulsion politique de l’Union européenne et la transformation du statut d’EDF, devenue en 2004 une société anonyme cotée en bourse, ont radicalement changé la donne.

Certes, EDF reste détenue à près de 85 % par l’État français, ses autres actionnaires étant pour l’essentiel des investisseurs institutionnels (majoritairement étrangers). Mais l’entreprise se comporte désormais comme un champion de l’ultralibéralisme qui semble avoir totalement tourné le dos à ses valeurs initiales, ouvrant des filiales dans des paradis fiscaux, refusant de développer les énergies renouvelables, confiant la maintenance de ses centrales nucléaires à près de 20 000 sous-traitants en situation de grande précarité, exigeant sans cesse de nouvelles hausses des tarifs de l’électricité tout en amassant de juteux bénéfices.

EDF, fortement critiquée pour la gestion peu durable de son parc électronucléaire

Et l’hydroélectricité participe pour beaucoup à la constitution de ces bénéfices puisqu’on estime qu’ils s’élèvent à 1,25 milliards par an du seul fait de l’exploitation des concessions hydroélectriques depuis longtemps amorties, au point que l’électricité produite ainsi ne coûte de 20 à 30 € le MWh, contre 50 € le MWh d’origine nucléaire. Ces bénéfices sont principalement réinvestis à l’étranger et notamment au Royaume Uni où EDF a racheté British Energy en 2008 et lancé fin 2016 la construction des deux réacteurs nucléaires très controversés d’Hinkley Point, pour la modique somme d’au moins 21 milliards d’euros.

En 2010, l’État français avait annoncé une première vague d’appels d’offres pour la reprise de certaines concessions hydroélectriques mais sans jamais y donner suite. Au contraire, les concessions d’EDF déjà arrivées à échéance avaient été subrepticement rallongées moyennant quelques menus travaux supplémentaires de maintenance des ouvrages, au point qu’en octobre 2015, la commissaire européenne chargée de la concurrence, Margrethe Vestager, a adressé à Laurent Fabius, alors ministre des affaires étrangères et responsable à ce titre des questions européennes, un courrier pour l’informer de l’ouverture d’une enquête sur les concessions hydrauliques accordées en France à EDF.

Travaux de rénovation sur le barrage de Sarrans sur la Truyère en 2014 après vidange complète de la cuvette (source © L’Usine nouvelle)

Depuis, les acteurs français jouaient la montre alors que d’autres pays européens dont l’Allemagne avaient dès 2011 obtenu de sortir leurs barrages hydroélectriques du champ de la directive européenne sur les concessions, au même titre que les centrales nucléaires sont exclues du domaine concurrentiel car relevant d’activités « d’importante vitale ».

A l’époque, la France était déjà en position de faiblesse à cause de son taux d’endettement colossal totalement dérogatoire aux critères de Maastricht. Et désormais il se murmure que si le gouvernement a été contraint de céder aux injonctions de Bruxelles c’est pour faire baisser la pression contre le maintien des aides publiques françaises à l’agriculture…

Barrage de Bort-les-Orgues, sur la haute vallée de la Dordogne, mis en service en 1952 (source © Corrèze tourisme)

Toujours est-il que l’on annonce dès 2018 la remise en concurrence de certaines concessions hydroélectriques dont les barrages de Haute-Dordogne, celui de Beaufortain en Savoie et celui du Lac Mort en Isère. Les autres concessions suivront progressivement jusqu’en 2050, au fur et à mesure que les concessions initiales arriveront à échéance, conformément aux conventions signées initialement mais qu’EDF espérait bien ne jamais voir appliquer : dura lex, sed lex…

L.V. 

Publicités

Coca-Cola se jette à l’eau…

14 avril 2018

Un dessin signé Nagy

Décidément, ces commerciaux sont vraiment trop forts, ou les consommateurs trop crédules ! Voilà que le géant de l’agro-alimentaire, la firme créée à Atlanta en 1885, The Coca-Cola Company, à l’origine de moult scandales de corruption, d’actions musclées de lobbying et d’études pseudo-scientifiques mensongères, voilà que cette société multinationale s’apprête à vouloir vendre aux Français de l’eau en bouteille au prix astronomique de 2,80 € le litre !

Voyant en effet les ventes de ses sodas stagner dans les pays européens où le marché est depuis longtemps saturé, la société cherche à se diversifier. Elle a déjà investi dans le domaine du bio avec les thés et infusions Honest et Fuze Tea. Mais son calcul vise surtout le marché de l’eau en bouteille, particulièrement florissant notamment en France où la consommation par habitant d’eau en bouteille est la deuxième du monde ! En 2015, la vente d’eau embouteillée en France représentait un chiffre d’affaire colossal de 2 milliards d’euros, avec une croissance estimée à 4,9 % pour l’année 2017, tant en volume qu’en valeur.

Un dessin d’Olivero

C’est incontestablement une victoire impressionnante des rois du marketing que d’avoir ainsi réussi à instiller aux Français l’idée que les eaux vendues dans des bouteilles en plastiques sont meilleures que celle qui sort du robinet alors que cette dernière est nettement plus contrôlée et infiniment moins chère.

En tout cas, Coca-Cola a bien repéré qu’il y avait là des bénéfices à engranger et s’apprête donc à venir tailler des croupières aux trois grands groupes qui se partagent actuellement 80 % de ce marché juteux. Nestlé Waters caracole en tête des ventes avec notamment ses marques d’eaux minérales Perrier, Vittel, Hépar ou encore Contrex, suivi de près par Danone, propriétaire entre autres des marques Evian, Badoit ou Volvic. Le troisième larron est le groupe Neptune qui commercialise par exemple Vichy Célestins, Saint-Yorre ou Pierval.

Mais Coca-Cola, troisième producteur mondial d’eau en bouteille, est prêt à en découdre et il met donc un pied sur le marché hexagonal en lançant la commercialisation de son eau en bouteille Smartwater après trois ans d’étude de marché. Lancée en 1996 aux États-Unis, puis en 2014 au Royaume Uni, cette marque, bien que vendue 5 fois plus cher que ses concurrents, s’est rapidement imposée sur le marché américain où elle truste 63 % des ventes, tandis que chez nos voisins anglais elle a déjà conquis 11 % de parts du marché en moins de 4 ans.

Un succès commercial d’autant plus étonnant qu’il s’agit d’une eau captée à la source de Morpeth, une ville du Northumberland, dans le nord de l’Angleterre, mais cette eau naturelle est ensuite distillée par évaporation puis reconstituée en y introduisant des sels minéraux, ceux-là même que le processus de distillation a éliminés. Une véritable aberration en matière de traitement d’eau, qui explique d’ailleurs le coût particulièrement élevé de cette eau totalement artificielle. Mais cela ne semble guère gêner les consommateurs qui retiennent seulement l’argument commercial de la purification à outrance…

Dès le mois d’avril, les consommateurs français qui ne regardent pas à la dépense trouveront donc, pour l’instant uniquement dans les magasins de la chaîne Monoprix, les bouteilles étiquetées Smartwater. De contenance 600 ml, ces bouteilles seront vendues au prix exorbitant de 1,40 € le flacon pour l’eau plate, et jusqu’à 1,75 € pour l’eau gazeuse. Un vrai luxe quand on compare avec l’eau du robinet qui revient en moyenne à moins de 4 € le mètre cube, soit 0,4 centimes le litre…

Dasani, l’eau en bouteille de Coca-Cola qui a fait un flop en Europe

Rien ne dit que le succès commercial sera au rendez-vous, d’autant que Coca-Cola a déjà subi un échec cuisant sur le marché européen. C’était en mars 2004. La firme d’Atlanta venait de dépenser 20 millions d’euros en budget publicitaire pour préparer l’ouverture du marché français à accueillir son eau en bouteille vendue sous la marque Dasani.

Un beau succès commercial aux USA où cette marque introduite en 1999 avait réussi à se placer parmi les eaux les plus vendues, mais un véritable accident industriel au Royaume Uni où la compagnie américaine se trouvait alors confrontée à une levée de bouclier totalement inattendue malgré le matraquage publicitaire qui avait accompagné l’arrivée de Dasani Outre-Manche. Il faut dire que les commerciaux américains ne faisaient pas dans la dentelle, présentant leur « pure eau plate » vendue en petite bouteille bleu clair comme un véritable concentré de pureté, contrairement aux eaux douteuses distribuées au robinet.

Le hic, c’est que l’eau en question, vendue 1,40 € la bouteille de 500 ml, n’était ni plus ni moins que de l’eau du robinet acheminée directement à l’usine Coca-Cola de Sidcup, située dans la banlieue londonienne, par le réseau public géré par Thames Water, une compagnie britannique de distribution d’eau, laquelle facture cette même eau à 0,4 centimes le demi-litre. La compagnie de service public en question ne s’est bien entendu pas privée de faire remarquer que le procédé frisait l’escroquerie…

Coca-Cola a certes fait valoir que l’eau en question subissait une purification supplémentaire par osmose inverse avant ajout de sels minéraux. Mais quand, de surcroît, la firme a été contraint de retirer de la vente 500 000 bouteilles en raison d’un taux de bromates supérieur aux normes britanniques autorisées, elle a alors préféré jeter l’éponge et renoncer à introduire son eau en bouteille Dasani tant en France qu’en Allemagne, se limitant à y commercialiser l’eau minérale issue de la source belge de Chaudfontaine acquise par les Américains en 2003.

A l’époque, la firme Coca-Cola s’était même vu décerner le prix Ig Nobel (prononcez « ignoble » en anglais, un prix satirique attribué chaque année par le magazine scientifique Annals of Improbable Research) de chimie 2004 « pour son usage de la technologie avancée pour convertir l’eau contaminée de la Tamise en Dasani, une eau minérale embouteillée… qu’il a fallu finalement retirer des étalages, pour présence d’un produit cancérigène ». Une distinction dont la firme d’Atlanta se serait sans doute bien passée mais que chacun a déjà oubliée… Vive le marketing !

L.V. 

Le Bulgare et la cigogne

30 mars 2018

Décimées dans les années 1970, date à laquelle les populations de cigognes blanches avaient quasiment disparu du sol français, sous l’effet cumulé des pratiques agricoles, de la pollution, de la chasse mais aussi des épisodes de sécheresse en Afrique, ces populations d’échassiers migrateurs, désormais protégés en France depuis 1981, se sont peu à peu reconstituées.

Nids de cigognes sur les toits alsaciens

Alors qu’il ne subsistait que 11 couples nicheurs recensés sur le sol national en 1974, principalement en Alsace, les efforts menés depuis pour réintroduire l’espèce mais surtout protéger son habitat en restaurant certaines zones humides ont porté leurs fruits puisque l’on comptait en France plus de 1600 couples en 2010.

Pour autant, certaines régions d’Europe orientale restent nettement plus attractives pour ces oiseaux migrateurs que l’on voit arriver au printemps et repartir à l’automne pour leur migration africaine. Ainsi, on estime que plus de 50 000 cigognes, soit 20 % de la population mondiale connue, passent l’été en Pologne. Sciences et Avenir cite ainsi en exemple le petit hameau de Zywkowo situé à l’extrême nord du territoire polonais, tout près de l’enclave russe de Kaliningrad : dans les années 1960, on y dénombrait 120 habitants et 20 cigognes, mais désormais les chiffres se sont inversés et les rares habitants restés sur place consacrent tout leur temps à entretenir les mares et installer des plateformes sur leur toit pour faciliter l’accueil de ces migrateurs africains.

Nid de cigognes à Zywkowo en Pologne (source © Sciences et Avenir)

Et la Pologne n’est pas le seul pays d’Europe de l’Est à se montrer aussi accueillant envers ces populations émigrées, malgré les dérives nationalistes de ses responsables politiques. C’est une dépêche de l’AFP, relayées par plusieurs médias dont le Point, qui s’en est fait récemment l’écho : en Bulgarie, les premières cigognes arrivées en mars en pleine vague de froid polaire, se sont retrouvées littéralement congelées et ont dû être secourues par les habitants du cru.

Safet Halil, un employé de voirie quinquagénaire de Zarista, au nord-est de la Bulgarie, s’est ainsi distingué en recueillant au bord de la route cinq cigognes blanches aux ailes gelées. Il les a transportées dans sa demeure, par ailleurs fort modeste, a allumé le poêle pour les réchauffer et leur a acheté du poisson. Deux jours plus tard, les cigognes étaient toujours installées dans leur foyer d’hébergement provisoire, profitant de l’hospitalité du Bulgare au grand cœur avec qui elles avaient manifestement sympathisé, poussant même la familiarité jusqu’à lui donner quelques coups de bec amicaux.

Safet Halil et les cigognes qu’il héberge à domicile (photo © Dimitar Dilkoff / AFP)

Et le cas n’est pas isolé puisqu’une quarantaine d’habitants de la région l’auraient imité, récupérant de nombreuses cigognes en détresse du fait de la vague de froid et des chutes de neige qui ont sévi toute la semaine dernière dans ce secteur. Mises à l’abri dans des garages et des hangars agricoles, nombre de cigognes ont ainsi pu être sauvées. Une situation peu courante et qui a suscité de nombreux échanges sur les réseaux sociaux dans un pays où la population de cigognes est en hausse puisque le dernier recensement effectué en 2016 fait état de plus de 6000 de ces volatiles soit 1000 de plus qu’en 2010 : un afflux migratoire sans précédent mais dont les Bulgares se réjouissent.

Puissent tous les populations de migrants en provenance de régions africaines bénéficier d’un accueil aussi chaleureux dans nos contrées…

L.V. 

Classement Forbes : les milliardaires vont bien, merci

17 mars 2018

Bernard Arnault, première fortune française et quatrième mondiale, à la une de l’édition française du magazine Forbes

Cela fait partie des marronniers traditionnels de la presse mondiale qui adore publier des classements de toutes sortes. La liste des milliardaires mondiaux, que le magazine économique américain Forbes édite chaque année, fait partie des références qui font toujours couler beaucoup d’encre. Celle qui vient d’être diffusée pour l’année 2018 et qui prend pour référence la date du 9 février, dénombre exactement 2043 milliardaires en dollars, détenant à eux seuls une fortune cumulée de près de 7 700 milliards de dollars, soit trois fois le PIB de la France… Le chiffre a doublé depuis 2010, tant en montant qu’en nombre, ce qui traduit une remarquable progression dans l’art de concentrer la fortune mondiale aux mains d’une poignée d’heureux élus. Et comme les précédents, ce classement par nature arbitraire et incomplet fait jaser.

Le Monde mais aussi Arrêt sur image se sont ainsi empressés de critiquer ce classement 2018 qui, comme les précédents, passe « à côté de fortunes gigantesques dissimulées par leurs propriétaires dans des juridictions discrètes et des structures opaques, comme les sociétés écran, les fondations ou les trusts ».

Par nature, le classement proposé ne peut guère représenter fidèlement la répartition mondiale de la richesse, quelle que soit la qualité des enquêtes journalistiques, tout simplement parce que les plus riches s’ingénient à masquer une partie de leur fortune pour s’épargner des prélèvements fiscaux trop importants. C’est ainsi que l’enquête sur les Paradise Papers, publiée en novembre 2017, avait révélé que l’homme d’affaires américain Jim Simons, fondateur et gérant du fonds spéculatif new-yorkais Renaissance Technologies, avait dissimulé entre 7 et 15 milliards de dollars qui s’ajoutent donc a minima à sa fortune estimée en 2017 par Forbes à 18,5 milliards, ce qui change quand même significativement la donne…

Le prince saoudien Mohamed ben Slaman (photo © Reuters)

On reproche souvent aussi au magazine Forbes de ne volontairement prendre en compte qu’une partie seulement des magnats de la planète, excluant délibérément tous les dirigeants politiques et les monarques alors que plusieurs d’entre eux auraient largement leur place dans cette liste d’heureux privilégiés. C’est ainsi que, contre toute attente, le prince héritier et nouvel homme fort d’Arabie saoudite, Mohamed ben Salman, qui s’était offert en 2015 la maison la plus chère du monde, pour la modique somme de 275 millions d’euros et qui est également l’heureux propriétaire d’un yacht estimé à 420 millions d’euros, ne fait pas partie de la liste Forbes des milliardaires mondiaux. Pas plus d’ailleurs que les nombreux autres milliardaires saudiens dont la fortune est pour le moins menacée dans le cadre de la récente campagne anti-corruption qui s’est traduite, depuis novembre 2017, par l’arrestation de 381 hauts dignitaires du régime dont une cinquantaine dort encore en prison et qui ont déjà dû verser à l’État la bagatelle de 107 milliards de dollards !

On ne trouvera pas non plus dans la liste de Forbes des dirigeants comme Vladimir Poutine alors que les Panama Papers ont révélé qu’il détenait des actifs conséquents dans certains paradis fiscaux, pas plus d’ailleurs que la famille royale d’Angleterre. Il faut dire que le classement de Forbes a quelques difficulté à rendre compte de la gestion familiale des grandes fortunes. Il fait ainsi apparaître de manière groupée les deux frères Martin et Olivier Bouygues, à la tête du groupe de BTP et de médias du même nom, avec une fortune globale de 4 milliards d’euros.

Emmanuel Besnier, dirigeant du groupe Lactalis et 5ème fortune française (photo © Eric Dessons/JDD)

Mais il dissocie d’une part le PDG de Lactalis, Emmanuel Besnier (5ème fortune de France avec un joli pactole de 11,3 milliards d’euros, malgré les déboires de son usine de lait infantile de Caen contaminée depuis des années à la salmonelle, et surtout grâce à ses pratiques commerciales qui étranglent les éleveurs laitiers) et d’autre part l’un de ses frères, Jean-François, et sa sœur, Marie, qui figurent tous deux également dans le classement Forbes en 14ème position des fortunes française avec 4 milliards d’euros chacun, excusez du peu...

Forbes ne cite pas en revanche des entrepreneurs comme Christian Courtins-Clarins, possesseur avec sa famille d’un empire du cosmétique qui réalisait, en 2016, 4,5 milliards de chiffre d’affaire. Il ne cite pas non plus les PDG de grosses sociétés de spiritueux tels que Pierre Castel ou Alexandre Ricard, ni même Benjamin de Rothschild, le président du groupe financier du même nom, pourtant crédité par Challenges de 4,5 milliards d’euros. Pas de trace non plus dans ce classement des familles Peugeot ou Michelin, ni même de la famille Mulliez dont la fortune est pourtant évaluée autour de 40 milliards d’euros, un oubli sans doute...

Dessin de Gros publié dans Marianne

Ces approximations incitent donc à traiter avec prudence un tel classement. Il présente néanmoins le mérite de montrer qu’il existe en France au moins de 40 milliardaires en dollars. Le magazine économique Challenges en avait dénombré 88 en 2017 et son prochain classement attendu en juillet sera probablement plus proche de la vérité. Quoi qu’il en soit, la bonne nouvelle, pour ceux qui s’inquiéteraient éventuellement de la bonne santé financière des grandes fortunes françaises, c’est que nombre de ceux qui figurent dans ce classement ont vu leur fortune s’accroître confortablement depuis l’an dernier.

A l’exception de quelques maladroits comme Patrick Drahi dont la fortune est passée de 13 milliards en 2017 à 6 milliards cette année du fait des difficultés que rencontre Altice, la maison-mère de SFR, nombre d’entre eux ont vu leurs actifs s’étendre de manière assez spectaculaire. Félicitations en particulier à Bernard Arnault, l’heureux patron du groupe LVMH qui, avec une fortune estimée à 72,2 milliards de dollars, occupe désormais la première place du classement français et est considéré par Forbes comme la quatrième fortune mondiale, certes derrière Jeff Bezos (Amazon) et Bill Gates (Apple), mais devant Mark Zuckerberg, le patron de Facebook. En un an, sa fortune a tout simplement doublé, passant de 30 à 60 milliards d’euros, de quoi rassurer les porte-parole du patronat français, toujours inquiets quant à la rentabilité de nos entreprises hexagonales et au faible taux de rémunération de leurs dirigeants…

Tout ceci est d’autant plus encourageant que le cas n’est pas isolé puisque la troisième fortune de France (derrière la fille de Liliane Bettencourt, désormais 18ème fortune mondiale et détentrice d’un beau magot évalué à 42,2 milliards de dollars : on comprend mieux a posteriori pourquoi certains s’étaient donnés tant de mal pour tenter de capter l’héritage de l’empire l’Oréal…), le délicieux François Pinault, a lui aussi quasiment doublé son capital en un an grâce à la bonne santé de son groupe Kering, ex Pinault-Printemps-Redoute, dont le chiffre d’affaires a augmenté de près de 45 % depuis 2017 et les bénéfices de 120 % : merci patron ! Citons aussi au passage l’inénarrable Serge Dassault, patron du Figaro et vendeur de Rafale à ses heures perdues, dont la fortune s’est nettement consolidée, passant en un an de 16,1 à 22 milliards de dollars.

Dessin publié dans le Canard enchaîné du 14 mars 2018

Voilà certainement qui devrait mettre du baume au cœur au reste des Français, certes moins fortunés et qui n’ont pas nécessairement connu une progression aussi fulgurante de leur fortune personnelle, mais c’est en tout cas sans doute la première fois que le classement Forbes fait état de 2 Français dans le Top 20 des plus grandes fortunes mondiales : la preuve assurément que l’économie du pays est sur la bonne voie…

L.V.  

Camp des Milles : entre devoir de mémoire et incitation à la résistance

12 mars 2018

C’est un endroit que l’on a tout fait pour oublier pendant près de 40 ans et qui, grâce à l’obstination de certains, a fini par devenir un lieu de mémoire. Dans cette ancienne tuilerie proche du village des Milles, à côté d’Aix-en-Provence, désaffectée en 1939 du fait de la crise économique, ce sont plus de 10 000 personnes qui ont été internées entre 1939 et 1942, dont plus de 2000 ont été déportées, à l’instigation du régime de Vichy, vers le camp d’extermination d’Auschwitz, via les autres camps français de Drancy et de Rivesaltes.

Le bâtiment de la tuilerie du Camp des Milles (crédit photo AMCM)

Il a fallu attendre 1982 pourtant, pour que certains, anciens déportés et résistants mais aussi universitaires, se mobilisent pour tenter de sauver les vestiges de cet ancien camp d’internement, le seul grand camp français encore intact datant de cette période sombre. Un arrêté de classement est alors pris afin de sauver la grande fresque murale du réfectoire et en 2004 ce sont finalement l’ensemble des batiments du site qui font l’objet d’un classement au titre des monuments historiques.

En 1985, une première stèle commémorative est inaugurée et se crée un Comité de coordination pour la sauvegarde du camp des Milles et la création d’un musée mémorial de la Déportation, de la Résistance et de l’Internement, relayé à partir de 1991 par l’Association du wagon-souvenir et du site-mémorial du Camp des Milles, puis, à compter de 2009, par la Fondation du Camp des Milles – Mémoire et Éducation, présidée par Alain Chouraqui, directeur de recherche au CNRS.

Alain Chouraqui et Jean-Marc Ayrault devant le Wagon du Souvenir le 10 septembre 2012, lors de l’inauguration du site-mémorial

Et le 10 septembre 2012 enfin, 70 ans, jour pour jour, après le départ du dernier convoi de déportés du Camp des Milles vers Auschwitz, a été inauguré, en présence du Premier Ministre d’alors, Jean-Marc Ayrault, et dès lors ouvert au public, le site-mémorial qui se donne pour fonction d’informer de manière scientifique et objective sur l’histoire de ce lieu, mais aussi d’entretenir la mémoire des événements tragiques qui s’y sont déroulés et enfin d’amener chacun, et notamment les plus jeunes, à réfléchir sur les mécanismes qui peuvent conduire aux génocides et sur les comportements à adopter pour résister à de tels engrenages.

L’histoire elle-même de ce lieu exceptionnel est étonnante. En septembre 1939, lorsque le camp est ouvert, à l’initiative du gouvernement français dirigé par le radical-socialiste Edouard Daladier, l’objectif est d’y interner des ressortissants étrangers, d’origine allemande ou autrichienne pour la plupart d’entre eux et considérés comme des ennemis du fait de l’entrée en guerre contre le Reich Allemand alors que, paradoxalement, il s’agit pour l’essentiel d’intellectuels et d’opposants anti-fascistes réfugiés en France pour échapper à la montée du nazisme.

Parmi eux figurent notamment le peintre dadaïste allemand Max Ernst, proche de Paul Éluard et de Joan Miro, qui finira par rejoindre les États-Unis en 1941 avec l’aide de Peggy Guggenheim. On y retrouve aussi un autre peintre surréaliste Hans Bellmer, de nombreux musiciens, architectes, sculpteurs, écrivains, journalistes, hommes politiques et même deux Prix Nobel, Otto Meyerhof, distingué en 1922, et Thadeus Reichstein qui le sera en 1950 pour sa découverte de la cortisone. Cette forte proportion d’intellectuels et d’artistes explique le foisonnement de la production artistique qui se déroule dans les murs du camp à cette période et qui laisse de nombreux vestiges dont les fameuses fresques murales du réfectoire.

Fresque peinte dans le réfectoire du Camp des Milles par des internés

A partir de juin 1940 et la défaite militaire de la France, le camp accueille de très nombreux étangers transférés depuis d’autres camps du Sud-Ouest, en particulier nombre d’anciens des Brigades internationales d’Espagne, mais aussi des Juifs expulsés du Palatinat, du Wȕrtemberg ou du Pays de Bade. La population hébergée dans le camp s’accroît fortement et les conditions d’hygiène se dégradent très rapidement. En novembre 1940, le camp, passé sous l’autorité du Ministère de l’Intérieur, devient le seul camp de rétention français destiné au transit, légal ou illégal, vers l’Outre-Mer.

Photo d’archive du Camp des Milles pendant la période d’internement

Enfin, en juillet 1942, le gouvernement de Laval, qui vient de déclarer officiellement son souhait de voir l’Allemagne gagner la guerre, engage les rafles de milliers de Juifs, y compris dans la zone sud encore non occupée par les Allemands. Ces rafles en zone libre, qui concernent près de 7000 juifs étrangers ou apatrides, dont de nombreux enfants, ont lieu fin août 1942. Le Camp des Milles sert alors de lieu de transit pour nombre d’entre eux avant leur déportation par convois ferroviaires vers le camp d’extermination d’Auschwitz, d’où la plupart ne reviendront pas.

Outre le rôle mémoriel de ce lieu où une exposition montée par Serge Karlsfed liste le nom de tous les enfants juifs victimes de la déportation en France durant la guerre le mémoral du Camp des Milles se veut aussi un lieu pédagogique pour former l’esprit citoyen à empêcher de nouveaux génocides.

Capture d’écran d’une vidéo intitulée « Fais-le pour toi, résiste ! », accessible sur le site du Camp des Milles

Il accueille pour cela de très nombreux scolaires et s’appuie sur un matériel pédagogique très élaboré, à base de nombreuses vidéos, pour démontrer les mécanismes qui peuvent conduire au génocide. Pour cela il s’appuie non seulement sur la Shoah (6 millions de morts), mais aussi sur la persécution des populations tsiganes d’Europe, décimées à hauteur de 25 à 50 % pendant la deuxième guerre mondiale, sur le génocide arménien de 1915 (1,5 millions de morts, soit les deux tiers de la population arménienne de l’empire ottoman), et sur celui des Tutsis au Rwanda en 1994, qui s’est soldé par 1 million de morts, soit 80 % des Tutsis du pays, sous le regard absent des Nations-Unies.

Un des nombreux outils pédagogiques édités pour aider chacun à résister aux extrémismes

Les conditions qui ont rendu possibles ces tragédies sont décortiquées pas à pas : exacerbation des tensions et des frustrations sociales qui se développent dans les périodes de crise économique et sociale, recherche de boucs émissaires sur la base de préjugés, agitation des esprits par une minorité extrémiste très organisée, fausses rumeurs, insultes et violences de rues, appel à l’exclusion puis à la purification ethnique sous le regard passif de la majorité de la population, manipulation des médias, propagande d’État, réduction du champ de la démocratie et mise en place de pouvoirs dictatoriaux…

Face à un tel engrenage, le message est clair : il s’agit, pour chacun d’entre nous, de résister pendant qu’il en est encore temps ! Car comme aimait à le souligner Albert Einstein, « Le monde est dangereux à vivre, non pas tant à cause de ceux qui font le mal, mais à cause de ceux qui regardent et laissent faire ». C’est en cela que le message pédagogique que cherche à porter le site mémorial du Camp des Milles est particulièrement intéressant et d’actualité : chacun doit se sentir concerné et doit se rebeller contre tous les extrémismes, les discriminations, les formes de racismes et d’exclusion.

Il faut sans cesse s’appuyer sur les leçons de l’Histoire pour se souvenir que les situations de totalitarisme et de génocide ne peuvent se développer qu’en s’appuyant sur une population passive : résister c’est éviter que de telles situations ne se reproduisent ici et maintenant. Un beau message à l’attention de tous les citoyens dans un monde en proie aux crises et aux doutes !

L.V.  

Saint-Petersbourg se protège contre les inondations

5 mars 2018

Saint-Petersbourg, la Venise du Nord…

Deuxième plus grande ville de Russie après Moscou, et ancienne capitale de l’empire russe entre 1712 et 1917, Saint-Petersbourg fait partie de ces grandes villes perpétuellement soumises au risque d’inondation. Édifiée à l’initiative de Pierre-le-Grand, en 1703, dans le delta marécageux de la Néva, au fond du golfe de Finlande, et souvent surnommée « la Venise de la Baltique », la ville se caractérise, comme la capitale vénitienne, par ses multiples canaux qui relient pas moins de 42 îles.

Située à une altitude moyenne de 2 à 4 m eulement au dessus du niveau de la mer, dans un secteur où la nappe phréatique affleure une bonne partie de l’année, la ville est particulièrement sujette au risque d’inondation. En 2003, on en dénombrait officiellement 295 depuis sa création, trois siècles plus tôt, dont pas moins de 44 depuis 1980, en moins de 25 ans !

Inondation à St Petersbourg le 13 décembre 1903 (source © Le Petit Journal)

Celle de 1777 est restée célèbre car immortalisée par un tableau du peintre Constantin Flavitski, intitulé « La princesse Tarakanova, emprisonnée dans la forteresse Pierre-et-Paul au moment de l’inondation », représentant la fille d’Elisabeth 1e de Russie acculée par la montée des eaux dans sa cellule. Mais d’autres crues et en particulier celle de 1824 qui fit entre 200 et 500 victimes, ont été bien plus spectaculaires encore.

C’est d’ailleurs après cette inondation de 1824 que l’ingénieur Piotr Basen commença à étudier l’esquisse d’un barrage destiné à protéger la ville contre les inondations. La particularité de ce site est en effet que les inondations sont provoquées par les difficultés d’écoulement de la Néva lorsque le vent d’ouest, soufflant depuis la Mer Baltique, empêche les eaux du fleuve de s’écouler et les refoule vers l’amont, provoquant des débordements sur la ville.

L’île de Kotline au centre de la baie de la Néva

Les premiers travaux du barrage destiné à protéger Saint-Petersbourg contre les inondations ont commencé en 1979 et ont consisté à relier à la terre ferme l’île de Kotline qui se situe au centre de la baie de la Néva, contrôlant l’entrée du port de Saint-Petersbourg et abritant la ville fortifiée de Kronstadt. En décembre 1984, l’île était ainsi reliée à la rive nord du golfe de Finlande par une digue continue. Mais très rapidement les Russes se sont rendus compte que cette quasi fermeture de la baie transformée ainsi en un vaste marécage, causait d’irrémédiables dégâts à l’environnement, empêchant la bonne évacuation vers le large des eaux usées issues de la ville.

Face à ce désastre écologique annoncé, il a fallu solliciter l’expertise des ingénieurs néerlandais et d’un bureau d’études britannique (Halcrow Group), ainsi que l’appui financier de la Banque européenne d’investissement pour rectifier le tir. Les travaux ont repris en 1990 et se sont achevés en 2011. L’ouvrage ainsi opérationnel est désormais constitué d’une digue de 25,4 km de longueur dont 23 km en remblais, d’une hauteur de 8 m et surmontée par une autoroute à 6 voies qui facilite la desserte de l’île et permet de relier les deux rives du golfe de Finlande.

Vue du chantier en 2002 (source © wandering camera)

La digue est munie de deux passes navigables permettant le passage des navires, ainsi que de 6 ouvrages hydrauliques larges de 300 m chacun et permettant le libre passage de l’eau. En cas d’alerte, lorsque les eaux du golfe se gonflent sous l’effet du vent d’ouest, les portes et les vannes sont refermées et le barrage se transforme en barrière hermétique, protégeant la ville contre le reflux des eaux.

Comme à la Nouvelle Orléans, ce type d’infrastructure hydraulique gigantesque est controversée et son efficacité à long terme reste à démontrer face aux effets induits du changement climatique. Les Russes ont longtemps plaisanté avec le sujet, prétendant que l’effet du réchauffement climatique ne pouvait être que bénéfique sous leurs latitudes, permettant enfin d’envisager un jour la culture de bananes dans la toundra.

Effets des gigantesques incendies de l’été 2010 à Moscou (photo © Natalia Kolesnikova / AFP / Getty Images)

Mais en 2010, la sécheresse estivale fut à l’origine de gigantesques incendies dont les fumées causèrent plus de 10 000 victimes dans les environs de Moscou, ce qui fit prendre conscience à certains de la gravité du phénomène, d’autant qu’en 2012 un autre événement, lié à une élévation du niveau de la Mer Noire, se traduisit par de gigantesques inondations dans la ville de Krymsk, avec cette fois plus de 200 morts à la clé. Et ce n’est pas fini puisque les scientifiques russes se retrouvent désormais confrontés à d’autres risques liés en particulier à la fonte du pergelisol, avec ses phénomènes induits non seulement en matière de stabilité des infrastructures, mais aussi en matière de risque sanitaire, avec la perte observée en 2016 de plus de 2500 rennes exterminés par une épidémie d’anthrax sibérien dans la péninsule de Yamal.

Chercheurs russes intervenant sur l’épidémie d’anthrax en 2016, péninsule de Yamal (source © Russian MOE)

Du coup, certains commencent à s’inquiéter quant à la vulnérabilité de la ville de Saint-Petersbourg face à ce risque insidieux. Même si les quartiers les plus anciens (et les plus touristiques) de la ville sont désormais relativement bien protégés contre les coups de mer par ce fameux barrage achevé en 2011, on continue d’observer une montée lente mais inexorable du niveau de la mer, de l’ordre de 1 à 2 mm par an, qui s’accompagne d’une érosion des zones côtières (de l’ordre de 50 cm par an en moyenne) et d’une réhausse progressive du niveau des nappes souterraines, menaçant insidieusement toutes les infrastructures vieillissantes de la ville historique.

Les chercheurs du Karpinsky Russian Geological Research Institute s’intéressent de près à ce phénomène d’érosion côtière qui grignote peu à peu les constructions situées en bordure du golfe et préconisent des méthodes de lutte plus adaptées, basées davantage sur l’apport de sable que sur des barrières rigides en béton dont les effets induits sont souvent néfastes. Comme sur la côte aquitaine, c’est toute une stratégie qui est en train de se mettre en place pour sauver la ville contre la lente mais inexorable montée des eaux liée au changement climatique qui ne fait plus rire personne, même à Saint-Petersbourg…

L.V.  

La voiture électrique est-elle écologique ?

1 mars 2018

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V. 

France-Allemagne : l’analyse de Thomas Piketty

27 février 2018

Thomas Piketty en conférence à Washington le 15 avril 2014 (crédit photo © Ivan Couronne / AFP)

Est-il besoin de présenter Thomas Piketty ? Docteur en économie de l’École des hautes études en sciences sociales et directeur d’études dans cette même institution après avoir été fondateur et premier directeur de l’École d’économie de Paris en 2006, cet économiste engagé, spécialiste des inégalités économiques, s’est notamment fait mondialement connaître pour la parution en 2013 de son ouvrage intitulé Le Capital au XXIe siècle, une somme de plus de 1000 pages qui le conduisit à donner de nombreuses conférences mondiales très remarquées y compris aux États-Unis.

Proche du Parti socialiste, il s’était engagé comme conseiller économique de Ségolène Royal lors de la campagne présidentielle de cette dernière en 2007, avant de soutenir François Hollande en 2012, pour reconnaître néanmoins sa forte déception a posteriori, allant jusqu’à estimer que « le gouvernement fait exactement le contraire de ce qu’il faudrait ». En 2015, il fait partie, avec Joseph Stiglitz des économistes qui conseillent le candidat du Labour britannique Jeremy Corbyn, et en 2017 on le retrouve dans l’équipe de campagne de Benoît Hamon, favorable à « un revenu universel crédible et audacieux ».

Les idées que soutient Thomas Piketty, en faveur notamment d’une réduction des inégalités par une réforme fiscale ambitieuse via une imposition progressive basée sur l’ensemble des revenus effectifs, ne font certes pas l’unanimité et suscitent même un rejet viscéral de la part des tenants du néolibéralisme, allergiques à toute idée de redistribution des richesses. Une chose est sûre pourtant, rares sont ceux qui contestent la compétence de cet économiste reconnu et ses analyses font souvent autorité.

Ainsi, l’un des articles publiés sur son blog en janvier 2017 et intitulé « De la productivité en France et en Allemagne » a conservé toute son actualité et mérite d’être lu en détail pour préciser certaines de nos idées reçues quant au fameux différentiel de compétitivité entre les deux pays moteurs de la construction européenne. Il n’est pas question ici d’évoquer toute la richesse du raisonnement mais on retiendra néanmoins à titre d’illustration trois ou quatre idées parmi d’autres.

Première affirmation, qui heurtera sans doute certains adeptes du déclinisme à la française : la productivité des économies mesurées en rapportant le PIB (c’est-à-dire la valeur totale des biens et services produits dans un pays au cours d’une année) au nombre total d’heures travaillées (salariés et non-salariés confondus) est quasiment identique en France et en Allemagne, comme d’ailleurs aux États-Unis. Elle représente environ 55 euros par heure travaillée en 2015, et est de plus de 25 % supérieure à celle enregistrée au Royaume-Uni ou en Italie, et près de trois fois plus élevée qu’en 1970 (après prise en compte de l’inflation et du niveau des prix dans les différents pays).

PIB par heure travaillée en parité de pouvoir d’achat et en euros 2015 (source © T. Piketty)

Contrairement à ce que certains voudraient faire croire, la France fait donc partie des quelques pays à forte productivité, de tels taux n’étant en effet dépassés que dans certaines économies très spécifiques basées sur la rente pétrolière (Norvège ou Émirats Arabes Unis par exemple) ou sur les paradis fiscaux (comme le Luxembourg).

Plus instructif encore, on observe que jusque dans les années 1970, la productivité américaine était très supérieure à celle des économies européennes, France comprise. Si la France et l’Allemagne ont pu grosso modo rattraper leur retard dès la fin des années 1980, c’est pour l’essentiel en ayant investi massivement dans l’éducation de leur population en généralisant l’accès à l’enseignement secondaire puis supérieur, avec plus de réussite que nos voisins britanniques et italiens, et davantage d’équité aussi que nos concurrents américains… Comme quoi, miser sur l’éducation est une nécessité absolue !

Nombre d’heures travaillées par an et par emploi (source © T. Piketty)

Deuxième idée intéressante qui ressort de cette analyse de Thomas Piketty : si le PIB par habitant est supérieur aux États-Unis qu’en Europe où il est finalement très comparable entre la France, l’Allemagne et le Royaume Uni (de l’ordre de 3000 € par mois et par personne), c’est parce que le volume d’heures travaillées y est très différent.

Thomas Piketty (crédit photo © Ekko von Schwichow)

Si l’on rapporte le nombre d’heures travaillées au nombre d’emplois, on observe ainsi que ce chiffre est en diminution régulière depuis les années 1970 en France et plus encore en Allemagne (où le phénomène est encore accentué par le développement du temps partiel imposé) alors qu’il est resté nettement plus élevé au Royaume Uni et surtout aux États-Unis. Les 1500 heures travaillées actuellement en moyenne par an en France correspondent peu ou prou à 35 heures hebdomadaires pendant 44 semaines alors que la durée des congés aux USA n’a quasiment pas augmenté depuis les années 1980, ce qui traduit une différence notable de choix de société.

Troisième notion évoquée dans cette analyse : le taux d’emploi par habitant qui, en France, stagne autour de 42 % alors qu’en Allemagne il s’accroit régulièrement depuis le début des années 2000 pour s’approcher désormais de la barre des 50 %. Ce décrochage très significatif de l’emploi en France depuis une quinzaine d’années est particulièrement significatif chez les moins de 25 ans et les plus de 55 ans, reflétant des faiblesses manifestes et inquiétantes en matière de formation professionnelle, de structuration du tissu industriel, de gouvernance des entreprises, mais aussi de financement de la protection sociale.

Dernier point qui mérite aussi d’être cité, sans prétendre tout dévoiler de cette analyse comparative très complète développée ici par Thomas Piketty : la question de l’excédent commercial allemand qui depuis les années 2000 représente toujours plus de 5 % de son PIB, atteignant même jusqu’à 8 % en 2015. Une situation totalement inédite pour un grand pays développé.

Le port à containers d’Hambourg, porte ouverte vers l’exportation

Le Japon a connu lui aussi dans les années 1980 des périodes d’excédent commercial qui lui ont permis d’accumuler des liquidités destinées à anticiper le vieillissement de sa population mais est depuis revenu à l’équilibre et présente même actuellement de nouveau une situation de léger déficit. Au même titre que la France d’ailleurs qui oscille régulièrement entre léger excédent et déficit modéré, alors que les États-Unis se distinguent depuis les années 1980 par un déficit chronique rendu possible par le rôle particulier de leur monnaie qui leur permet de rendre tolérable leur situation d’endettement financier permanent.

Reste que cette situation très particulière d’excédent commercial paraît peu durable à terme car elle suppose d’une part que les autres pays puissent absorber un tel excédent et d’autre part que l’Allemagne soit capable d’investir de manière judicieuse les liquidités ainsi accumulées, ce qui ne semble guère être le cas. La logique voudrait que le pays investisse désormais de manière plus significative dans les salaires (longtemps gelés), dans la consommation et dans l’investissement en Allemagne, afin de rééquilibrer son économie : un véritable défi pour la chancelière Angela Merkel qui peine toujours à former un gouvernement de coalition, cinq mois après les dernières élections législatives, mais un défi aussi pour la construction européenne et la solidité du tandem moteur franco-allemand !

L.V.  

Changement climatique : pourquoi personne ne bouge ?

22 février 2018

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

Jura : la consigne remise au goût du jour

5 février 2018

Consigner les bouteilles en verre : voilà une pratique autrefois très courante et qui a quasiment disparu de notre environnement quotidien. Dans les années 1960, le geste était pourtant des plus banal, qui consistait à rapporter à son épicier où dans les grandes surfaces alors en plein expansion ses bouteilles vides de lait, de vin ou de bière, et ceci en échange de quelques pièces de monnaie ou d’un bon d’achat de valeur modique.

La pratique ne date d’ailleurs pas d’hier puisqu’elle aurait été initiée, dit-on, en 1799 à Dublin par un vendeur d’eau minérale gazeuse, imité dès 1800 par la marque Schweppes. En 1884, la Suède a généralisé le dispositif à grande échelle, allant jusqu’à imposer une standardisation des bouteilles pour en faciliter le recyclage.

Stockage de verre brisé issu du recyclage (source © Verre avenir)

Car le dispositif de la consigne ne présente que des avantages, tant écologiques qu’économiques. Une bouteille consignée (conçue spécifiquement à cet effet pour être plus résistante) peut être réutilisée une cinquantaine de fois moyennant un simple lavage. Ce qui permet d’économiser, selon une étude menée en Alsace et reprise par la fondation Nicolas Hulot, jusqu’à 75 % d’énergie et 33 % d’eau par rapport au recyclage classique qui nécessite de broyer les bouteilles, de débarraser le verre de ses impuretés puis de le fondre dans un four à 1 500 °C afin de fabriquer de nouveaux flacons…

Et pourtant, la France a presque complètement abandonné cette démarche dans les années 1980, alors que la filière des bouteilles en verre se trouvait fortement déstabilisée du fait du développement massif des emballages jetables en plastique. En 1992, lorsqu’a été créé en France le principe de « la responsabilité élargie du producteur », l’objectif prioritaire des industriels était d’éviter qu’on lui impose un système de consigne et ceci pour des raisons purement commerciales. La directive européenne adoptée en 1994 rend en effet désormais obligatoire la reprise ou la collecte des emballages ménagers en vue de leur réutilisation ou leur recyclage.

Récolte sélective du verre : ça déborde parfois… (source © Ouest-France)

La dispositif français oblige quant à lui les entreprises produisant ce qui deviendra des déchets, de verser une contribution financière à des organismes chargés d’organiser les filières de collecte et de traitement de ces déchets, en l’occurrence l’Adelphe, créée en 1993 à l’initiative des opérateurs industriels du secteur des vins et spiritueux. Or le verre pèse pour près de la moitié dans les déchets ménagers des Français, avec environ 2,3 millions de tonnes collectées chaque année par les collectivités. Et les sommes versées par les industriels pour la collecte et le traitement de ces déchets, de l’ordre de 60 millions d’euros par an, ne couvrent qu’une partie du coût, le reste étant pris en charge par les collectivités locales et payé par le contribuable via la taxe d’enlèvement des ordures ménagères.

Automate pour la collecte des bouteilles consignées en Allemagne

Un modèle imposé par les industriels donc, mais qui coûte cher au consommateur comme au contribuable et dont le bilan énergétique est déplorable ! Mais un modèle qui pourrait facilement être changé, à l’exemple de nombreux pays européens dont l’Allemagne où près des trois quarts des bouteilles sont consignées. Il est d’ailleurs cocasse de constater que Verallia, ancienne filiale conditionnement en verre de Saint-Gobain, produit justement des bouteilles consignées destinées au marché allemand

En France, la pratique de la consigne n’a cependant pas totalement disparu puisqu’elle est toujours pratiquée dans les hôtels, cafés et restaurants, ce qui permet ainsi de réutiliser directement environ 500 000 tonnes de verre par an, ce qui représente pas loin d’un milliard de bouteilles, sachant qu’on en produit chaque année de l’ordre de 3,4 milliards…

Et l’Alsace, peut-être en raison de sa proximité culturelle et géographique avec l’Allemagne, n’a jamais abandonné non plus le principe de la consigne, au point de faire des émules puisque l’on assiste depuis quelques années à l’émergence d’un mouvement de réutilisation des bouteilles dans le Jura.

L’initiative date de 2015 et est à porter au crédit de Clus’Ter Jura, une société coopérative d’intérêt collectif, elle-même issue de Juratri, une entreprise d’insertion créée en 1993 à Lons-le-Saunier et spécialisée dans le tri sélectif des déchets. Lauréate de l’appel à projet « Territoire zéro gaspillage, zéro déchet » organisé depuis 2014 par le ministère de l’environnement, l’initiative sobrement intitulée « J’aime mes bouteilles » commence à faire parler d’elle dans les médias.

Aude Weiss, responsable de la filière J’aime mes bouteilles (photo © Laëtitia Achilli)

Une animatrice, Aude Weiss, a été recrutée en septembre dernier pour piloter le projet qui consiste à collecter les bouteilles de vin issus de la production locale et qui sont consommés à 60 % dans le Jura, ce qui rend d’autant plus aisée et rentable leur réutilisation. Depuis un an, ce sont ainsi déjà plus de 50 000 bouteilles de vin qui ont été récupérées dans 25 points de collecte (Biocoop, cavistes, épiceries, etc.) où les clients les rapportent (gratuitement pour l’instant). La structure revend ensuite ces bouteilles aux viticulteurs, au prix de 18 à 20 centimes la bouteille, contre 24 à 27 centimes pour une neuve, ce qui leur permet de les réutiliser moyennant une économie substantielle supérieure à 20 %.

Dispositif de collecte des bouteilles mis en place dans le Jura par J’aime mes bouteilles

Le mouvement ainsi initié est en plein essor et espère augmenter significativement son impact en visant la collecte de 500 000 bouteilles d’ici 2020, avec une extension à d’autres productions locales telles que la bière et les jus de fruits. La mise en place d’une gratification pour inciter davantage les consommateurs à rapporter leurs bouteilles vides est aussi envisagée, comme en Allemagne où les bouteilles sont vendues un peu plus chères, mais où l’acompte est ensuite redonné aux consommateurs qui rapportent les bouteilles : 8 centimes pour une canette de bière, 15 pour une bouteille en plastique recyclable et 25 centimes pour les contenants non recyclables – sous forme de bons en magasin ou via des automates collecteurs.

Non seulement cette pratique est vertueuse sur le plan environnemental en contribuant à diminuer les volumes de déchets, mais de surcroît elle offre aux plus démunis la possibilité d’arrondir leurs fins de mois en ramassant les bouteilles et canettes vides laissées à l’abandon. Comme quoi, bénéfices économiques, sociaux et environnementaux arrivent parfois à se rejoindre !

L.V.  

Inondations : on a trouvé les coupables !

3 février 2018

Une nouvelle fois, la France vient de connaître une vague d’inondations spectaculaires. A Paris, le niveau de la Seine est monté la semaine dernière à 5,85 m et aurait selon toute vraisemblance dépassé les 6,40 m sans l’action des quatre lacs-réservoirs situés en amont du Bassin parisien. A un tel niveau, certes très inférieur à celui observé en janvier 1910, mais qui n’avait pas été atteint depuis 1955, les dégâts sur les réseaux et infrastructures auraient pu être considérables, en particulier sur le réseau de transports et notamment le RER C qui commence à être sérieusement menacé au-delà de 6,20 m.

Les bords de Seine à Paris le 22 janvier 2018 (photo © Stéphane de Sakutin / AFP)

Et comme toujours dans ces cas-là, on cherche les coupables… Ainsi que lors de chaque épisode de ce type, les rumeurs les plus absurdes courent, alimentées par la certitude, aussi irrationnelle que récurrente, selon laquelle : « ils nous ont inondés pour protéger Paris » (ou tout autre ville d’ailleurs, selon l’endroit où l’on se place…). Il est toujours difficile d’admettre que l’on a été inondé parce qu’il a beaucoup plu et que l’on est situé en zone inondable, dans le lit majeur d’un cours d’eau…

Et ceci malgré tous les dispositifs de protection contre les inondations qui ont pu être mis en place et qui ont souvent joué un rôle atténuateur très bénéfique comme cela a été le cas en janvier 2018 avec les lacs-réservoirs qui ont dérivé et stocké en amont du bassin versant des centaines de millions de mètres cube d’eau, réduisant d’autant les débits en aval.

Alors, puisque l’on a vraiment besoin de trouver un bouc émissaire, ne cherchez-plus. L’explication à ces inondations, exceptionnelles par leur ampleur et leur durée, est parfaitement claire sur la photo suivante, prise le 31 janvier 2018 sur la commune de Montesson, dans les Yvelines, et garantie sans trucage : c’est simplement un étourdi qui a oublié de fermer le robinet…

A Montesson, le 31 janvier 2018 (photo © Frédéric Gache / EPTB Seine Grands Lacs)

Et pour les Parisiens qui ont une dent contre la politique menée depuis des années par la Ville de Paris en faveur de la réduction de la voiture en ville et de la réappropriation des voies sur berges par les piétons, voici une seconde explication, tout aussi recevable…

Dessin de Lacombe publié dans Marianne le 2 février 2018

Lorsque les forces de la nature dépassent l’entendement, il est toujours rassurant de se raccrocher à des explications simples et pleines de bon sens !

L.V.  

Marseille envisage le recours à la délation massive…

1 février 2018

A Marseille, on savait déjà grâce aux travaux du sociologue Laurent Mucchielli, que les caméras de vidéosurveillance servaient principalement non pas à élucider les délits de voie publique mais à verbaliser les automobilistes mal garés. Il en est d’ailleurs de même à Carnoux, depuis l’an dernier. Et voilà qu’un article très documenté paru dans la Provence du 24 janvier 2018 vient encore noircir le tableau et brouiller les pistes.

Extrait de l’article publié par La Provence, le 24 janvier 2018

Intitulé sobrement « Big Brother : un ami qui vous veut du bien », l’article décortique la politique de surenchère frénétique et de course à la technologie qui s’est emparée des édiles marseillais cherchant à tout prix à rassurer leur électorat par le déploiement à grande échelle de gadgets aussi coûteux qu’inutiles, et envisageant sérieusement d’encourager des pratiques de délation massive qui commencent à faire froid dans le dos…

Caroline Pozmentier, adjointe au maire de Marseille, déléguée à la sécurité publique

On y apprend ainsi que Caroline Pozmentier, l’adjointe au maire de Marseille en charge de la sécurité publique et de la prévention de la délinquance, attend avec impatience les résultats de l’expérimentation de la ville de Nice sur le dispositif Reporty avant d’envisager sa mise en œuvre dans la cité phocéenne. Développé en Israël, où la politique ultra-sécuritaire que mène depuis des années ce pays en guerre civile larvée fait fantasmer tous nos élus locaux de droite, ce système consiste en une application installée sur le smartphone de tout un chacun et qui permet à un citoyen lambda de dénoncer en direct toute incivilité, crime ou délit dont il serait témoin, en se contentant de filmer la scène.

Certains craignent que cela ne vienne encourager le développement d’un climat de délation générale, peu propice à renforcer le tissu social et de nature à déborder la police municipale sous un amas de plaintes futiles et relevant surtout de la jalousie de voisinage. Mais Caroline Pozmentier ne voit pas où est le risque, affirmant sans sourciller : « vous savez, la délation elle existe déjà : le maire reçoit chaque jour des dizaines de lettres anonymes dénonçant tel ou tel… Tout ça, c’est une question de culture que nous devons mettre en place peu à peu ». A croire que l’élue LR regrette le bon temps de la Collaboration où chacun n’hésitait pas à dénoncer allègrement son voisin… D’autant que l’outil qui permet de dénoncer des incivilités existe déjà, via Allo mairie, et que téléphoner au numéro d’urgence nationale (17), lorsqu’on est témoin d’un fait grave, relève déjà de l’obligation citoyenne.

Laurent Mucchielli, cité par La Provence dans son article du 24 janvier 2018

Mais on sent derrière cette stratégie, comme l’analyse Laurent Mucchielli dans le reportage de La Provence, une volonté politique de la municipalité marseillaise de s’approprier la sécurité au détriment des forces de l’ordre nationale. Avec plus de 400 policiers municipaux armés et 600 prévus d’ici 2020, la ville de Marseille bénéficie d’ores et déjà des forces de police municipale les plus importantes de France, talonnée il est vrai par la ville de Nice qui sert d’aiguillon.

Une ville de Nice qui a donc lancé l’expérimentation du dispositif Reporty et où le maire, Christian Estrosi, se dit persuadé que seul un dispositif de vidéosurveillance peut assurer la sécurité de ses concitoyens, lui qui n’hésitait pas à persifler au lendemain de l’attentat contre Charlie Hebdo (et avant celui du 14 juillet 2016 qui avait ensanglanté la Promenade des Anglais) : « Avec 999 caméras et une caméra pour 343 habitants, je suis à peu près convaincu que si Paris avait été équipé du même réseau que le nôtre, les frères Kouachi n’auraient pas passé 3 carrefours sans être netralisés et arrêtés ».

Reporty, une application en test à Nice (source : numerama.com)

La suite des événements lui a clairement prouvé qu’il avait tort mais cela ne l’empêche pas de persévérer et de faire des émules, non seulement à Marseille mais même dans des petites communes comme Sisteron où le maire LR compte installer en 2018 pas moins de 81 caméras pour 8 000 habitants, un des taux les plus élevés de France, ou encore à Châteaurenard où les 15 000 habitants disposent déjà d’une caméra pour 110 habitants.

Centre de supervision urbaine de Marseille (photo © Anne-Christine Poujoulat / AFP.com)

Et Marseille bien entendu ne compte pas être en reste puisque l’objectif est d’y installer 2 000 caméras d’ici 2020, ce qui revient quasiment à doubler le parc déjà déployé depuis 2012, mais qui jusqu’à présent est surtout disposé le long des grands axes routiers (principalement pour surveiller les infractions au code de la route) et dans les noyaux villageois, mais évite soigneusement les cités chaudes où se concentre la délinquance. A raison de coûts d’installation estimés entre 1 500 et 7 000 euros pour chaque caméra, sans compter les frais de fonctionnement liés à la maintenance du matériel et à l’exploitation des images enregistrées, on voit bien que cette politique municipale va coûter cher au contribuable marseillais.

Renaud Muselier, Président du Conseil régional PACA et roi de la surenchère sécuritaire…

Et ce n’est sans doute qu’un début puisque, dans un souci évident de surenchère, chacun y va de sa proposition. C’est ainsi que le Président du Conseil régional, Renaud Muselier, souhaite désormais installer des portiques de reconnaissance faciale devant chaque lycée, tandis que sa vice-présidente rêve de développer « la Big data de la tranquillité publique » pour faire de Marseille une « safe city », en provençal dans le texte. Autrement dit, il s’agit de croiser tous les fichiers de données numériques pour mieux les exploiter, une gageure quand on sait comment fonctionnent les services qui les gèrent, et un véritable cauchemar pour la Commission nationale de l’informatique et des libertés, la CNIL, qui croule sous les demandes et ne sait plus où donner de la tête, elle qui est sensée s’assurer que le fichage des données personnelles respecte certaines règles de base et ne vient pas mettre en péril la vie privée des Français.

Jusqu’où ira-t-on dans une telle course à la technologie destinée avant tout à permettre aux élus locaux de rassurer leurs électeurs en leur montrant qu’ils ne lésinent pas pour assurer leur sécurité ? Après le dispositif des voisins vigilants et les lotissements entièrement cloturés et sous gardiennage électronique, après les caméras de vidéosurveillance et les systèmes de reconnaissance faciale, on envisage désormais sérieusement des drones pour surveiller en permanence tout déplacement suspect et sans doute bientôt des milices armées de citoyens comme on commence à l’organiser avec les groupes de chasseurs dans l’Est de la France. Décidément, on vit une époque formidable qui devrait nous préparer un avenir radieux !

L.V.  

USA : le sapin de Noël détrôné par le cannabis

10 janvier 2018

Voilà une nouvelle qui a fait le buzz juste avant les fêtes de Noël mais dont on ne se lasse pas tant elle est emblématique des circuits de la mondialisation ! Cette année, les producteurs canadiens de sapins de Noël se frottent les mains, eux qui exportent plus de la moitié de leurs sapins vers les États-Unis voisins. Leurs ventes vers les USA ont en effet connu un bond en avant spectaculaire : + 40 % par rapport à 2015 ! Cette année, selon le Journal du Québec, ce sont près de 1,5 million de conifères qui ont ainsi été exportés vers les USA, soit un marché de plus de 35 millions de dollars. Pour le Canada, c’est Noël avant l’heure…

La raison de ce succès commercial inespéré ne réside pas dans un engouement inhabituel des Américains pour une tradition festive ancrée de longue date dans les mœurs locales, mais traduit simplement une pénurie de sapins dans les États américains traditionnellement producteurs. Comme souvent, plusieurs facteurs viennent expliquer cette pénurie.

Plantation de sapin dans l’Oregon (source RFI ; photo © UIG via Getty Images)

La sécheresse qui a sévi dans l’État de Washington mais aussi les incendies qui ont ravagé la Californie à plusieurs reprises cette année ont quelque peu contribué à cette situation. En octobre dernier, celui qui s’était déclaré dans la région de Santa Rosa, détruisant près de 6000 bâtiments et causant la mort de 42 personnes, avait en effet réduit en cendres pas moins de 864 km2 de zones résidentielles et de forêts, dont quelques pépinières.

Mais c’est un autre phénomène, de nature plus prosaïque, qui explique pour l’essentiel cette pénurie de sapins de Noël dans l’Ouest américain. En fait, les producteurs se sont tout simplement tournés vers une activité nettement plus lucrative, à savoir la culture du cannabis. Ainsi, dans l’Oregon, petit État de 4 millions d’habitants qui fut longtemps l’un des grands producteurs de sapins de Noël mais où la production de marijuana est en train de prendre de l’ampleur, la production de sapins ne cesse de chuter : de 6,4 millions de plants en 2013, elle devrait passer sous les 5 millions cette année. Le nombre de producteurs aurait, selon le département de l’agriculture de l’Oregon, diminué de 30 % entre 2010 et 2015.

Plantation de cannabis aux USA (crédit photo © The Lane Report)

Aux États-Unis, ce sont les États de Washington et du Colorado qui ont adopté les premiers, dès novembre 2012, une législation légalisant l’usage récréatif du cannabis. Depuis le 1er janvier 2014, un utilisateur de cannabis du Colorado est ainsi autorisé à cultiver librement pour ses propres besoins. Depuis le mois de juin de la même année, il en est de même dans l’État de Washington où des producteurs de marijuana sont désormais habilités à cultiver à titre commercial. L’Alaska leur a emboîté le pas à partir de novembre 2014. En Oregon, la consommation à usage récréatif est devenue licite en juillet 2015 mais il a fallu attendre début 2016 pour que soient autorisées les premières plantations.

Depuis, le mouvement s’est accéléré. A partir du 1er janvier 2018, la Californie est ainsi devenue le huitième État américain à légaliser le cannabis à usage récréatif alors que son utilisation à but thérapeutique y est déjà licite depuis 1996, comme désormais dans une vingtaine d’autres États américains. La décision y avait été prise par référendum, en novembre 2016 : en même temps que les Américains choisissaient en la personne de Donald Trump leur 45ème président fédéral, les habitants de la Californie, mais aussi leurs voisins du Nevada ainsi que ceux du Maine et du Massachusetts, sur la côte Est des États-Unis, décidaient de rendre légale la consommation de cannabis. La cohérence entre ces deux décisions prises simultanément confirme, s’il en était besoin, que dans une démocratie les avis peuvent être multiples…

Carte de la situation selon les États américains (infographie © Le Figaro)

Toujours est-il que les enjeux économiques d’une telle décision ne sont pas anodins et risquent d’avoir des répercussions au-delà du seul marché des sapins de Noël canadiens… Ainsi, dans le Colorado où la marijuana est en vente légale depuis 2014, on considère que le marché du cannabis a créé 18 000 emplois à temps plein en trois ans, ce qui n’est pas si mal pour un État peuplé de 5 millions d’habitants. L’afflux touristique s’est considérablement accru et surtout les rentrées fiscales ont été telles qu’il a fallu reverser aux contribuables le trop-perçu. En effet, la constitution du Colorado fixe un plafond aux contributions fiscales de chaque citoyen. L’État ayant décidé de taxer à hauteur de 30 % les ventes de cannabis s’est ainsi retrouvé à la tête d’un pactole inattendu de 50 millions de dollars supplémentaires, soit 30 de trop par rapport au plafond autorisé par la constitution, si bien que chaque habitant s’est vu crédité d’un chèque de 7,63 $…

Projection des ventes de cannabis à usage récréatif et thérapeutique d’ici 2021 (source © Arcview market research)

En 2016, selon une étude du Arcview market research, les Américains auraient ainsi dépensé de l’ordre de 6,7 milliards de dollars pour l’achat de cannabis légal, soit une augmentation de 34 % depuis 2015. Et le mouvement ne fait sans doute que commencer puisque les projections estiment que ce marché devrait atteindre de l’ordre de 22 milliards d’ici 2021, la plus forte croissance étant liée à l’usage récréatif du cannabis, dont le marché pourrait passer de 1,9 milliards en 2016 à près de 15 milliards d’ici 2021.

Le principal bénéficiaire de cette croissance juteuse en sera probablement la Californie qui devrait s’adjuger une part importante de ce marché en pleine expansion. Les producteurs de cannabis y seront taxés à hauteur de 15 % et les ventes à hauteur de 10 %, auxquels s’ajouteront des taxes communales variant entre 2 et 10 %, soit de belles rentrées fiscales supplémentaires en perspectives. De quoi peut-être donner des idées à notre gouvernement dans sa volonté de réduire le déficit de l’État sans forcément trop rogner sur les dépenses publiques ?

L.V.  

La couverture de Noël, petit conte des temps modernes…

27 décembre 2017

Était-ce l’approche des fêtes de Noël avec ses illuminations qui fleurissent dans toutes les rues de la ville et ce vague relent de sentiment chrétien qui vient réveiller les consciences ? Où était-ce l’effet de ces reportages diffusés par vagues à la télévision, montrant comment le mobilier urbain est conçu pour rendre la vie impossible à tous les SDF qui tentent tant bien que mal de survivre dans la rue ?

Dispositif anti-SDF (source : Morbleu)

Faux cactus qui empêchent de s’asseoir, accoudoirs intempestifs qui rendent les bancs publics impropres à s’y allonger, baïonnettes posées comme des pics anti-pigeons géants, et même douches glacées se déclenchant automatiquement pour arroser quiconque resterait une minute de trop à l’abri sous un porche d’immeuble ou une entrée de garage : l’imagination des concepteurs et des gestionnaires de l’espace public ne connait pas de limite quand il s’agit de se protéger contre les indésirables…

SDF devant un distributeur bancaire (source : Algérie focus)

Toujours est-il que, depuis quelques temps, Marie ne regardait plus du même œil le vieil ivrogne hirsute qui campait à demeure avec son chien tout galeux devant le distributeur automatique de billets en bas de sa rue. Non pas qu’elle ne soit pas toujours autant dégouttée par son aspect repoussant, son odeur fétide et ses manières agressives. Mais elle ne pouvait pas non plus s’empêcher de le prendre parfois en pitié quand elle le voyait endormi, emmitouflé dans ses vêtements trop minces pour le protéger du froid mordant et blotti contre son chien qui grelottait en levant sur les passants un regard larmoyant.

Et depuis une semaine, le vieil homme n’était plus à son poste. Lui qui n’avait pas bougé de son repaire depuis des mois, des années peut-être, avait brusquement disparu. Le bout de trottoir devant l’agence bancaire était de nouveau nickel, rendu à sa vocation première d’espace public pour citadins pressés de venir se réapprovisionner en petites coupures pour leurs achats de Noël. Et Marie ne cessait de s’interroger sur ce qu’il avait bien pu advenir du vieil SDF et de son chien tout déplumé.

C’en était presque devenu une obsession. Elle qui avait plutôt l’habitude de tourner la tête ou de baisser les yeux chaque fois qu’elle croisait sur son chemin l’un de ses rebuts de la société condamné à errer dans la rue, voilà qu’elle se mettait à fureter dans les petites ruelles de son quartier et à jeter des regards inquisiteurs dans les recoins sombres susceptibles de servir d’abri pour un SDF aux abois. Mais pas de trace du vieil ivrogne : disparu, envolé !

En revanche, ce brusque intérêt pour ses semblables rejetés l’amenait à regarder d’un œil un peu plus bienveillant toute cette misère humaine survivant au jour le jour dans les interstices de la jungle urbaine. A plus de 70 ans, Marie découvrait que la famille de Roms et ses prières insistantes, nichée devant le porche de l’église, ou l’obèse handicapé qui s’installait tous les soirs dans l’abribus, le long du boulevard bruyant, étaient des hommes et des femmes avant d’être des menaces et une gêne pour les habitants.

Maraude de la Croix-Rouge française (source Buzzles)

Du coup, Marie aurait voulu faire un geste pour eux, leur témoigner de cette sympathie qu’elle ressentait pour eux. A bien y penser, ce n’était d’ailleurs pas vraiment de la sympathie. Comment se sentir en phase avec ces gens à qui, pour rien au monde elle n’aurait osé adresser la parole ! Pour dire quoi d’ailleurs ? Marie ne voyait pas vraiment ce qu’elle aurait eu à partager avec tous ces SDF qui ne pensent qu’à se battre pour un bout de trottoir où le fond d’une bouteille de mauvaise piquette et qui ont perdu toute dignité, au point d’uriner directement dans la rue comme elle avait pu le constater furtivement…

Mais pour autant, Marie aurait bien aimé faire un geste à leur égard, surtout envers ce jeune au teint basané et à l’air résigné qu’elle avait repéré depuis quelques jours car il venait régulièrement trouver refuge devant le magasin de farces et attrapes où il arrivait à s’allonger à l’abri de la devanture. Bien sûr, Marie aurait pu aller grossir les rangs des bénévoles du Secours catholique ou de la Croix-Rouge française qu’elle voyait parfois déambuler le soir pour distribuer un bol de soupe fumant aux cabossés de la vie. Mais Marie n’avait jamais eu beaucoup de goût pour les associations et les groupes…

En y repensant, Marie s’est dit qu’elle pourrait au moins offrir à ce jeune SDF basané, sans doute un réfugié syrien ou afghan ou que sais-je encore ?, un vêtement chaud pour l’aider à endurer les nuits glaciales. Elle avait donc fouillé dans ses placards à la recherche d’une des vestes de son défunt mari, qu’elle n’avait pas pu se résoudre à jeter bien que celui-ci soit décédé depuis plusieurs années déjà.

Et elle était tombée sur cette superbe couverture berbère qu’ils avaient acheté ensemble, jadis, dans un souk de Marrakech. Une vague d’émotion la saisit tandis qu’elle déplie lentement la couverture et admire ses dessins géométriques admirablement tissés et ses bandes parallèles multicolores. Elle se souvient de ces moments merveilleux passés avec son mari à déambuler dans les petites ruelles de la médina du sud marocain, de leurs échanges complices tandis qu’ils fouillaient allègrement dans les amoncellement de théières et de poteries à la recherche d’une pièce un peu originale. Elle revoit ce vieillard vénérable avec qui ils avaient marchandé cette couverture devant laquelle ils étaient tombés en admiration, tout en sirotant lentement leurs verres de thé à la menthe. Une couverture qu’ils avaient sans doute payé bien trop cher au vu de tous les menus cadeaux que leur avait fait le vieux tout en emballant soigneusement la couverture dans un papier kraft retenu par une vieille ficelle.

Marie apprécie une dernière fois la finesse des décorations et la douceur de la laine tissée très serré, puis descend l’escalier en serrant contre elle la précieuse couverture. Le jeune réfugié est bien là, blotti dans l’encoignure de la devanture, dans le recoin le moins éclairé pour essayer de se fondre dans la façade sombre. Marie s’approche et lui tend timidement son présent. D’abord effrayé, le jeune lui sourit et son visage s’illumine tandis qu’il s’empare de la couverture et apprécie la douce chaleur qui s’en dégage.

Dessin de Gros paru dans Marianne n°1084-1085

Marie remonte chez elle toute irradiée de son geste généreux et s’endort apaisée. Au petit matin, alors que le jeune réfugié s’est enfin endormi, blotti dans la couverture berbère qui le protège d’un crachin glacial, une voiture de police s’arrête à sa hauteur. Les fonctionnaires de police s’approchent et l’un d’eux actionne sa bombe lacrymogène en direction du jeune encore à moitié endormi. Affolé, il se lève d’un bond tout en tentant de se protéger le visage contre le produit irritant qui lui brûle les yeux. Les policiers hilares le regardent s’enfuir sans demander son reste. L’un d’entre eux saisit la couverture d’un air dégoutté et la jette dans la poubelle la plus proche. Un dernier regard sur la devanture du magasin qui a retrouvé son état normal et la patrouille de police remonte dans le véhicule de service : mission accomplie !

L.V.  

Le déluge : mythe ou réalité ?

11 décembre 2017

Chacun a en mémoire le fameux récit biblique du déluge dans lequel il est écrit en substance que Dieu, mécontent de la conduite des hommes, déclencha une formidable inondation qui dura 40 jours et 40 nuits, et noya toute trace de vie sur terre à l’exception du brave Noé et de toute sa famille. Celui-ci avait été chargé de construire une solide arche, aux planches soigneusement calfatées de goudron et dans laquelle il avait mis à l’abri un couple de chacune des espèces animales, ce qui lui permit finalement de repartir sur de nouvelles bases, une fois l’inondation achevée et l’arche échouée.

L’arche de Noé sur le Mont Ararat (tableau de Simon de Myle, peint vers 1570)

Ce récit fondateur qui marque les esprits a longtemps servi de fil conducteur, y compris aux yeux de certains scientifiques qui s’appuyaient sur lui pour expliquer la présence de nombreux coquillages fossiles retrouvés jusque sur les sommets des montagnes alpines. On sait désormais, grâce à la compréhension des mouvements tectoniques et à une meilleure connaissance de la datation des couches sédimentaires, qu’il n’est nul besoin de faire appel à ce récit biblique pour expliquer de telles observations.

Onzième tablette racontant l’épopée de Gilgamesh et le récit du déluge (source © British Museum)

Et pourtant, paradoxalement, les connaissances historiques et géologiques récentes donnent du crédit à ce récit de l’Ancien Testament. L’affaire ne date pas d’hier puisque c’est en 1872 que George Smith, un des premiers à découvrir et à traduire les tablettes d’argile recouvertes d’écritures cunéiformes de Mésopotamie, gravées il y a plus de deux mille ans avant J.-C., a fait connaître au monde entier l’épopée de Gilgamesh.

Dans cette histoire, dont on a désormais retrouvé de nombreuses versions, les plus anciennes remontant à l’époque sumérienne, au 3ème millénaire avant J.-C., le héros Gilgamesh rencontre le supersage Atrahasis qui lui raconte que jadis les dieux en colère, lassés du vacarme incessant des humains, avaient décidé de s’en débarrasser en inondant la terre. Mais le dieu des eaux souterraines, un certain Ea, les trahit, avertit son ami Atrahasis du danger, et lui enjoint de fabriquer sans attendre un solide bateau aux planches calfatées de bitume, et d’y faire entrer un specimen de chaque espèce animale (d’autres versions, plus futuristes, évoquent plutôt « la semence de toutes les créatures vivantes »).

Les tablettes d’argile relatent une inondation plus courte (7 jours seulement) mais l’épilogue, qui consiste à lâcher une colombe pour vérifier si elle aperçoit signe de terre rappelle furieusement l’idée de Noé, même s’il fallut, dans la version sumérienne, doubler la tentative avec le lâcher d’une hirondelle puis d’un corbeau…

Le déluge, frontispice de la bible illustrée par Gustave Doré (1866)

Bref, les nombreuses similitudes entre ces récits indiquent avec une quasi certitude que l’histoire de Noé, probablement écrite vers le VIIe siècle avant J.-C., soit plusieurs millénaires sans doute après les premières versions assyriennes, fixée sur les rouleaux manuscrits de la Mer Morte puis recopiée de génération en génération, s’est très vraisemblablement inspiré du précédent, d’autant que le peuple juif a été longtemps placé sous domination assyrienne.

De nombreux chercheurs ont cherché d’autres filiations de ce type, tant les récits fondateurs qui évoquent des inondations cataclysmiques du même type se retrouvent dans le monde entier, en Inde comme parmi certaines civilisations amérindiennes, et même chez les aborigènes d’Australie où il se raconte l’histoire d’une grenouille qui aurait bu toute l’eau de la Terre, au point que les autres animaux assoiffés n’ont eu d’autre choix que de la faire rire, provoquant de la sorte une formidable inondation…

Certains de ces récits retiennent néanmoins l’attention, dont celui retracé dans les écrits mythologiques du pseudo Apollodore, datés du 1er siècle et qui évoquent un déluge qui aurait mis fin à l’âge du bronze, les seuls survivants étant le fils de Prométhée, un certain Deucalion et son épouse Pyrrha, dont la barque s’échoue sur le sommet des montagnes. Là aussi, les convergences avec le récit biblique sont étonnantes, ce qui tend à affermir l’idée d’une inondation exceptionnelle survenue en des temps très reculés dans cette région et dont la mémoire collective se serait transmise de génération en génération.

Les Américains William Ryan et Walter Pitman, auteurs en 1998 de l’ouvrage Noah’s Flood

Curieusement, plusieurs scientifiques pensent désormais disposer d’hypothèses assez solides qui pourraient expliquer l’origine de tels événements. En 1993, une expédition géologique américano-russe a ainsi en évidence, en analysant des sédiments déposés au fond de la Mer Noire, des indices montrant un passage assez brutal d’eau douce à de l’eau salée. Selon leurs observations, au cours de la dernière glaciation, celle du Würm, qui s’est étalé de -110 000 à -10 000 ans environ, la Mer Noire s’est retrouvée totalement déconnectée de la Méditerranée. Du fait de la glaciation, le niveau des océans avait baissé de plus de 130 m et les détroits du Bosphore et des Dardanelles étaient alors émergés.

Avec le réchauffement progressif, la fonte des glaces sur les plaines ukrainiennes a alimenté en eau la vaste dépression de la Mer Noire qui se transforma en un lac d’eau douce, toujours isolé de la Méditerranée et autour duquel se sont installées de nombreuses populations. Vers 7500 avant J.-C., la brutale remontée du niveau de la Méditerranée se serait traduite par un déversement brutal des eaux de cette dernière dans la Mer Noire dont le niveau se situe 200 m plus bas, provoquant la fuite des populations vers le Mont Ararat, seul point culminant situé à 300 km du rivage mais visible de très loin.

La Mer Noire (source © Google Earth)

Le géologue américain Robert Ballard

En 1999 et 2000, le géologue Robert Ballard, celui-là même qui retrouva l’épave du Titanic, avait également entrepris des investigations dans ce secteur et retrouvé des traces de l’ancien rivage côtier de la Mer Noire avec des vestiges d’érosion qu’il attribue à des flots se déversant sous forme de cataractes depuis la Méditerranée. Autant d’éléments qui accréditeraient cette hypothèse d’une inondation brutale et rapide des riveges de la Mer Noire, provoquant chez les survivants un traumatisme de nature à se transcrire de génération en génération sur un temps long. De nombreux chercheurs attribuent d’ailleurs cette ouverture brutale du détroit du Bosphore à un mouvement sismique de l’extrémité de la faille nord-anatolienne, ce qui aurait en effet pu provoquer un déversement cataclysmique des eaux de la Méditerranée dont le niveau était fortement remonté sous l’effet du réchauffement climatique.

Le chercheur français Guillaume Soulet, auteur d’une thèse intitulée Changements hydrologiques de la mer Noire au cours des 30 derniers millénaires et la dernière déglaciation en Europe centrale, sous la direction d’Edouard Bard et Gilles Lericolais

L’équipe d’Edouard Bard basée au CEREGE s’est également intéressée de près à ce sujet et a montré que la réalité était sans doute beaucoup plus complexe que ne l’avaient imaginé en 1997 les Américains Bill Ryan et Walt Pitman, dont l’ouvrage paru en 1998 sous le nom de Noah’s Flood avait eu alors une énorme retentissement. D’après Guillaume Soulet, qui a soutenu en 2011 une thèse sur le sujet, la connexion de la Mer Noire via le Bosphore est plus ancienne et daterait plutôt de 8 300 avant J.-C. Et il s’agirait plus vraisemblablement d’un phénomène se produisant par a-coups, suite à des épisodes de réchauffement successifs, étalés sur de longues périodes, ce qui laisse penser que les mouvements de population des rives de la Mer Noire vers les plaines plus fertiles de la Mésopotamie, survenus vers 7500 avant J.-C., pourraient avoir été induites au moins davantage par une évolution démographique inéluctable que par un phénomène d’inondation brutale.

Un scénario qui demande sans doute à être confirmé et vraisemblablement affiné mais qui laisse songeur quand à ce qui peut nous attendre du fait du réchauffement climatique actuellement à l’oeuvre et qui lui est d’une rapidité jamais rencontrée dans l’histoire de la Terre. Quand on sait que la fin de cette glaciation, qui s’est traduite par une élévation du niveau des mers d’environ 130 m, ne résulte finalement que d’une augmentation moyenne de 4 °C de la température du globe, soit une valeur tout à fait comparable à ce que prédisent les scénarios du GIEC pour les décennies à venir, voila qui ne devrait pas manquer de nous inquiéter…

L.V.  

Vous reprendrez bien un peu de glyphosate ?

30 novembre 2017

« L’homme est un animal doué de raison », disait le philosophe Aristote. C’est parfois à se demander. Prenons l’affaire du glyphosate. Voilà un produit miracle, mis sous le marché en 1974 sous le doux nom de Roundup et qui a fait la fortune de la firme Monsanto, devenant en quelques années le pesticide le plus vendu au monde : pas moins de 800 000 tonnes par an dont plus de 10 000 tonnes rien qu’en France. Le brevet est tombé dans le domaine public en 2000 mais il continue à rapporter la bagatelle de 5 milliards de dollars chaque année à la firme Monsanto, désormais tombée dans l’escarcelle du géant allemand Bayer.

Les agriculteurs affiliés à la FNSEA ne jurent que par lui et considèrent qu’il est désormais impossible à l’agriculture française de se passer du glyphosate. Comme l’a affirmé Eric Thirouin, secrétaire général de la FNSEA à un journaliste du Monde, interdire l’utilisation de cet herbicide, reviendrait « à poser un boulet à l’agriculture française » et coûterait pas moins de 2 milliards d’euros à une filière nationale déjà bien mal en point. La raison d’un tel surcoût : il faudrait que les céréaliers en reviennent à la charrue et se remettent à labourer leurs terres, ce qui les obligerait « à augmenter leur consommation de gas oil et leurs émissions de CO2 ».

Un véritable scénario catastrophe qui laisse pantois. Certes, nous voilà partiellement rassurés, nos agriculteurs ne seront pas obligés d’en revenir pour autant à l’araire tirée par des bœufs, voire à la daba. Mais tout de même, de là à prétendre que le glyphosate est la meilleure arme qu’on ait trouvée pour protéger l’environnement et combattre le réchauffement climatique, voilà qui paraît un peu fort de café.

Pour labourer profond, il faut ce qu’il faut… (source : Massey-Fergusson)

On en vient même à se demander, lorsqu’on voit le nombre de tracteurs dernier cri, avec cabine insonorisée équipée de GPS, en train de tracer leurs sillons dans les plaines céréalières de la Beauce ou de la Brie, si certains ne seraient pas en train de pousser un peu loin le bouchon en voulant nous faire croire qu’on a arrêté depuis belle lurette de retourner les champs et que, grâce au glyphosate, tout la profession s’est convertie à la permaculture…

Voilà en tout cas une situation bien peu rationnelle en apparence. Alors qu’en Europe et singulièrement en France, la demande en produits issus de l’agriculture biologique explose, au point qu’on est obligé d’importer massivement pour y faire face, la majorité active (ou du moins la plus bruyante) de la profession agricole se bat pour conserver le droit d’utiliser des produits phytosanitaires dont l’effet sur les sols et sur l’environnement est catastrophique, avec pour principal argument que c’est le seul moyen pour produire à bas coût et répondre ainsi aux diktats de la grande distribution.

La filière agricole et le ministre de l’agriculture en tête, se sont ainsi bruyamment félicités de la décision honteuse prise le 27 novembre 2017 par les États membres de l’Union européenne à une large majorité de prolonger de 5 ans la licence d’exploitation du glyphosate malgré tous les risques qu’il représente non seulement pour l’environnement mais aussi pour la santé humaine puisqu’il est désormais considéré comme « cancérogène probable » suite à une étude publiée en mars 2015 par le Centre international de recherche contre le cancer qui dépend de l’OMS.

Un dessin de Deligne (source : Urtikan)

La déclassification en mars 2017 des fameux « Monsanto papers » indique d’ailleurs que la firme américaine a découvert ce pouvoir mutagène du glyphosate dès 1999 et a tout fait depuis, grâce à son réseau d’influence auprès d’experts internationaux reconnus, pour semer le doute à ce sujet et publier nombre de résultats d’études qui tendent à prouver le contraire pour renforcer sa position.

Voilà en tout cas qui montre, une fois de plus, à quel point il est difficile, sur des dossiers aussi complexes et qui comportent de tels enjeux économiques, de prendre des décisions qui seraient conformes à l’intérêt général. Difficile d’ailleurs de ne pas faire le parallèle avec le cas de l’amiante dont on connait les dangers depuis les années 1890 mais pour laquelle il a fallu attendre 1997 pour que son utilisation soit enfin interdite en France.

Monument dédié aux victimes de l’amiante à Condé-sur-Noireau

Les propriétés de ce matériau étaient telles qu’il a été massivement utilisé dans l’industrie et la construction, sous forme d’amiante-ciment, en renforcement des enrobés routiers, comme isolant thermique ou encore dans les garnitures de freins. Pendant des décennies, des générations entières d’ouvriers ont été exposées à l’inhalation de fibres d’amiante dont l’accumulation dans les poumons est la cause de cancer. Rien qu’en France, 6 500 cas de maladie professionnelle liée à l’amiante ont ainsi été reconnus pour la seule année 2005 et on considérait en 2015 que chaque année de l’ordre de 2 200 personnes développent un cancer du fait de l’amiante et que 1 700 personnes en meurent.

C’est en 1899 qu’a été constaté le premier décès imputé directement à l’amiante et en 1906 déjà un inspecteur du travail s’alarmait des nombreuses pathologies des ouvriers dans une filature de Condé-sur-Noireau, là même où en 1972 Ferrodo installera une usine de garnitures de frein dans laquelle plusieurs centaines d’ouvriers seront victimes d’exposition grave aux fibres d’amiante.

Bâtiments de l’ancienne mine d’amiante de Canari en Corse (photo © Gérard Baldocchi, Corse Matin)

Mais pendant très longtemps, les syndicats de travailleurs ont milité aux côté du lobby des entreprises de l’amiante pour lutter contre toute limitation de l’utilisation de ce produit considéré lui-aussi comme indispensable, de même que les Corses se sont battus pour conserver leur mine d’amiante à Canari ou que les élus locaux un peu partout se sont démenés pour maintenir en activité les usines Eternit comme à Port-de-Bouc où le site est désormais ornée d’un monument aux morts dédié aux victimes de l’amiante.

Travaux de désamiantage dans les locaux de l’université de Jussieu (source : EPAURIF)

Il a fallu pour que l’on cesse enfin d’utiliser ce produit nocif que l’on se rende compte que ce n’était pas seulement les professionnels qui étaient touchés mais la société toute entière. Alors qu’en 1994 six enseignants exposés à l’amiante dans un lycée de Gérarmer décèdent et qu’apparaissent les premières victimes sur le site de la faculté de Jussieu, l’inénarrable Claude Allègre, toujours aussi lucide, en est encore à railler, en 1996, « un phénomène de psychose collective ». C’est sans doute ce qu’il dirait aujourd’hui de la phobie du glyphosate, s’il avait conservé un minimum de crédibilité pour qu’on lui tende encore un micro…

En 2005, un rapport parlementaire faisait état de 35 000 morts dus à l’exposition à l’amiante en France entre 1965 et 1995 et de plusieurs milliers de décès supplémentaires attendus entre 2005 et 2030. Notons également que le Fonds d’indemnisation des victimes de l’amiante a déjà déboursé plus de 2 milliards d’euros en une dizaine d’années et que le désamiantage de la seule université de Jussieu a déjà coûté de l’ordre de 2 milliards d’euros également. De quoi largement relativiser les arguments de la FNSEA qui voudrait nous faire croire que, pour le glyphosate comme pour d’autres dossiers, la meilleure solution est encore de foncer dans le mur en fermant les yeux…

L.V. 

Ordures ménagères : faut-il vraiment trier ses déchets ?

28 novembre 2017

Ordures ménagères dans les rues de Marseille (photo © Robert Poulain, source Destimed)

Le traitement des ordures ménagères fait partie de ces dossiers complexes que les collectivités ont bien du mal à gérer. Leur volume ne cesse d’augmenter : chaque Français jette plus d’1 kg de déchet chaque jour, soit 573 kg par an, et cette quantité a doublé au cours des 40 dernières années ! Et les solutions techniques pour les traiter sont de plus en plus coûteuses.

Le simple enfouissement des ordures pose de sérieux problèmes environnementaux et tend à disparaître, sauf pour les déchets ultimes, dans des conditions très contrôlés, d’autant que plus personne n’accepte l’ouverture d’une décharge à côté de chez lui. Mais on enfouit encore près de 30 % de nos déchets, ce qui montre à quel point le recyclage reste largement à développer.

L’incinération, qui concerne désormais de l’ordre d’un tiers du traitement des déchets, crée également de sérieuses réticences de la part du voisinage et n’est rentable que pour de gros volumes. Le coût moyen de traitement des ordures par incinération, comme cela est pratiqué pour l’agglomération marseillaise, est évalué par l’ADEME à 121 € la tonne (en 2013) mais les coûts augmentent rapidement lorsque les volumes à traiter sont faibles, du fait des charges fixes élevées. Il existe actuellement en France plus de 125 unités d’incinération, dont la plupart (moins de 70 % en réalité) valorisent l’énergie produite (en alimentant des réseaux de chaleur).

Incinérateur d’ordures ménagères à Fos-sur-Mer (photo © Pierre Ratcliffe)

En France, on estime le volume global de déchets produits annuellement à 355 millions de tonnes dont l’essentiel provient des chantiers de construction (estimé à 250 Mt) et, dans une moindre part (6Mt environ) de l’activité économique industrielle. La part des ordures ménagères proprement dite représente de l’ordre de 17 Mt, à laquelle s’ajoute à peu près autant de déchets issus des artisans et commerçants et qui sont généralement collectés en même temps, ainsi que 4 Mt produits par les collectivités elles-mêmes, soit environ 38 millions de tonnes de déchets à traiter chaque année par les collectivités.

Décharge sauvage d’ordures ménagères sur le littoral méditerranéen (source © Ecologie Nature)

Voilà qui fait un volume considérable et qui coûte très cher à la société : de l’ordre de 10 milliards d’euros chaque année (dont la motié payée directement par les ménages via la taxe d’enlèvement des ordures ménagères) alors que ce montant n’était que de 3,5 milliards en 1990, à une période où les déchets étaient moins nombreux, plus facilement dégradables et surtout où l’on se contentait encore bien souvent de les entasser dans la nature dans de simples décharges, ce qui limitait les coûts à la collecte et au transport…

Une partie de ces déchets, déposés en déchetterie ou collectés en porte à porte via les poubelles jaunes peut être recyclée via différentes filières, pour l’essentiel largement subventionées car encore peu rentables économiquement. Mais près de la moitié de ce volume est constituée d’ordures ménagères et assimilées qui s’entassent dans nos poubelles grises et ne peut être facilement valorisée. Malgré toutes les campagnes de sensibilisation et d’information qui se multiplient depuis des années, le tri individuel des déchets n’est pas partout entré dans les mœurs et l’agglomération marseillaise fait partie des mauvais élèves.

On observe bien une amélioration globale du taux de recyclage qui dépasse désormais la barre des 60 % pour les emballages du programme Eco-emballage (mais plafonne encore en dessous de 45 % pour les emballages industriels…). Tous les immeubles collectifs sont loin d’être équipés pour la collecte sélective et les erreurs de tri sont telles que bien des containers collectés de la sorte s’avèrent inutilisables, d’autant que les règles de tri sont évolutives, plus complexes qu’il n’y paraît, et varient d’une collectivité à l’autre. En gros, seule une petite moitié des déchets recyclables fait l’objet d’un tri effectif à la source, via les dispositifs d’apport volontaire ou via la collecte sélective en porte à porte.

Plaquette pédagogique pour le tri des déchets, éditée par la société Eaux de Marseille

Face à ce constat, certains ont eu l’idée de mieux valoriser le tout venant issu de nos poubelles grises en procédant à leur tri de manière automatique. C’est le processus qu’a mis au point la société Vacher et qui est à l’œuvre depuis mi-2014 dans l’écopôle Altriom en Haute-Loire. A l’origine de cette initiative, un appel d’offre de la communauté d’agglomération du Puy-en-Velay, alliée avec la communauté de communes du Pays de Saugues et deux syndicats intercommunaux voisins de collecte et de traitement des ordures ménagères, celui des Monts du Forez et celui d’Emblavez-Meygal.

Ces colectivités se heurtaient depuis des années à l’impossibilité d’ouvrir un nouveau centre d’enfouissement des déchets. La solution proposée par le groupement consiste à trier les ordures ménagères en séparant de manière automatisée la matière organique d’une part (valorisée par compostage), et les emballages plastiques et métalliques ainsi que les papiers-cartons d’autre part, qui pourront ainsi être recyclés. Le reste, considéré pour l’essentiel comme combustible solide de récupération, est incinéré dans des fours de cimenteries locales, à l’exception d’une part de refus qui correspond grosso modo à 10 % du volume initial et qui, lui, doit effectivement être envoyé dans un centre d’enfouissement pour déchets ultimes. Tout le système repose sur un dispositif breveté très sophistiqué capable d’ouvrir les sacs de déchets et de traiter 20 tonnes par heure à raison de 21 heures par jour, avec plusieurs flux de valorisation, un bel outil technologique, pour un coût tout à fait compétitif puisqu’il est estimé entre 60 et 100 € la tonne !

Vue de l’usine Altriom au Puy-en-Velay (source Altriom)

Bien entendu, les concepteurs d’un tel système, pompeusement dénommé 3Wayste, le présentent comme révolutionnaire puisqu’il permettrait de valoriser 90 % des ordures ménagères entrantes alors que le système de collecte sélective en porte à porte, au Puy-en-Velay comme à Carnoux-en-Provence, ne dépasse guère les 16 %… A se demander d’ailleurs s’il est bien raisonnable de poursuivre cet effort de tri sélectif volontaire à la source auquel les Français semblent totalement rétifs quand on en voit les piètres résultats alors qu’il est en vigueur depuis des années et devrait désormais être entré dans les habitudes au vu de tous les efforts pédagogiques entrepris, y compris en milieu scolaire depuis le plus jeune âge

C’est d’ailleurs ce que préconise le directeur du centre Altriom qui envisage désormais de supprimer carrément la collecte sélective dans le centre-ville du Puy. Un choix statégique qui serait certainement vécu comme une incroyable reculade de la part de tous ceux qui se battent depuis des années pour que chaque citoyen prenne conscience qu’il doit être acteur de la gestion de son environnement et que réduire ses déchets en triant tout ce qui peut-être valorisé fait partie des gestes qui lui incombent en toute responsabilité… D’autant qu’en réalité le système revient à envoyer entre 38 et 46 % de ses flux de déchets entrants directement dans les fours de cimenterie.

Voilà en tout cas un beau débat de société en perspective !

L.V.  

Qui organise la pénurie de beurre ?

5 novembre 2017

Certains se souviennent peut-être encore de ce temps pas si lointain où les chambres froides de ce qui était encore la Commission économique européenne débordaient de beurre, stocké pour éviter que les cours de cette matière première ne s’effondrent. Le stockage avait commencé en 1964 afin de venir en aide aux agriculteurs européens alors en pleine surproduction et, en 1986, on avait atteint le volume incroyable de 1,28 millions de tonnes de beurre stockés dans les réserves de l’Europe.

Pour remédier à cet excédent structurel, des quotas laitiers ont fini par être instaurés en 1984 et, peu à peu, les « montagnes de beurre » ont commencé à se résorber. Il a quand même fallu près de 20 ans pour y parvenir et c’est en 2007 seulement qu’ont été écoulés les dernières 6000 tonnes de beurre encore stockés, pour l’essentiel d’origine espagnole à cette date. A l’époque, le prix du marché s’élevait à 2 400 € la tonne. Le système des quotas laitiers a été finalement abandonné en avril 2015 et depuis, c’est le marché mondial qui régit la commercialisation des produits laitiers sans aucun filet de sécurité.

Le résultat ne s’est pas fait attendre puisque dès 2016, le prix du lait payé au producteur est descendu en dessous du coût de production et le revenu moyen d’un éleveur en France aurait baissé de plus de 26 % entre 2015 et 2016 selon l’INSEE. Il ne reste déjà plus que 70 000 fermes laitières en France, un tiers d’entre elles ayant disparu au cours des 10 dernières années. Avec la fin des quotas laitiers qui fixaient des volumes plafond de production par pays, la production européenne a fortement augmenté, du fait principalement des grosses fermes industrielles du nord de l’Europe, ce qui tire les prix à la baisse et étrangle les derniers éleveurs laitiers encore en activité en France.

Manège de traite à la ferme industrielle dite des 1000 vaches, à Ducrat, près d’Abbeville dans la Somme (source © La Voix du Nord)

Et l’on apprend désormais que le beurre, qui jadis encombrait les frigos de Bruxelles, est devenue une denrée rare. Les rayons des supermarchés se vident et les boulangers industriels qui en sont de gros consommateurs (sachant qu’un croissant est composé à 50 % de beurre…) se retrouvent en chômage partiel faute de matière première. Le prix du beurre est ainsi passé en dix-huit mois de 2 500 à 6 500 € la tonne : un bond spectaculaire et qui pourrait encore se poursuivre. Mais comment a t-on bien pu en arriver là ? Le Marché aurait-il perdu la main, sa fameuse « main invisible » si chère aux économistes libéraux ?

Vache de race Prim’Holstein

On pourrait d’abord s’étonner que les cours du lait soient au plus bas alors que ceux du beurre, qui en dérivent directement n’ont jamais atteint de tels sommets. Certains invoquent des raisons techniques liées non pas à une météo qui aurait été défavorable à la production laitière comme certains le prétendent, mais qui découlent effectivement d’une politique menée depuis des années par la filière : en France, plus des deux-tiers du cheptel laitier sont constitués de Prim’Holstein, ces vaches laitières qui constituent l’essentiel des troupeaux européens et qui fournissent jusqu’à 10 000 litres de lait par tête et par an. Depuis des décennies, les chercheurs de l’INRA comme leurs collègues européens ont orienté la sélection de cette race dans le seul but de produire davantage de lait et moins de matière grasse. Or, sans matière grasse dans le lait, il est plus difficile de faire du beurre : il faut en moyenne 22 l de lait pour produire un kg de beurre, mais cela peut varier fortement sachant qu’un litre de lait contient selon les cas entre 35 et 45 g/l de matière grasse.

Couverture du Time de 2014 vantant les mérites du beurre

Or la consommation mondiale de beurre est désormais en hausse. Avec 8 kg par an et par habitant, la France se place au premier rangs des gros consommateurs, mais la demande est en train d’exploser dans d’autres pays, notamment asiatiques où l’on commence à prendre goût aux viennoiseries. Même aux USA, les diététiciens sont en train de revenir sur leur jugement très négatif concernant la consommation des corps gras en général et du beurre en particulier, ainsi que l’a rappelé le Time à sa Une en 2014.

Dans ce supermarché Cora, des rayons de beurre quasi vide (photo © Aurélien Laudy pour l’Union)

Beurre dans la baratte (source © Agrilait)

Mais la pénurie de beurre ne frappe curieusement que la France. Or la production de beurre français est plutôt en croissance, avec un volume global de 368 000 tonnes produit en 2015 contre 341 000 en 2010. Notre pays est actuellement le 6ème producteur mondial de beurre et le 2ème en Europe derrière l’Allemagne. De 2006 à 2010, la production mondiale de beurre a ainsi augmenté de 14 % et dépasse actuellement les 10 millions de tonnes, le premier producteur étant désormais l’Inde. Mais le géant de la production laitière est la Nouvelle-Zélande qui produit pas moins de 27 % du lait mondial, exporté principalement sous forme de poudre de lait. D’ailleurs, la France importe chaque année deux fois plus de beurre qu’elle n’en exporte, et sa principale source d’approvisionnement est justement la Nouvelle-Zélande.

Un dessin de Na !

En réalité, on se retrouve confrontés à deux phénomènes qui se surimposent. Le premier est un mouvement de fond, d’ampleur mondial et qui reflète une demande accrue de beurre, du fait de l’émergence de nouveaux marchés, notamment en Chine, alors même que la production de beurre a été volontairement freinée depuis des années parce que les consommateurs s’étaient orientés plutôt, pour des raisons diététiques, vers la consommation d’huiles végétales et de margarines. Ce mouvement de fond explique donc que les prix mondiaux du beurre soient en forte hausse, alors que ceux du lait n’augmentent que de manière modérée, du fait des stocks importants de poudre de lait encore disponibles, en particulier en Europe qui a en réserve plus de 350 000 tonnes, de quoi peser significativement sur les cours mondiaux.

A cela vient s’ajouter un élément conjoncturel spécifiquement français. On se souvient qu’en 2016, à l’issue d’une crise agricole comme la France en connaît régulièrement, le principal industriel du secteur, Lactalis, avait accepté de payer un peu plus cher le lait, à 290 € la tonne, ce qui lui permettait de s’aligner sur le prix des autres acteurs (Bongrain, SODIAAL ou Danone) tout en restant très en deçà des coûts réels de production que la profession agricole évalue entre 330 et 380 € la tonne selon les exploitations.

Mais en France, ce sont les 4 centrales d’achat de la grande distribution (Intermarché/Casino, Carrefour/Dia, Auchan/Système U et Leclerc) qui font la pluie et le beau temps en matière de fixation des prix des produits alimentaires. Les négociations avec les producteurs et les industriels de l’agro-alimentaire ont lieu une fois par an et la grande distribution s’y emploie à imposer à ses fournisseurs les prix les plus bas.

C’est la raison pour laquelle, le prix du beurre en grande surface n’a jusqu’à ce jour quasiment pas augmenté, contrairement à ce qu’on observe en Allemagne par exemple où le prix de la plaquette de beurre a plus que doublé. Comme vient de le reconnaître, après une semaine de tergiversations, le ministre de l’agriculture et de l’alimentation, Stéphane Travert, la pénurie de beurre dans les rayons des magasins s’explique en réalité principalement par un nouveau bras de fer entre industriels et géants de la grande distribution.

Faute de pouvoir vendre leur beurre en France à un prix rémunérateur, les acteurs de la filière préfèrent donc l’exporter, tout simplement. Bienvenue dans le monde de la mondialisation heureuse !

L.V.  

Glyphosate, ou comment s’en débarrasser ?

7 octobre 2017

Le glyphosate est sur la sellette : d’ici la fin de l’année, et du fait de ses tergiversations antérieures, l’Union européenne va devoir prendre la décision difficile de prolonger ou non de 10 ans l’autorisation d’utiliser cette molécule qui est le désherbant le plus vendu dans le monde. Pour les tenants de l’agriculture intensive, FNSEA en tête, il n’y a pas le moindre doute à avoir : sans cette molécule magique, il n’y a plus d’agriculture possible et aucun espoir d’arriver à nourrir durablement les habitants de la planète.

Face à des arguments aussi tranchés, et comme pour d’autres sujets similaires dont celui des insecticides à base de néonicotinoïdes, le débat n’est pas aisé, d’autant que l’on s’étripe également sur la dangerosité réelle ou supposée du produit. Le Centre international de recherche sur le cancer l’a classé cancérigène, sur la base de ses propres études scientifiques, à rebours des différents avis abondamment rendus jusque là mais dont on sait maintenant, via les fuites des fameux Monsanto papers, qu’ils étaient en réalité téléguidés par la propagande de la firme Monsanto elle-même, rachetée en 2016 par Bayer.

Epandage de pesticides sur un champ en mai 2016 près de Lille (photo Denis Charlet AFP)

Mise sur le marché en 1974 sous le nom de Roundup, la molécule de glyphosate a fait la fortune de Monsanto qui en a exploité le brevet jusqu’en 2000 et continue à engranger 5 milliards de dollars par an avec ce seul produit. Tombé depuis dans le domaine public, il entre désormais dans la fabrication de pas moins de 750 produits commerciaux diffusés dans le monde par de nombreuses firmes dont d’autres géants de l’agrochimie comme Syngenta, Bayer ou Dow Chemical. Plus de 800 000 tonnes de glyphosate sont ainsi produites chaque année, dont 10 000 t vendues rien qu’en France. Une véritable manne commerciale qui va de pair avec le développement incroyable des OGM qui s’est fait en parallèle, 83 % du soja produit dans le monde étant maintenant issu de variétés OGM.

Si le glyphosate connaît un tel succès, c’est qu’il présente de nombreux atouts : faible coût, forte efficacité et grande souplesse d’utilisation. Ce désherbant agit sur les feuilles des plantes qu’il fait mourir de manière très sélective, surtout lorsqu’il est associé à des semences OGM porteuses d’un gène résistant. Il se dégrade rapidement dans le sol et n’a donc pas d’impact sur la culture suivante, ce qui autorise des rotations rapides. Une application au pied des arbres fruitiers permet de détruire toutes les adventices sans dommage pour la culture principale. Bien servies par une politique commerciale agressive, ces qualités expliquent que le glyphosate soit devenu en quelques années l’herbicide le plus utilisé dans le monde, à la fois pour le désherbage agricole et pour l’entretien des espaces urbains et industriels, même si en France, l’usage de produits phytosanitaires est désormais en voie d’interdiction pour les collectivités d’ici le 1er janvier 2020.

Les effets induits indésirables des produits phytosanitaires en général et du Roundup en particulier sont pourtant parfaitement identifiés. Outre le risque sanitaire liés à sa manipulation et même si son effet cancérigène reste controversé par certains, nul ne peut nier que l’utilisation massive de tels produits dans l’agriculture s’est traduite par de nombreux impacts négatifs : appauvrissement des sols, destruction de nombreuses espèces animales utiles, pollution durable des cours d’eau et des nappes phréatiques, généralisation des phénomènes de résistance des parasites aux traitements chimiques, accumulation de résidus de pesticides dans les aliments, etc. A cela s’ajoute le constat d’une dépendance croissante des agriculteurs envers les firmes chimiques qui les approvisionnent en produits de traitement et en semences, et envers les conseillers agricoles devenus indispensables pour prescrire les modalités optimales d’utilisation de ces produits.

Dans ces conditions, on peut légitimement se demander, comme l’a fait récemment Franck Aggeri, professeur de management à Mines ParisTech, dans un article publié dans Alternatives économiques, si l’agriculture mondiale est en mesure de se passer des produits phytosanitaires. L’échec patent du programme Ecophyto, instauré à la suite du Grenelle de l’Environnement illustre bien la difficulté : alors que les agriculteurs français s’étaient engagés à diviser par deux l’utilisation des pesticides entre 2008 et 2018, un bilan à mi-parcours avait montré que les quantités utilisés avaient en réalité augmenté de 5 % et même de 9,2 % entre 2012 et 2013 ! Les tenants de l’agriculture intensive chimique affirment qu’il n’y a pas d’autres alternatives et que l’agriculture biologique n’est pas en mesure de fournir des rendements suffisants pour répondre à la demande mondiale.

Bruno Parmentier (photo © Jérôme Chatin)

Pourtant, comme le rappelle Franck Aggeri, de nombreuses solutions existent comme cela a été démontré encore récemment à l’occasion d’un colloque qui s’est tenu en janvier 2017 à l’initiative de l’Association internationale pour une agriculture écologiquement intensive et intitulé : « Comment produire avec moins ou sans herbicides, en particulier glyphosates ? ». Il s’agit, comme l’explique notamment Bruno Parmentier, ingénieur des Mines et ancien directeur de l’Ecole supérieure d’agriculture d’Angers, dans une publication très documentée, de mettre en œuvre une variété de stratégies complémentaires : rotation des cultures, utilisation de techniques sous couvert végétal pour étouffer les mauvaises herbes, utilisation de bio-invaseurs, reconstitution des haies, désherbage mécanique sélectif, etc.

Semailles et labours au pied du Château de Lusignan (source : enluminure des Frères de Limbourg vers 1440 – Les très riches heures du Duc de Berry)

La « mauvaise herbe » a toujours été l’ennemie du paysan. Depuis le Néolithique, on a tout essayé pour s’en débarrasser. Le brûlis après la récolte est une arme relativement efficace car elle permet de les détruire au moins momentanément, mais la méthode présente de nombreux inconvénients et est d’ailleurs désormais interdite en Europe car elle diminue la fertilité des sols en entraînant des pertes de carbone et d’azote, provoque une pollution atmosphérique et l’émission de gaz à effet de serre, tout en aggravant le risque d’incendie. Une autre approche consiste à enfouir les adventices via le labour, une technique très largement développée, surtout depuis la mécanisation de l’agriculture. Mais on constate de plus en plus que le labour profond autorisé par des tracteurs de plus en plus puissants, non seulement n’empêche pas les repousses, mais il détruit les vers de terre qui sont pourtant de très efficaces auxilliaires de l’agriculteur, fait remonter les cailloux en surface, tasse la terre en profondeur et augmente les phénomènes d’érosion et de battance des sols. Comme toujours, le mieux est l’ennemi de bien et l’on dépense ainsi beaucoup d’énergie fossile pour faire tourner des engins agricoles avec des effets induits potentiellement négatifs.

C’est dire donc si le développement des herbicides chimiques a été accueilli comme une véritable révolution par les agriculteurs, puisqu’il permet de détruire les adventices de manière simple et rapide. Mais comme toujours, les incidences négatives sont apparues à l’usage, la plus importante, aux yeux de la profession agricole, étant peut-être une perte progressive d’efficacité au fur et à mesure que les végétaux développent des résistance aux produits phytosanitaires utilisés… Quelles alternatives alors peut-on envisager ?

Synergie entre colza et couvert de légumineuse, permettant de réduire les doses d’azote et de maîtriser les adventices (photo © Terre-net Média)

La bonne nouvelle, contrairement à ce que prétendent les tenants du productivisme à tout crin, c’est qu’il existe de très nombreuses solutions pour gérer les adventices même sans Roundup ! On peut jouer sur les calendriers de culture en faisant se succéder des plantes à cycles de vie variés, avec par exemple certaines qui seront récoltées avant la montée des graines des adventices ou d’autres qui, au contraire vont se développer rapidement et étouffent les concurrentes. On peut aussi bloquer le développement des mauvaises herbes en les empêchant de croître, soit par du paillage, végétal ou minéral, soit par la mise en place de plantes de couverture ou de cultures dérobées. On peut également exploiter les propriétés de certaines plantes qui résistent à la concurrence en produisant naturellement des molécules toxiques, voire exploiter certains herbicides naturels à base de géranium, de vinaigre blanc, d’huile de lin ou d’autres produits biologiques qui émergent peu à peu maintenant que les chercheurs commencent à s’y intéresser.

Canards dans une rizière au Japon

Certains comme en Chine ont même développé des moyens de lutte ancestraux très efficaces comme les canards qu’on lâche dans les rizières pour les désherber car ils mangent tout sauf les pousses de riz… Des rotations plus espacées entre cultures et prairies s’avèrent également très efficaces car le pâturage réalisé entre deux cultures céréalières, sur des durées de 4 à 5 ans, permet de fertiliser le sol mais aussi de le débarrasser des adventices les plus gênantes. De nombreuses autres solutions sont envisageables, sans oublier les techniques de désherbage mécanique, thermique, ou via des robots : moyennant un peu d’imagination et beaucoup d’expérience, tout est possible pourvu qu’on ne se bride pas…

La mauvaise nouvelle pour les technocrates de la FNSEA et de la plupart des Chambres d’agriculture, qui se sont persuadés depuis des années que l’agriculture n’était qu’une activité industrielle comme une autre où l’essentiel est de concentrer les terres, les capitaux et les investissements entre les mains de quelques uns, c’est que cette nouvelle agriculture du futur sera plus complexe, plus variée et plus morcelée. Chacun devra se forger sa propre expertise pour adapter les solutions techniques à son terroir et à son mode de production, comme des générations de paysans l’ont toujours fait, sans se contenter d’appliquer les recettes du technicien de l’industrie agrochimique. C’est donc bien d’une véritable révolution culturelle dont il s’agit, qui demande d’être accompagnée par toute la société et qui ne pourra réussir que si les consommateurs eux-mêmes se mobilisent pour susciter une volonté politique forte : ce n’est pas gagné d’avance, mais ça vaut le coup d’essayer…

L.V.  

JO de Paris : quelles retombées économiques ?

24 septembre 2017

C’est la grande nouvelle du mois : les jeux olympiques d’été se dérouleront bien à Paris en 2024, 100 ans tout juste après que la ville-lumière a accueilli ses dernières olympiades, en 1924, sous la pression du baron Pierre de Coubertin. Le tuyau était percé depuis un bon moment déjà puisqu’il n’y avait plus d’autres candidats en lice, ce qui n’a pas empêché les médias nationaux d’en faire des tonnes à l’annonce de la décision officielle, le 13 septembre dernier.

Bien sûr, tout le monde met en avant la renommée internationale formidable qui rejaillira de cet événement d’ampleur mondiale, et surtout l’impact économique qui devrait en découler. Sur ce dernier point, l’acteur qui fait référence en la matière est le Centre de droit et d’économie du sport (CDES), une structure associative rattachée à la faculté de Limoges, spécialisée dans la formation d’encadrants sportifs mais qui se targue surtout de réaliser les études d’impact des grandes manifestations sportives, histoire d’en justifier l’intérêt a priori.

Comme pour chaque événement sportif majeur, le CDES a fait tourner ses calculatrices et estime que les retombées économiques à attendre s’élèveront au minimum à 5,3 milliards d’euros et pourraient même atteindre 10,7 milliards d’euros selon le scénario le plus optimiste. Une partie de ces retombées économiques bénéficierait au secteur du BTP, mais un tiers irait aux professionnels du tourisme et la plus grosse part du gâteau devrait tomber dans l’escarcelle des partenaires en charge de l’organisation. On évoque la création de 119 000 emplois dans les domaines du BTP, du tourisme et de l’événementiel, et on estime les rentrées fiscales à près de 250 millions d’euros pour la seule quinzaine que dureront les jeux.

Tony Estanguet, co-président de Paris 2024, s’offre un selfie avec des inspecteurs du CIO et une partie du comité parisien, au Stade de France, le 15 mai 2017 (crédit photo © Franck Fife / AFP)

Bref, le tableau paraît idyllique ! A se demander même pourquoi on n’organise pas des JO chaque année s’il s’agit de la recette idéale pour booster une économie atone…

Sauf que la réalité paraît assez éloignée de ces analyses pour le moins optimistes, comme le rappelle notamment Pierre Rondeau, professeur d’économie à l’Université Panthéon-Sorbonne et spécialiste de la sociologie du sport, dans un article publié par le site The Conversation. Force est en effet de constater que les grands événements sportifs internationaux, s’ils flattent l’ego des pays organisateurs et contribuent à en augmenter leur notoriété, « n’ont pratiquement jamais rapporté d’argent, n’ont jamais vraiment été bénéficiaires et n’ont jamais soutenu l’emploi durable »…

L’arc de triomphe aux couleurs des JO de 2024 (crédit photo © Benoit Tessier / Reuters)

Les études d’impact oublient en effet généralement un facteur important que constituent les effets de substitution et d’éviction. En d’autres termes, les grandes manifestations sportives attirent certes un public spécifique mais font fuir le public habituel ! Ainsi en 2016, la fréquentation touristique du Brésil n’a pas connu de rebond significatif car le pays est déjà le plus touristique d’Amérique du Sud : les touristes habituels ont largement évité de s’y rendre pendant la période des JO, laissant la place à un public de supporters et de fans de sport. Il s’est passé la même chose pendant la Coupe du monde de football organisée en France en 1998, année au cours de laquelle le nombre de touristes reçus a été exactement identique qu’en 1997 ou 1999, avec simplement une différence de motivation, les visiteurs s’agglutinant davantage au Stade de France qu’au Musée du Louvre…

A cela s’ajoute souvent une réelle difficulté à tenir les budgets souvent très optimistes prévus pour l’organisation de tels événements. Un économiste, Wladimir Andreff, a ainsi montré que depuis les JO de 1968, le taux de dépassement des budgets est en moyenne de 167 % ! A Pékin par exemple, pour les JO de 2008, dans un pays pourtant réputé pour sa capacité de planification, il a atteint 1130 %. A Londres, en 2012, le budget prévisionnel était établi à 4,6 milliards d’euros mais les JO ont finalement coûté 11 milliards (voire 15 selon certaines sources) et les retombées économiques se sont limitées à 1,72 milliards alors qu’elles avaient été estimées à 12 milliards : un cruel fiasco financier pour le pays…

Dessin publié dans Un dessin par jour

Pour les futurs JO de Paris, le budget prévisionnel annoncé à ce jour par le comité organisateur s’élève à 6,5 miliards d’euros. Une petite moitié sera consacrée à la construction des infrastructures nécessaires. Même si la grand stade est déjà disponible, il faudra quand même compter au moins 1 milliard pour remettre au goût du jour le Stade de France et construire une piscine olympique, auquel il conviendra d’ajouter près de 2 miliards pour l’édification du village olympique et du centre d’accueil des médias. Ce budget d’investissement sera pris en charge pour moitié au moins par des fonds publics, provenant principalement de l’État mais aussi des différentes collectivites territoriales concernées (dont 145 millions d’euros pour la ville de Paris et autant pour la Région Ile-de-France).

La préparation des JO 2024 : une stratégie de longue haleine qui mérite bien quelques sacrifices (dessin de Deligne publié dans Urtikan)

Le reste du budget, déjà réévalué de 3,2 à 3,6 milliards d’euros est destiné au Comité d’organisation des jeux et sera financé en partie par le CIO et en partie par des sponsors et des investisseurs privé. Quant aux recettes issues de la billetterie, leur apport restera relativement modeste, évalué en première approche à 1,1 milliards d’euros, sur la base d’une hypothèse de remplissage des stades à 88 % pour les épreuves olympiques et à 75 % pour les jeux paraolympiques, avec une volonté affichée d’offrir la moitié des places à un prix abordable inférieur à 50 €.

Un dessin de Mutio publié sur le site Urtikan

Alors, les JO à Paris, une bonne opération ou un gouffre financier en perspective ? La maire de Paris, Anne Hidalgo, n’est pas spécialement optimiste à ce sujet, elle qui prévenait en février 2015 que : « les jeux, c’est très joli, mais il n’y a pas une ville qui s’y soit retrouvée sur le plan financier »…

Le géographe Loïc Ravenel, responsable du Centre international d’économie du sport, ne dit pas autre chose en affirmant dans le magazine Alternatives économiques : « cette histoire de retombées économiques, c’est de l’enfumage. Assumons qu’à ce niveau de sport-spectacle, ça ne rapporte pas. Aujourd’hui, on accepte que la culture soit déficitaire parce qu’on estime que c’est important pour une société. Reconnaissons qu’on veut organiser une grande compétition sportive pour des questions d’image, de fête populaire, mais arrêtons de vouloir le justifier économiquement ».

Voilà qui a au moins le mérite d’être clair ! Quand on aime, on ne compte pas… Et tant pis pour les contribuables qui devront bien payer la note mais qui auront au moins passé un bon moment devant leur petit écran !

L.V.