Archive for the ‘Economie’ Category

L’histoire du vélo en 3 coups de pédale

16 juillet 2018

Draisienne en bois à Paris en 1818 (source : Wikipedia)

Alors que l’édition 2018 du Tour de France s’est élancée le 7 juillet depuis l’île de Noirmoutier et devrait rallier les Champs Elysées le 29 juillet, un petit retropédalage s’impose car ce moyen de transport a connu bien des évolutions depuis l’invention en 1817 par le baron allemand Karl Drais von Sauerbronn de ce qui restera en France sous le nom de draisienne mais sera commercialisée sous le vocable de « vélocipède » tandis que les Anglais lui donneront le joli nom de hobby horse, autrement dit « cheval de loisir ».

Car à l’époque, l’idée est bien de créer un substitut au cheval plus simple et moins contraignant à entretenir et à utiliser en ville. Le dispositif est entièrement en bois, constitué de deux roues cerclées de fer, d’une poutre sur laquelle on s’assoit à califourchon avant de la pourvoir d’une selle, et d’un timon servant de guidon. La propulsion se fait par simple poussée des pieds sur le sol mais permet, moyennant un bon entrainement, de parcourir une quinzaine de kilomètres en une heure.

Le système amuse les dandys de l’époque mais reste assez confidentiel jusqu’en 1861 lorsqu’un serrurier parisien, Pierre Michaux, à qui on apporte une draisienne à retaper, a l’idée de fixer sur l’axe de la roue avant des pièces coudées qui peuvent servir de repose-pieds : il vient d’inventer la pédale !

Grand bi de course en 1884 (source : Archives départementales des Yvelines)

Dès lors que les pédales sont fixées directement sur le moyeu de la roue avant, il convient d’augmenter le diamètre de cette roue motrice pour lui permettre de parcourir le maximum de distance à chaque tour de pédale, tandis que la roue arrière, qui ne sert que de stabilisateur, voit son diamètre progressivement réduit : cette démarche conduira à la réalisation du Grand bi dans les années 1870…

Vers 1875, le Français Jules Truffaut apporte des améliorations décisives en fabriquant des Grands Bi avec jantes et fourche allégées en acier creux, tout en remplaçant les rayons des roues par des tiges métalliques en tension. Mais à partir des années 1880, c’est d’Angleterre que viennent les inventions décisives avec la mise en point d’un pédalier central avec transmission du mouvement par chaîne à la roue arrière, tandis qu’en 1888, Dunlop invente la chambre à air en forme de tube.

Publicité pour des vélos fabriqués par la firme Peugeot (source : blog Mandeure)

Viennent ensuite la mise au point, par Michelin, du pneu démontable puis celle du dérailleur qui fait l’objet de très nombreuses adaptations diverses et variées : en matière d’invention, celle du vélo procède donc par avancées successives, une belle œuvre collaborative ! Dès lors, le vélo moderne est né et il est à la base du développement de toute une fabrication industrielle. En France, Peugeot lance sa production de bicyclettes à Sochaux en 1886, alors que vient de se créer à Saint-Etienne la Manufacture française d’armes et cycles, futur Manufrance, qui lance de son côté la commercialisation des fameuses Hirondelles qui équiperont la police…

A la fin du XIXe siècle, le vélo reste un produit de luxe, destiné surtout à une classe aisée qui s’en sert comme instrument de loisir et va parader avec dans le Bois de Boulogne. Mais ce moyen de transport se démocratise rapidement et en 1914 on dénombre déjà 3,5 millions de propriétaires s’acquittant de la taxe instaurée en 1893 et qui perdurera jusqu’en 1959.

La dimension sportive du vélo contribue fortement à son succès populaire avec le premier Tour de France organisé dès 1903 et la construction de nombreux vélodromes dont celui de Paris, le fameux Vel d’Hiv, qui ouvre ses portes en 1910, 27 ans avant le stade Vélodrome de Marseille, qui accueille lui aussi, comme son nom l’indique, de nombreuses courses cyclistes à ses débuts.

Coureurs sur le Tour de France 1930 (source : Histoire Villennes)

Progressivement, les classes aisées abandonnent le vélo pour l’automobile en plein essor entre les deux guerres, tandis que la bicyclette devient le moyen de transport quotidien fortement utilisé par des générations d’ouvriers. Dans les années 1920, on décrit ainsi de véritables embouteillages de cyclistes aux abords des grandes usines de la région parisienne aux heures d’entrées et de sortie, à l’image de ce qu’on observe désormais dans de nombreux pays asiatiques aux heures de pointe. Les métiers à vélo se multiplient, les artisans utilisant le triporteur pour charrier leur marchandise. A la campagne, le curé comme le garde-champêtre se déplacent en vélo et en compte en 1939 de l’ordre de 9 millions de vélo en France contre seulement 2,4 millions de voitures.

Vélos garés pour la fête du Parti communiste en 1936 à Garches (source : Ciné-archives)

A partir des années 1950 cependant, l’utilisation de la bicyclette commence à péricliter au profit des deux-roues motorisées (dont le fameux Solex, ou les mobylettes Motobécane ou Peugeot). Et il va falloir attendre 1976 pour que le vélo refasse une timide apparition comme moyen de transport, avec la première expérience de vélos en libre-service initiée par le maire visionnaire de La Rochelle, Michel Crépeau. Depuis une dizaine d’années (l’introduction des Vélo’v de Jean-Claude Decaux dans la métropole lyonnaise date de 2005), la pratique du vélo en ville regagne nettement du terrain. A Strasbourg, 16 % des habitants déclaraient en 2015 utiliser le vélo comme moyen de transport habituel et cette proportion dépasse 15 % à Grenoble et 11 % à Bordeaux, les grandes agglomérations françaises pionnières en la matière.

Cyclistes urbains dans les rues de Lille (source : Citycle)

Va-t-on assister à un retour de la bicyclette comme moyen de transport populaire ? On n’en prend pas encore le chemin alors que toutes les enquêtes montrent que l’usage du vélo pour les déplacements du quotidien est plutôt le fait des populations urbaines aisées. Instrument ordinaire de l’ouvrier et du paysan dans les années 1930, le vélo est devenu l’apanage des Bobos urbanisés, soucieux de la préservation de l’environnement et de l’entretien de leur corps via une activité physique régulière. A quand une nouvelle démocratisation de ce moyen de transport dans nos métropoles où la voiture n’est manifestement plus adaptée ?

L. V.

 

A lire : Le retour de la bicyclette. Une histoire des déplacements urbains en Europe de 1817 à 2050, par Frédéric Héran, éd. La Découverte, 2014

Publicités

La Grèce toujours sous surveillance ?

12 juillet 2018

La Grèce va-t-elle enfin sortir la tête de l’eau après 8 années de réformes brutales et de politiques de rigueur imposées, bien malgré elle, par la Commission européenne et le FMI ? C’est en tout cas ce qu’ont claironné la plupart des médias à l’issue de l’accord qui a été trouvé le vendredi 22 juin aux petites heures du matin après 6 heures d’âpres négociations.

Alexis Tsipras et Jean-Claude Juncker en 2015 (photo ©AFP)

Le premier ministre Alexis Tsipras avait promis qu’il s’astreindrait à porter une cravate si un accord était trouvé sur la gestion de la dette grecque : c’est désormais chose faite et il va donc devoir en tirer les conséquences vestimentaires qui s’imposent à lui… Au vu de cet accord et selon le Courrier international, le journal grec de gauche Efimerida ton Syntakon, a en effet titré « Un bol d’air pour la dette », estimant que « La Grèce tourne la page, elle va retrouver sa souveraineté budgétaire et a obtenu un délai de dix ans pour rembourser les échéances de la dette arrivant à maturité. C’est une étape déterminante qui montre que la dette sera bientôt supportable ».

Une tutelle du FMI difficile à supporter par les Grecs (dessin signé Ysope)

Après neuf années de récession, la Grèce renoue effectivement avec une amorce timide de croissance, ce qui a permis aux nombreux médecins orthodoxes européens qui se penchaient sur son cas de réduire un peu la posologie du traitement de cheval qu’ils administraient. La Grèce a ainsi obtenu un délai de grâce de 10 ans pour commencer à rembourser une partie des prêts qui lui ont été accordés et elle recevra prochainement une toute dernière tranche d’aide pour un montant de 15 milliards d’euros dont 5,5 destinés à assurer le service de la dette, le reste permettant de constituer un « matelas financier » destiner à accompagner en douceur la sortie du programme d’ajustement structurel.

Finie donc, à compter du 20 août prochain, la mise sous tutelle de la Grèce qui avait dû l’accepter, contre son gré et malgré les véhémentes protestations de son ex ministre des finances, Yanis Varoufakis, lequel avait démissionné bruyamment du gouvernement au lendemain du référendum du 6 juillet 2015. La Grèce serait donc sauvée aux yeux de la plupart des analystes européens…

Une crise qui laisse de lourdes traces (dessin signé Lasserpe repris dans Les crises)

Dans quel état cependant ? Le taux d’endettement de la Grèce reste le plus élevé de tous les pays de la zone européenne, représentant 180 % de son PIB, et continue de croître d’année en année : passé de 109 % en 2008, lors du déclenchement de la crise grecque, il atteignait 172 % en 2011 au moment où le pays a dû de nouveau faire appel aux créancier du FMI et de l’UE, et 177 % l’an dernier…

Socialement, la Grèce reste bien mal en point. Il semblerait que le taux de chômage ait effectivement commencé à baisser depuis 2013, après avoir atteint des sommets effrayants : il était passé de 7,4 % de la population active en juillet 2008 à 27,9 % cinq ans plus tard, atteignant même 59,6 % chez les jeunes de moins de 25 ans. Depuis, le taux de chômage a diminué mais il reste supérieur à 20 %, le plus élevé de toute l’Union européenne, et encore au-dessus de 40 % pour les jeunes qui continuent de s’exiler massivement. Avec plus de 1 millions de chômeurs pour une population totale qui n’atteint pas les 11 millions d’habitants, la Grèce détient un bien peu enviable record !

Un plan d’austérité impitoyable (dessin signé Deligne)

Entre 2008 et 2013, les salaires ont baissé en moyenne de 32 % et le pouvoir d’achat a subi une érosion sans précédent de 40 %. Les retraités grecs ont subi leur 11ème réforme des retraites, se traduisant toujours par des baisses de revenus, et le nombre de fonctionnaires a été diminué d’un tiers. La plupart des biens de l’État ont été privatisés, même le port du Pirée ayant été refourgué aux Chinois. Les impôts et taxes ont subi des hausses successives spectaculaires.

Heureusement, il reste le tourisme… (dessin signé Chapatte)

Mais à part ça, tout va bien, comme s’en sont bruyamment félicité la plupart des dirigeants européens, notre ministre des finances, Bruno Le Maire en tête, estimant « que le problème de la dette grecque est désormais derrière nous ». De fait, le taux de croissance en Grèce a atteint 1,4 % en 2017 tandis que le budget grec affiche pour cette même année et pour la première fois depuis bien longtemps, un léger excédent de 0,8 % alors qu’il était en déficit de 15,1 % en 2009.

Un plan de sauvetage (légèrement) intéressé (dessin signé Mix & Remix)

La Grèce est donc officiellement guérie et va retrouver l’insigne privilège de pouvoir librement emprunter sur les marchés financiers mondiaux comme tout pays souverain qui se respecte…Le commissaire européen Pierre Moscovici l’a d’ailleurs clairement explicité en précisant bien qu’il serait désormais « indécent » d’imposer aux dirigeants grecs un dispositif « tatillon et intrusif ».

Pour autant, il a quand même cru bon d’indiquer, à toutes fins utiles, que l’Union européenne devra « s’assurer que les réformes sont mises en œuvre et que les politiques budgétaires continuent d’être saines ». Ce à quoi le Néerlandais Hans Vijibrief, tout nouveau président du Groupe de travail de l’Eurogroupe, a précisé que les responsables grecs devaient rester « stables politiquement et éviter de remettre en cause les réformes agréées ».

Au moins le message est clair : la Grèce vient de retrouver sa souveraineté économique et budgétaire mais reste pour le moins sous surveillance : pas question de refaire des bêtises…

L. V. 

Bilan énergétique mondial : le rapport qui fait honte !

8 juillet 2018

La société de conseil et d’études Enerdata, créée en 1986 à Grenoble et spécialisée dans l’analyse des données mondiales de consommation et de production énergétique, vient de publier son dernier bilan énergétique mondial, sous le titre peu rassurant « Un pas en arrière dans la transition énergétique ? »

Un titre un rien provocateur, deux ans et demi après la COP 21 qui s’était tenue à Paris en décembre 2015 et qui avait débouché sur un accord, présenté à l’époque comme historique et de nature à contenir la hausse du réchauffement climatique mondial d’ici 2100 dans la limite des 2°C. La France venait tout juste d’adopter sa « loi de transition énergétique pour la croissance verte », un bel oxymore pour nombre d’écologistes considérant qu’il faudrait au contraire plutôt s’orienter vers un objectif de décroissance progressive. Les objectifs affichés étaient ambitieux mais, moins de trois ans plus tard, le retour à la réalité est un peu moins glorieux…

Que dit donc ce bilan énergétique mondial qui porte sur l’année 2017 ? Il n’est certes pas exhaustif puisqu’il ne prend en compte que les pays du G20 (dont l’ensemble des pays européens), mais ceux-ci représentent néanmoins 80 % des émissions planétaires de gaz à effet de serre, ce qui est donc très largement représentatif.

Le premier élément à retenir est que la croissance s’est nettement accélérée en 2017 avec un taux de croissance économique moyen de 3,7 % pour cette année alors que ce taux n’était que de 3,5 % en 2016 et de 3,1 % sur la période 2005-2015. Les effets de la crise économique mondiale de 2008 s’estompent donc et on en revient à grands pas vers le business as usual !

Evolution de la consommation d’énergie par les pays du G20 (en pourcentage de croissance annuelle) – source © Enerdata

La demande mondiale d’énergie est par conséquence en hausse très sensible, de 2,1 % en 2017 contre 1 % seulement en 2016. Du coup, bien évidemment les émissions de gaz à effet de serre, qui stagnaient depuis 3 ans et avaient même reculé de 0,5 % en 2016 après avoir progressé de 1,6 % en moyenne annuelle entre 2005 et 2015, sont reparties à la hausse avec un bond de 2,1 % en 2017, confirmant s’il en était besoin, que toutes les belles promesses de la COP 21 n’ont pas connu le moindre début de mise en œuvre…

Curieusement, et malgré les rodomontades de Donald Trump qui s’est assis sans vergogne sur le traité de Paris et a tout fait pour relancer l’activité charbonnière, les États-Unis s’en sortent honorablement avec une stabilisation de leurs émissions de gaz à effet de serre en 2017 malgré une croissance soutenue. La Chine et l’Europe ne peuvent pas en dire autant, elles dont les émissions de gaz à effet de serre ont fait un bond de respectivement 2,1 et 1,9 % en 2017 !

En décembre 2015, chacun se félicitait de l’accord de Paris à l’issue de la COP 21, mais la mise en œuvre est bien loin des engagements de l’époque… (photo © Stéphane Bouissou / MEDDE)

Avec un tel constat, on s’écarte d’autant plus des objectifs vertueux du traité de Paris qui nécessitait de réduire en moyenne jusqu’en 2050 de 2,9 % chaque année nos émissions de gaz à effet de serre. Il faudrait maintenant mettre les bouchées doubles et viser plutôt une réduction annuelle de 3,5 % mais on n’en prend manifestement pas le chemin.

Après trois années successives de déclin, la consommation de charbon est repartie de plus belle et la demande mondiale tant en électricité qu’en gaz et même en pétrole a fortement augmenté en 2017, prouvant bien que, jusqu’à présent, l’humanité ne fait pas suffisamment d’effort en vue d’opérer la véritable transition énergétique qui s’imposerait si elle voulait vraiment contenir dans les limites viables le changement climatique global comme elle s’y était engagée en 2015…

Centrale thermique à charbon de Drax, dans le Yorkshire (Royaume-Uni), produisant 7 % de l’électricité de toute l’Angleterre

Curieusement, en Europe, les bons élèves de la classe, outre le Danemark et la Finlande qui ont réussi à réduire de près de 6 % leurs émissions de CO2 entre 2016 et 2017, sont à rechercher du côté du Royaume-Uni qui a baissé ses émissions de 3,3 % sur cette même période en adoptant des mesures fortes pour accélérer sa sortie du charbon.

Inversement, les plus mauvais élèves sont des pays tels que Malte, l’Estonie ou encore le Portugal, pourtant souvent cité en exemple pour son implication dans le développement des énergies renouvelables, mais qui ont connu une augmentation de plus de 11 % de leurs émissions de gaz à effet de serre en 2017. L’Espagne et les Pays-Bas ne s’en sortent pas très bien non plus avec une hausse supérieure à 6 % sur cette même période. Quant à la France et l’Allemagne, grandes donneuses de leçon en la matière, leurs émissions ont progressé respectivement de 2,2 et 2,4 % en 2017, soit davantage que la moyenne mondiale, ce qui n’est guère reluisant…

Nicolas Hulot : un bilan pour l’instant très mitigé du plan climat engagé en juillet 2017 (photo © Fabrice Coffrini / AFP)

Le ministre Nicolas Hulot a bien dû reconnaître lui-même, en tirant le bilan de la première année de sa feuille de route, vendredi 6 juillet 2018, que les résultats étaient bien loin de ses attentes. L’objectif de ce plan, annoncé il a un an était d’atteindre la neutralité carbone d’ici 2050 avec quelques mesures phare comme l’arrêt de la vente des voitures diesel et à essence d’ici 2040 ou le passage de la part des énergies renouvelables dans le mix énergétique à 32 % d’ici 2032.

Les chiffres communiqués par le CITEPA (Centre interprofessionnel technique d’études de la pollution atmosphérique) confirment au contraire que la situation n’en finit pas de se dégrader avec notamment une augmentation des émissions dans le domaine des transports. Même si la flotte de voitures diesel diminue désormais de 70 000 unités par an, cela n’est aucunement significatif eu égard à l’importance du parc automobile qui est de 21 millions de voitures particulières en France !

Même dans le domaine de la production d’énergie, l’arrêt de plusieurs centrales nucléaires s’est traduit en 2017 par un recours accru au charbon. Or ce dernier, s’il ne participe qu’à hauteur de 2 % du mix énergétique français, représente encore 25 % des émissions de gaz à effet de serre du secteur…

Il y a donc encore bien loin de la coupe aux lèvres et la France ne peut guère, jusqu’à présent et malgré tous ses efforts de communication en la matière, s’enorgueillir d’un engagement effectif dans la voie d’une transition énergétique réelle : encore un petit effort, Messieurs les Français !

L. V. 

A Marseille, on tire des plans sur la Comex…

3 juillet 2018

Henri-Germain Delauze

Henri-Germain Delauze fait partie de ces personnages qui ont marqué l’histoire récente de la ville phocéenne. Entré en 1946 à l’École nationale supérieure des arts et métiers d’Aix-en-Provence, il y acquiert une culture d’ingénieur avant de partir faire son service militaire dans l’armée de l’air à Madagascar où il découvre, trois années durant, la richesse des fonds sous-marins en effectuant ses premières plongées à titre professionnel.

De retour en France en 1952, il rencontre à Marseille l’équipe du commandant Jacques-Yves Cousteau avec laquelle il réalise de multiples explorations sous-marines à des fins archéologiques ou scientifiques, intervenant pendant 3 ans au sein de l’Office français de recherches sous-marines, une association qui participe notamment, dans les années 1950, à l’exploration de la résurgence de Port-Miou à Cassis.

En 1956, Il intègre la société des Grands Travaux de Marseille, une entreprise de BTP qui l’envoie à Cuba diriger un chantier hors-normes, la construction d’un tunnel autoroutier sous-marin dans la baie de La Havanne, réalisé par assemblage in-situ, à l’aide de plongeurs, de caissons en béton armé de 20 000 t chacun. Un bel exploit technique réalisé dans des conditions difficiles, au milieu des requins, et avec des délais très contraints. Un chantier suivi d’un autre, moins spectaculaire, consistant à percer un tunnel sous la Seine pour le transfert des eaux usées de l’agglomération parisienne…

En 1959, le jeune ingénieur qui a alors 30 ans, est invité aux États-Unis où il obtient un Master of Sciences en géologie marine à Berkeley en Californie, tout en effectuant de nombreuses plongées comme consultant pour l’U.S Navy et pour des entreprises de l’offshore pétrolier californien, dans la baie de Monterey.

Capsule de plongée de la Comex, installée devant le Palais de la Bourse à Marseille

Rentré à Marseille en 1962, il prend la tête du laboratoire des bathyscaphes, rattaché au CNRS, avec lequel il coordonne jusqu’en 1967, avec la Marine nationale, 5 campagnes internationales d’exploration scientifique des fosses abyssales. En parallèle, il fonde, dès 1962, sa propre société, la Comex (Compagnie maritime d’expertise), qui allie ses deux passions : l’ingénierie et le monde sous-marin.

Rapidement, la notoriété de la Comex dépasse les frontières, avec la construction, dès 1964 de son premier Centre d’essais hyperbares. A son apogée, en 1981, la société, devenue leader mondial dans son secteur de l’ingénierie et des interventions humaines ou robotisées sous-marines, affiche un chiffre d’affaire annuel de 322 millions d’euros et ses nombreux plongeurs accumulent les records de profondeur.

En 1981 justement, c’est l’année où Henri-Germain Delauze lance la construction de sa villa, au bord du Vieux-Port de Marseille, au pied du Fort Ganteaume, dans un site exceptionnel et totalement protégé, rendu constructible par une dérogation exceptionnelle accordée par le maire Gaston Defferre lui déclarant sans ambages : « Vous êtes la seule personne à qui j’autoriserai de construire à cet endroit ». A cette époque, on ne s’embarrassait guère de chichis administratifs et réglementaires…

La casa Delauze au pied du Fort Ganteaume

Le résultat est assez décoiffant puisque la fameuse villa, la casa Delauze, pourvue d’une gigantesque piscine, est bâtie sur pilotis, directement sur l’eau où était amarré le yacht de la société, permettant ainsi aux employés de la Comex de travailler dans un cadre exceptionnel directement accessible en bateau. Les bâtiments ont d’ailleurs été récemment rénovés et convertis en un espace de réception.

La casa Delauze, un espace de rêve…

A partir de 1984, les affaires de la Comex sont freinées dans un monde où le offshore pétrolier est devenu de plus en plus concurrentiel. La société s’efforce de se diversifier en créant de nombreuses filiales dont Cybernetix, dans le domaine de la robotique en milieu hostile. Mais en 1992, la filiale pétrolière, Comex Services, est finalement cédée au Groupe Stolt Tankers & Terminals. Delauze conserve la présidence du groupe qui se recentre sur ses différentes filiales. En 1999, la filiale spécialisée dans l’industrie nucléaire est cédée au groupe ONET tandis que Cybenetix est reprise en 2011 par Technip.

Michèle Fructus, PDG de la Comex de 2008 à 2016

Victime en 2008 d’un accident de plongée en Corse, Henri-Germain Delauze en restera durablement affecté et s’éteint finalement en 2012. C’est sa fille, Michèle Fructus, qui avait intégré l’entreprise en 1989 comme secrétaire puis chargée de la communication, qui reprend les rênes de la Comex à partir de 2008. Discrète mais néanmoins investie dans la vie publique locale, membre notamment du Conseil de Développement de MPM, cette femme de conviction avait réussi à diversifier encore les activités de la Comex, en particulier dans le domaine des essais liées à l’exploration spatiale.

Disparue brutalement en mars 2016 à l’âge de 70 ans, Michèle Fructus laisse un héritage qui reste dans la famille puisque c’est sa propre fille, Alexandra Oppenheim-Delauze, qui reprend alors les rênes de l’entreprise. Une tâche à laquelle elle n’était pas forcément bien préparée puisque, comme le détaillait alors La Marseillaise, son parcours professionnel l’avait jusqu’alors conduit à pratiquer des activités aussi diverses que guichetière dans une banque, administratrice d’une école de danse, restauratrice, prof de maths, gérante d’un salon d’esthétique ou encore maçon ayant exercé ses talents bâtisseurs sur le chantier d’un temple bouddhiste du côté de Saint-Marcel…

Alexandra Oppenheim-Delauze, directrice actuelle de la Comex (photo © AFP)

Avec 50 salariés, la Comex est très loin du mastodonte qu’elle était dans les années 1980, lorsqu’elle employait un bon millier de personnes et faisait partie des 10 premières entreprises françaises à l’export. Elle reste néanmoins un joyau de technologie capable non seulement de développer un scaphandre permettant aux futurs spationautes des simuler des sorties dans l’espace ou des déplacements sur Mars, mais aussi de lancer (et de récupérer) un ballon stratosphérique à 40 km d’altitude depuis son navire amiral ancré au large de Marseille, un ballon sur la plateforme duquel la Comex avait bien entendu installé une maquette de Notre-Dame de la Garde, histoire de rappeler que la Comex reste indissociable de son port d’attache marseillais…

L. V. 

La Mède : la raffinerie de tous les dangers…

26 juin 2018

Mise en route en juin 1935, en bordure de l’étang de Berre, sur la commune de Châteauneuf-les-Martigues, la raffinerie de La Mède, qui n’en finit pas de faire parler d’elle, fait partie de ces monstres technologiques engendrés par notre société de consommation empêtrée dans ses contradictions et ses choix technologiques hasardeux !

Raffinerie de La Mède, en bordure de l’étang de Barre (photo © MaxPPP)

Lors de sa construction, par ce qui s’appelait alors la Compagnie française de raffinage et qui s’est fondu depuis dans le groupe pétrolier Total, la raffinerie dite alors « de Provence » était alimentée par un port pétrolier dédié, désormais désaffecté, et disposait d’une capacité de raffinage de 400 000 t de pétrole brut par an, une misère à l’aune des standards actuels, mais largement suffisant à une époque où l’automobile commençait tout juste à se démocratiser.

Le 9 novembre 1992, alors que la raffinerie de la Mède, qui emploie alors 430 personnes et dont la capacité de raffinage dépasse désormais les 6,6 millions de tonnes tourne à plein régime, malgré un état de délabrement et de vétusté sans cesse dénoncé, une forte explosion se produit à 5h20 du matin. Entendue à 30 km à la ronde, cette explosion, qui provoque l’embrasement des unités de traitement les plus proches, est suivie de plusieurs autres. Deux réservoirs d’hydrocarbure et plusieurs canalisations prennent feu, ainsi qu’un réservoir de soude usée et d’essence qui explose à son tour vers 9h50.

Vue de la salle de contrôle de la raffinerie lors de l’accident de 1992 (source DGPR / BARPI)

Il faut attendre 13h pour que les pompiers parviennent tant bien que mal à maîtriser le sinistre, laissant néanmoins plusieurs brasiers se poursuivre pour achever de brûler les gaz et réduire la pression. Le bilan est sévère puisqu’il fait état de 6 morts et un blessé grave parmi le personnel, mais aussi 37 blessés plus légers dont 2 pompiers. La raffinerie est dévastée sur au moins 2 ha et il faudra attendre 2 ans avant que son activité puisse reprendre.

Le voisinage a été sérieusement atteint avec des bris de vitres constatés dans un rayon de 1 km et, ponctuellement jusqu’à 8 km du site. Lors du procès, qui intervient en 2002, quelques mois après la catastrophe d’AZF et alors que Total Fina annonce des bénéfices records, le procureur juge accablante la responsabilité des dirigeants de Total, mais se contente de simples condamnations avec sursis.

Vue aérienne des traces de relâchement d’hydrocarbure à la raffinerie de La Mède en 2005 (source DGPR / IMPEL)

Le 7 août 2005, rebelote avec cette fois un nuage de 10 à 20 tonnes d’hydrocarbures liquides et gazeux qui s’échappent accidentellement de la raffinerie. Un vent fort pousse ce nuage vers la commune de Sausset-les-Pins, à 7 km de là, endommageant une centaine d’habitations mais évitant une nouvelle catastrophe qui se serait inévitablement produite si les vapeurs d’hydrocarbures avaient stagné sur le site à proximité des torchères… Total sera d’ailleurs lourdement condamné en 2007 pour négligence et non-respect des procédures suite à cet accident.

Et en novembre 2014, le site fait de nouveau parler de lui, suite cette fois au débordement de deux bassins d’hydrocarbures qui se déversent directement dans l’étang de Berre, souillant sa rive sud.

En avril 2015, le site est paralysé par des grèves suite à l’annonce d’un plan de restructuration qui prévoit la disparition de 180 postes, alors que les capacités de raffinage sur le sol français sont jugées excédentaires. La raffinerie de la Mède, lourdement déficitaire, est fermée par Total fin 2015 mais reconvertie afin d’y sauvegarder 250 emplois.

Il s’agit alors de transformer, d’ici mi-2018, le site en « bio-raffinerie » pour y produire 500 000 tonnes par an de biodiesel à partir d’un tiers d’huiles alimentaires usagées recyclées et de deux-tiers d’huile végétale, projet consacré par la délivrance en mars 2018 d’une autorisation préfectorale, imposant le recours à au moins 25 % d’huile recyclée.

Vue des nouvelles installations de production de bio-carburant à la raffinerie de La mède (photo © IMRE Nedim / TOTAL)

Un projet qui déclenche la fureur des associations environnementales, dont l’ONG Les amis de la Terre, qui dénonce l’importation massive, pour alimenter la raffinerie, de 300 à 400 000 t d’huile de palme par an, en provenance de Malaisie et d’Indonésie, où ces plantations industrielles de palmiers à huile se font en rognant sans cesse davantage sur les forêts tropicales primaires : pour produire de telles quantités d’huile de palme, on considère qu’il faut détruire 1500 km2 de forêt, ce qui revient à hâter d’autant plus la disparition de la faune associée, sachant qu’il faut par exemple 1 km2 de forêt pour permettre à un orang outang de survivre.

Mais curieusement, ce ne sont pas les défenseurs de l’environnement qui se sont fait le plus entendre dans ce dossier polémique à souhait, mais plutôt les agriculteurs de la FNSEA qui ont défrayé la chronique en venant manifester en juin 2018 contre ce projet, n’hésitant pas à bloquer 13 raffineries et dépôts de carburant sur toute la France.

Manifestation d’agriculteurs de la FNSEA devant la raffinerie Total La Mède, le 11 juin 2018 (photo © Jean-Paul Pelissier / Reuters)

Plus que le sort de l’orang outang et du tigre de Sumatra, ces agriculteurs chantres de l’agro-industrie, venaient en réalité défendre les intérêts des producteurs d’oléagineux, colza et tournesol en tête, qui servent aussi à produire du biodiesel. Une filière industrielle dominée par le géant de l’agro-business, la société Avril, dont le regretté patron était l’ex-président de la FNSEA, le richissime Xavier Beulin, récemment disparu. Peu connue du grand public, cette société dont le chiffre d’affaire atteint pourtant 7 milliards d’euros et qui emploie pas moins de 8200 salariés, est le premier producteur et transformateur européen d’oléagineux, un concurrent direct de Total donc, propriétaire accessoirement des marques Lessieur et Puget, mais aussi leader français de la nutrition animale et qui commercialise un quart des œufs vendus sur le territoire national…

Une petite entreprise, en pointe donc contre la déforestation en Indonésie, mais qui n’hésite pas à importer, pour son compte 200 000 t d’huile de palme chaque année, garantie « zéro déforestation », cela va de soi, car, pour des raisons économiques fort respectables, le biodiesel produit intègre une forte proportion d’huile de palme, nettement moins chère sur le marché mondial que le colza français. D’ailleurs le groupe Avril détient, selon le Canard enchaîné, 34 % des actions de la société PalmElit, leader mondial des semences de palmier à huile.

Plantations de palmiers à huile en Indonésie (photo © François de Sury / voir-et-agir CH)

Et n’allez surtout pas vous demander s’il est bien raisonnable de développer ainsi des « carburants verts » pour alimenter le réservoir de votre voiture, tandis que les terres arables nécessaires à l’alimentation humaine se dégradent à vue d’œil. Une étude récente commandée par la Commission européenne et publiée par Transport et environnement, indique qu’utiliser du biodiesel à base d’huile de palme revient à émettre trois fois plus de gaz à effet de serre que d’utiliser du diesel classique !

Encore un choix technologique manifestement soigneusement réfléchi et qui devrait nous permettre d’avancer à grande vitesse vers le mur où l’humanité ne devrait pas tarder à s’écraser en klaxonnant bien fort…

L. V.

Qwant, le moteur de recherche qui défie Google

24 juin 2018

Un moteur de recherche est une application web permettant de trouver des ressources (images, vidéos, fichiers, etc.) à partir d’une requête sous forme de mots. Il est composé d’instruments de recherche sur le web sans intervention humaine, ce qui le distingue des annuaires. Il appuie son action sur des « robots » qui parcourent les sites à intervalles réguliers et de façon automatique pour découvrir de nouvelles adresses. Ces robots suivent les liens hypertextes qui relient les pages les unes aux autres, les uns après les autres. Chaque page identifiée est alors indexée dans une base de données, accessible ensuite par les internautes à partir de mots-clés.

Google : un bel instrument…de masse. Un dessin de Xavier Gorce (Les indégivrables)

Google est le moteur de recherche le plus utilisé dans le monde. Les Français en particulier sont de gros utilisateurs du moteur américain avec pas moins de 94,1 % d’usagers l’an dernier (contre 92,9 % à l’échelle mondiale). Un rouleau-compresseur qui laisse finalement peu de place à la concurrence en dépit des réserves des utilisateurs concernant la confidentialité des données. « Si c’est gratuit, c’est que vous êtes le produit » : cette formule popularisée par Bruce Willis est néanmoins en train de tourner à la prise de conscience planétaire.

L’affaire Cambridge Analytica, qui vient de frapper au cœur l’empire Facebook, est une illustration du danger que fait peser sur la démocratie notre naïveté à l’égard des nouveaux outils technologiques. Les faits sont têtus : le réseau social n’a rien pu faire contre le vol des données de dizaines de millions d’utilisateurs et la mise en place de stratégies de manipulations politiques de masse.

Cédric Villani, mathématicien et député La République En Marche

Le défi posé par l’intelligence artificielle (IA), ce n’est pas tant le mythe de la Singularité (hypothèse selon laquelle l’IA déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles sur la société humaine, et notamment la perte du pouvoir politique humain sur son destin) évoqué par les fous furieux de la Silicon Valley que celui de l’IA dite « faible », celle des algorithmes de tous les jours qui, selon Cédric Villani, « affectent notre accès à l’information, à la culture, à l’emploi ou encore au crédit » Et c’est d’autant plus dangereux qu’à la vérité – tous les chercheurs le reconnaissent – nous ne savons pas ce qui se passe à l’intérieur des algorithmes que l’on est en train d’entraîner à apprendre par eux-mêmes.

L’IA dans nos vies devient un danger potentiel. Sont concernés, non seulement les services aussi utiles que les assistants personnels intelligents, les systèmes de reconnaissance vocale, les traducteurs automatiques. Ce seront (et c’est déjà le cas) les technologies qui vont entrer dans notre intimité, interférer avec notre éducation, nos déplacements, nos finances personnelles, notre santé… Mais aussi la police ou la justice prédictive voire de nouvelles façons de faire la guerre, avec des soldats « augmentés » ou des armes létales autonomes, théoriquement interdites. Il faudra encadrer les dérives potentielles, mais « franchement, on ne sait pas» comment le faire, confie Cédric Villani. Le mathématicien se contente de proposer la création d’un « comité d’éthique en intelligence artificielle » et d’un « observatoire sur la non-prolifération des armes autonomes ». 

Mais il est à craindre que les appels à la régulation ne restent incantatoires. Le risque est double. D’abord, celui d’une révolte, déjà à l’œuvre, contre les technologies, au risque de freiner l’innovation. Le danger inverse est une forme de résignation où nous, le « produit », nous laisserions les géants de la technologie nous imposer un futur auquel nous ne comprenons rien. C’est tout l’enjeu du nouveau Règlement général sur la protection des données (RGPD) que de redonner à l’individu des outils pour tenter de reprendre la maîtrise de sa vie numérique qui va de plus en plus se confondre avec sa vie tout court.

La CNIL, garante des libertés individuelles … Un dessin de Denis Boutant

La prise en compte politique de ces risques est réelle, mais les dispositifs de contrôle adaptés sont à créer. La start-up nation est sollicitée, mais rien à l’horizon pour l’instant ! En attendant ces instruments, une prévention élémentaire consiste à mesurer les risques de manière citoyenne et à travailler à une prise de conscience aiguisée consistant à utiliser Internet au moyen de moteurs de recherche qui ne divulgueraient pas nos données personnelles. Ces fameuses données personnelles peuvent concerner les nom, prénom, adresse, le téléphone, les coordonnées bancaires, le numéro de sécurité sociale… Une adresse électronique ou e-mail, une adresse IP ou adresse numérique de l’ordinateur sont des données personnelles. Par extension ces données peuvent aussi concerner la famille, le patrimoine, la santé. Les empreintes génétiques, la voix, les images, doivent également être considérées comme des données personnelles. Il faut citer aussi le cas particulier de la vidéo-surveillance dont les enregistrements d’images et les sons font l’objet d’une législation spéciale.

Toutes ces informations peuvent être recueillies par l’éponge avide des Google, Facebook et autres réseaux sociaux dont nos concitoyens raffolent. Finalement, c’est bien l’utilisateur qui participe à la divulgation de ses propres données personnelles.

Un dessin de Chappatte publié sur Fanartstrip

L’emprise de Google n’a cependant pas empêché de jeunes entreprises hexagonales de proposer leur propre moteur de recherche. Avez-vous entendu parler de Qwant, Lilo, Exellead, Xooloo, Ecogine ? Ce sont cinq moteurs de recherche made in France qui offrent chacun leur propre vision du Web. Bien évidemment, il en existe beaucoup d’autres.

Fondé en 2011, Qwant est probablement l’un des moteurs de recherche français les plus connus. Son lancement officiel en langue française a eu lieu le 4 juillet 2013. Contrairement à Google qui est souvent pointé du doigt pour son utilisation obscure des données utilisateur, Qwant se veut un moteur de recherche neutre. Il n’installe aucun cookie et ne trace pas les habitudes de l’usager.

Après des débuts relativement chaotiques, l’algorithme de recherche a été grandement amélioré. Le moteur bénéficie aussi d’une nouvelle interface depuis 2015. Fort de son succès, Qwant lance de nouvelles versions destinées aux jeunes, Qwant Junior, et aux configurations PC légères, Qwant Lite.

En 2017, le moteur français a été intégré par défaut au navigateur Mozilla Firefox, lui aussi orienté vers le respect de la vie privée. Si on cherche un moteur de recherche complet et neutre, Qwant devrait pleinement satisfaire ! Il ne cesse d’évoluer et ajoute de nouveaux services régulièrement.

La politique de protection des données de Qwant a pour principe au cœur de sa philosophie, « de veiller à protéger au mieux votre vie privée ». L’utilisateur bénéficie des droits garantis par la loi dite « Informatique et Libertés » du 7 janvier 1978. Qwant déclare « s’interdire de collecter un grand nombre de données personnelles que d’autres collectent, qui sont inutiles pour vous apporter les services dont vous avez besoin. Nous ne cherchons jamais à savoir qui vous êtes ou ce que vous faites personnellement lorsque vous utilisez notre moteur de recherche. Lorsque nous devons collecter des données nous ne divulguons pas ni ne revendons ces données personnelles à des fins commerciales ou autres. En effet, nous utilisons vos données exclusivement pour vous fournir les services proposés par Qwant. »

Eric Léandri, PDG de Qwant (photo © Qwant)

Son fondateur Eric Léandri peut-il défier le leader mondial des moteurs de recherche ? Avec ses 165 salariés, qui ont mis à flot un moteur « neutre » et respectueux de la vie privée, Qwant espère conquérir de 5 à 10 % du marché européen d’ici à 2021, en pariant sur le choix du consommateur : « Je ne me bats pas contre Google, ce serait débile. C’est juste que je ne supporte pas qu’on n’ait pas le choix » déclare-t-il au Nouvel Obs. L’entreprise a le soutien des pouvoirs publics et la certitude d’être dans l’air du temps : chez eux, on ne sera jamais espionné… Car il s’agit d’affronter un monstre qui concentre 91 % des recherches faites par les Européens.

Avant sa rébellion, Eric Léandri a été salarié, consultant, patron et créateur d’entreprise dans l’informatique. L’idée de Qwant germe en 2009. Au départ, ce sont des algorithmes brevetés qui scannent le web social (Twitter, Facebook, blogs…). De fil en aiguille, Léandri et les trois autres cofondateurs décident de transformer Qwant en moteur de recherche grand public. En chemin, ils convainquent trois investisseurs prestigieux de les soutenir avec de très gros moyens : l’imposant éditeur allemand Axel Springer (qui a investi 8,5 millions d’euros en deux fois), la Banque européenne d’investissement (25 millions d’euros) et la Caisse des Dépôts (15 millions d’euros) sont ses principaux actionnaires. Eric Léandri est optimiste « On a la technologie qu’avait Google il y a trois ans. On espère rattraper cette année leur dernière technologie ».

Les dangers de Google… (dessin publié sur Blague.LOL)

Alors, Qwant, pour conquérir les foules, doit-il davantage ressembler à Google ? Question cruciale, équation insoluble. « Si on avait voulu faire du Google contre Google, on aurait perdu. C’est ce qui est arrivé à tous les autres alors qu’il y avait des gens sérieux derrière ces projets ». Outre le respect de la vie privée et la neutralité, il mise sur la recherche qualitative, dans les domaines de la musique et du contenu pour enfants, pour le moment, dans le sport et les jeux vidéo demain.

Hors moteur de recherche, Qwant travaille aussi sur quelques gros chantiers : la Qwant Map, semblable à Google Maps mais aura le tact d’oublier vos déplacements au bout de dix minutes. Le Qwant Masq, quant à lui, permettra à l’utilisateur d’enregistrer ses préférences sur différents appareils sans être pisté, sans inscription, sans données sur le cloud, bref, en toute sécurité.

Souhaitons que ces engagements aboutissent et soient tenus sur la durée. Le risque est clairement pour l’entreprise d’éparpiller ses forces. Et la bataille éthique risque d’être rude…

S. J.

ZAC des Gargues à Aubagne : Auchan engage le bras de fer !

18 juin 2018

Nous avions déjà évoqué sur ce blog, en juillet 2016, l’avenir incertain du projet de la ZAC des Gargues, ce vaste complexe commercial prévu pour s’étaler sur 42 ha entre l’autoroute A52 et la zone des Paluds, au sud de l’hypermarché Auchan (le deuxième plus grand de France, avec un chiffre d’affaire annuel déclaré de 250 millions d’euros), sur les dernières terres encore cultivées du secteur, en remplacement des quelques fermes résiduelles et de la jardinerie Tirand. Pompeusement rebaptisée éco-quartier des Bonnes-Nouvelles, en référence au chemin du même nom, plein d’espoir, qui la traverse, cette ZAC semble pourtant soumise à un avenir plutôt incertain…

À gauche : vue aérienne du site des Gargues (source © Géoportail). À droite : carte du programme initialement prévu (source © SAPAG)

Pour ceux qui auraient raté les épisodes précédents, rappelons que ce projet totalement pharaonique prévoyait initialement la construction de 850 logements avec crèches, écoles et installations sportives, des espaces de bureaux et surtout l’aménagement d’une immense zone commerciale et de loisirs, comprenant pas moins de 80 000 m2 de commerces supplémentaires, un parc de loisir et un complexe cinématographique du dernier cri, le tout desservi par une future ligne de tramway enjambant l’autoroute, et un boulevard urbain avec de nouveaux échangeurs autoroutiers.

Maquette du projet du futur « éco-quartier » Bonnes-Nouvelles (source © SAPAG)

Initié en 2009 en plein accord avec l’ancienne majorité de gauche alors aux manettes tant à Aubagne qu’à la défunte communauté d’agglomération du Pays d’Aubagne et de l’Étoile (CAPAE), ce projet est porté depuis des années par le groupe Auchan qui a patiemment acquis, via sa filiale immobilière Immochan, parcelle après parcelle, plus de la moitié des terres du secteur.

En 2013, le projet a été confié à l’unique opérateur qui s’était porté candidat, la société SAPAG, créée justement pour ce seul et unique objectif et constituée, comme par hasard, par Immochan, devenue le 5 juin dernier, par souci de camouflage, la société Ceetrus, et alliée pour l’occasion avec un géant du BTP, le groupe NGE de l’ex-terrassier Guintoli, et un spécialiste du logement social, Vaucluse logement, filiale du groupe Vilogia Entreprises.

Maquette du pôle de loisir prévu dans le projet d’aménagement (source © SAPAG)

Le contrat de concession, qui prévoyait un investissement évalué à 500 millions d’euros pour la SAPAG et 19 millions pour la collectivité (pour les infrastructures) avait été signé dans la précipitation et in extremis, le 25 février 2014, un mois tout juste avant les échéances électorales. Sage précaution car ces élections se sont effectivement traduites par un changement de majorité tant à la ville qu’à l’intercommunalité !

Le maire d’Aubagne, Gérard Gazay, en 2014, avec la Présidente de l’Agglo Sylvia Barthélémy

La nouvelle présidente de l’agglo, l’UDI Sylvia Barthélémy, n’était pas très chaude pour ce projet et souhaiterait le voir amendé. Elle a donc pesé pour réduire à 680 le nombre de logements, dont 30 % seulement en parc locatif social dont la droite n’est guère friande, et à limiter un peu la surface commerciale au profit plutôt de l’activité tertiaire et industrielle.

Mais le nouveau maire d’Aubagne, Gérard Gazay, n’a rien voulu entendre. Il est en effet totalement opposé au projet qu’il perçoit comme un aspirateur à chalands qui va achever de vider le centre-ville d’Aubagne et ruiner le petit commerce qui y survit difficilement. Il prône donc plutôt pour l’aménagement d’espaces sportifs sur cet espace qui, de toute façon, ne sera plus desservi par le tramway dont le projet d’extension a été gelé par la nouvelle majorité.

Le 29 septembre 2015, le conseil municipal d’Aubagne avait donc, par voie de délibération, logiquement rejeté le projet de ZAC des Gargues, imité en cela, le 30 novembre suivant, par le conseil communautaire de la CAPAE, un mois seulement avant que cette collectivité ne disparaisse, absorbée par la toute nouvelle métropole Aix-Marseille-Provence, qui a vu le jour le 1er janvier 2016.

Vue du site des Gargues en 2015 (photo © Florent de Corbier / La Marseillaise)

En parallèle, et pour bien verrouiller le dossier, la nouvelle municipalité d’Aubagne qui a en charge l’élaboration du Plan local d’urbanisme (PLU) a fait en sorte de fixer pour le périmètre concerné, des règles d’urbanismes incompatibles avec les besoins du projet. Comme une ZAC a été définie sur ce périmètre par la CAPAE, la commune est tenue de lui transmettre son projet de PLU et de solliciter son avis sur le sujet, ce qu’elle fait en décembre 2015, sachant que la collectivité saisie dispose d’un délai de trois mois pour se prononcer valablement.

Sauf que la CAPAE ayant disparu corps et âme dans les jours qui ont suivi cette saisine, elle n’a pu évidemment se prononcer, pas plus d’ailleurs que la Métropole, occupée à bien d’autres dossiers dans les semaines qui ont suivi son accouchement difficile. Faute d’avis émis dans les délais, l’avis est donc réputé négatif, si bien que la commune d’Aubagne voit ainsi son PLU fragilisé car élaboré en contradiction avec les règles d’urbanisme d’une ZAC déjà ficelée.

La société SAPAG s’est bien évidemment aussitôt engouffrée dans la brèche et a donc attaqué, devant le Tribunal administratif, le PLU d’Aubagne qui avait été finalement adopté le 22 novembre 2016. Un jugement, rendu le 15 mars 2018, vient confirmer l’annulation du PLU pour vice de procédure, du fait de cet absence d’avis formulé par la CAPAE (ou, en l’occurrence, par la métropole). Il est à noter cependant, que tous les autres arguments (et ils sont nombreux !) mis en avant par la SAPAG, dans une surenchère de mauvaise foi, pour casser le PLU d’Aubagne, ont tous été rejetés par le juge administratif, comme le montre la lecture du jugement rendu : JugementTA_15mars2018

Vue aérienne du site des Gargues (photo © MC / La Marseillaise)

Pour autant, la bataille juridique ne fait que commencer et on peut faire confiance au groupe Auchan et à ses bataillons de conseillers juridiques aguerris et sans scrupules, pour ne pas lâcher le morceau avant d’avoir épuisé tous les moyens à sa disposition, du recours juridique jusqu’à l’intimidation en passant par la séduction des indécis.

Chaque camp aiguise donc ses arguments. Les partisans insistent sur les emplois que ne manquera pas de créer un tel complexe de commerces et de loisir aux portes d’Aubagne, ainsi que sur les rentrées fiscales évaluées à 17 millions par an, alors que la ville est surendettée. Les opposants mettent en avant les nuisances apportées par le projet qui va drainer dans cette zone périphérique déjà totalement saturée son flots de voitures supplémentaires tout en détruisant les dernières parcelles agricoles de bonne qualité encore disponibles aux portes de la ville et en augmentant encore l’imperméabilisation et le bétonnage des terrains dans une zone déjà particulièrement vulnérable au risque d’inondation.

Quant à la SAPAG, elle vient de sortir l’artillerie lourde en adressant, en mai 2017 un courrier comminatoire à la métropole, désormais en charge du dossier, exigeant la résiliation de son contrat de concession signé en 2014, moyennant une indemnité de 300 millions d’euros, excusez du peu ! La pratique s’apparente, sinon à du racket, du moins à du chantage et commence à faire trembler certains, dont Sylvia Barthélémy qui pousse pour trouver un terrain d’entente en faveur d’Auchan, persuadée que ce dernier est prêt à tout pour arriver à ses fins.

Jean-Claude Gondard aux côtés du maire de Marseille, Jean-Claude Gaudin en 2015 (photo © Esther Griffe, Marsactu)

Le DGS de la métropole, Jean-Claude Gondard, se veut certes rassurant en estimant, comme le rapporte le site Mefi !, « Ce n’est pas parce qu’il y a une demande d’indemnisation de 300 millions que l’on va être automatiquement condamné ». Certes, mais son patron, le toujours Président de la métropole et maire de Marseille, Jean-Claude Gaudin, semble bien moins sûr de lui lorsqu’il souffle, selon Marsactu, « L’inquiétude, c’est d’avoir à payer in extenso ce qu’Auchan demande », ou lorsqu’il lâche à La Provence : « Bien sûr, nous ne voulons pas sortir cette somme, d’ailleurs nous ne l’avons pas. Le maire d’Aubagne ne veut pas du projet, mais c’est nous qui devons payer… Il y aura des discussions entre la mairie, la Métropole et Auchan, en tout cas par l’intermédiaire des avocats, pour sans doute modifier l’implantation du projet… Mais nous incitons le maire d’Aubagne à trouver un accord avec Auchan ».

Bien malin qui dira à ce stade ce qu’il adviendra de ce projet abracadabrantesque et contre lequel circule toujours une pétition, initiée par le militant aubagnais Jean Reynaud qui propose de conserver ces terres agricoles pour y implanter une ferme pédagogique et un laboratoire national de permaculture, pétition qui a déjà recueilli plus de 600 signatures. Une chose est sûre en tout cas, Auchan ira jusqu’au bout pour imposer ce projet alors que celui d’Europa City qu’elle porte à bout de bras au nord de Paris, commence aussi à avoir du plomb dans l’aile. Reste à savoir comment nos élus locaux qui tremblent déjà et commencent à se désolidariser les uns des autres se positionneront face à un tel rouleau compresseur…

L.V. 

Pourquoi la France devrait gagner le prochain Mondial de foot

11 juin 2018

Comme chacun sait, ou en tout cas le saura bientôt, au vu du matraquage médiatique lié habituellement à un tel événement sportif, cette semaine débute en Russie la 21ème édition de la Coupe du monde de football. Elle verra s’affronter entre le 14 juin, date du match d’ouverture entre l’équipe russe et celle d’Arabie saoudite, et le 15 juillet, date prévue pour la finale de cette compétition, les 32 meilleures équipes nationales du moment.

On a tous en tête l’analyse, tout en finesse, formulée en 1990 par le footballeur anglais Gary Lineker : « Le football est un sport simple : 22 joueurs courent après un ballon pendant 90 minutes, et à la fin, ce sont les Allemands qui gagnent ». Sauf qu’une nouvelle théorie beaucoup plus sérieuse vient d’émerger qui remet totalement en cause cette vision excessivement réductrice de la compétition footballistique.

C’est un article signé par Vincent Grimault pour le magazine Alternatives économiques qui vient éclairer d’un jour nouveau les mécanismes qui régissent ce domaine où néanmoins l’aléa garde toute sa place, surtout en matière de football, un des sports où la chance joue malgré tout une certaine part et où le talent, la motivation, la force physique et la technicité des joueurs ne sont pas toujours suffisant pour expliquer les résultats.

Si l’on fait néanmoins abstraction de cette part liée aux impondérables de toute nature qui peuvent conduire à des scores parfois inattendus, l’analyse pseudo-économique à laquelle s’est livrée Alter Eco pour prédire les résultats du prochain Mondial de foot ne manque pas de sel et elle mérite d’être détaillée. Elle se base sur un constat simple qui saute aux yeux lorsqu’on décortique les résultats de l’Euro 2016 sous l’angle du taux de prélèvements obligatoires en vigueur dans les différents pays qui s’y sont affrontés : les pays où la pression fiscale est la plus forte sont ceux qui ont obtenu les meilleurs résultats dans cette compétition !

Taux de prélèvement obligatoire des participants à l’Euro 2016 en fonction de leur résultats (infographie © Alternatives économiques)

Comme toute théorie (surtout dans le domaine économique, et peut-être plus encore lorsqu’il s’agit de spéculation liée à la compétition sportive), celle-ci souffre naturellement quelques exceptions dont la Suède éliminée dès le premier tour malgré son taux de prélèvement supérieur à 50 %, ou la Pologne parvenue en quart de finale avec pourtant un taux de fiscalité dérisoire de 18,5 %. Il n’empêche que les 4 équipes arrivées jusqu’en demi-finales présentent toutes un taux de prélèvement élevé, qui approche les 49 % en moyenne.

A première vue, on pourrait certes s’interroger sur le lien qui existe entre l’aptitude à marquer des buts et ce taux de prélèvements obligatoires, lequel est le rapport entre l’ensemble des taxes, impôts et cotisations sociales d’un pays et son produit intérieur brut (PIB). Mais en réalité, la corrélation est évidente comme l’explique l’article de Vincent Grimault : « les pays à haut niveau de fiscalité sont, de façon générale, les plus développés. Grâce aux dépenses publiques, et à des systèmes de protection sociale de qualité, les habitants y sont en bonne santé et ont du temps libre pour pratiquer le sport. Par ailleurs, grâce à un haut niveau d’investissement public, les pratiquants de football de ces pays peuvent s’entraîner sur des équipements de qualité, encadrés par des éducateurs, au sein de clubs structurés, souvent payés en partie par les collectivités. », CQFD…

Les joueurs de l’équipe nationale d’Islande lors de l’Euro 2016 (photo © Denis Balibouse / Reuters)

Et l’auteur de l’article en veut pour preuve « le miracle islandais, qui a vu l’Islande et ses 320 000 habitants se qualifier pour les quarts de finale de l’Euro 2016, puis se qualifier cette année pour la première Coupe du monde de son histoire », une performance qui s’explique très bien grâce à des équipements sportifs de haut niveau et à des éducateurs compétents, comme quoi le service public a du bon, même dans ce domaine du football professionnel…

Dans ces conditions, cela devient un jeu d’enfant que de prédire les résultats du prochain Mondial de football ! L’équipe d’Alternatives économiques s’est bien entendu livré à l’exercice selon une méthodologie parfaitement rigoureuse, quoique mâtinée néanmoins d’une petite dose de chauvinisme et sans oublier totalement l’expertise sportive lorsque le seul critère fiscal ne permet pas de trancher de manière définitive.

Taux de prélèvement obligatoire (valeurs 2013) des participants à la Coupe du monde 2018 (infographie © Alternatives économiques)

Il faut dire que, sous cet angle, les écarts entre compétiteurs sont plutôt larges, entre un pays comme le Nigeria où le taux de prélèvements obligatoires dépasse à peine 11 % et le champion du monde qu’est le Danemark avec son taux de 58,7 % tandis que la moyenne des pays engagés dans le Mondial s’établit à 33,5 %.

A cette aune, on ne s’étonnera donc pas que les prévisions de nos économistes amateurs de football annoncent une finale entre le Danemark et la France, cette dernière étant particulièrement bien placée avec son taux de prélèvements obligatoires de 53,5 % ! De là à affirmer que la France a toutes les chances de remporter cette prochaine coupe du monde de football, comme le fait le journaliste d’Alter Eco, c’est peut-être aller un peu vite en besogne et oublier quelques menus détails d’ordre plus sportif qui ne plaident sans doute pas autant en faveur de notre équipe nationale…

Emmanuel Macron poussant la balle à l’occasion d’une visite au centre d’entraînement de l’OM le 15 août 2017 (photo © DR)

Quoi qu’il en soit, voilà en tout cas un argument massue qui plaide sans conteste en défaveur d’une baisse de la pression fiscale pourtant mise en avant par nombre de nos responsables politiques, Emmanuel Macron en tête : espérons que son attirance affichée pour le ballon rond l’amènera à revoir sa politique en la matière !

L.V.  

Solidarité : des frigos sur le trottoir…

9 juin 2018

En France, selon l’ADEME, chaque Français jetterait 20 kg de nourriture consommable par an dont 7 kg encore sous emballage, sans compter les volumes énormes que les distributeurs détruisent, faute d’arriver à les transmettre via le circuit associatif. Ce sont ainsi neuf millions de tonnes de nourriture qui seraient gaspillées chaque année, jetées à la poubelle et détruites alors même que, effrayant paradoxe, plus de huit millions de personnes vivent sous le seuil de pauvreté et, pour nombre d’entre elles, peinent à se nourrir correctement chaque jour.

Des militants anti-gaspillage récupèrent de la nourriture jetée dans les poubelles d’un supermarché (photo © Thierry Lopez / MAXPPP)

En matière de répartition des richesses, la théorie des vases communiquant, comme celle du « ruissellement » n’est jamais très facile à mettre en œuvre. Une initiative toute simple mais efficace mérite néanmoins d’être saluée, et largement diffusée. Elle consiste à disposer des réfrigérateurs en libre-service dans des quartiers très passant et à forte mixité sociale : les commerçants y déposent leurs invendus du jour et les habitants du quartier leurs propres surplus, par exemple avant un départ en vacances, tandis que les plus démunis viennent se servir gratuitement.

Réfrigérateur People’s Fridge à Londres

Le concept était déjà largement en vigueur à Londres, dans le quartier de Brixton, sous le nom de People’s Fridge, où une jeune restauratrice française, Dounia Metboul, l’a découvert en 2012. Séduite par le principe, celle-ci s’est alors aperçu que ce dispositif de frigos solidaires est également largement développé en Allemagne, alimenté par des milliers de bénévoles qui récupèrent les invendus des commerçants, mais aussi au Québec, en Belgique ou encore en Espagne.

Il ne restait donc plus qu’à importer l’idée en France et c’est ce qu’a fait Dounia Metboul qui tient, avec sa mère un restaurant rue Ramey, dans le XVIIIe arrondissement de Paris, « La cantine du 18 ». Elle mobilise deux associations : Le Carillon, qui rassemble les commerçants du 18e arrondissement soucieux des sans-abri, et Cap ou pas cap, déjà à l’origine de boîtes à dons. Le 8 juin 2017, après appel à financement participatif, le premier réfrigérateur en partage de Paris est ainsi inauguré sur la terrasse de son restaurant.

Et le système fonctionne : chaque jour, une trentaine de personnes, particuliers et commerçants, alimentent le frigo dont le contenu est récupéré par une cinquantaine de sans-abris, retraités, chômeurs, familles nombreuses et étudiants. Celui qui le peut dépose des aliments. Celui qui en a besoin se sert librement. Comme le dit Dounia Mebtoul dans Le Monde, « C’est devenu un emblème, dans le quartier. Ce frigo fédère. C’est la bonne action que l’on fait facilement dans la journée. Beaucoup plus concret qu’un don à une asso ! »

Le premier frigo solidaire a été inauguré le 8 juin 2017 devant le restaurant de Dounia Mebtoul : « La cantine du 18 » à Paris (photo © Bigger Band)

A tel point que le dispositif a déjà commencé à essaimer. En décembre 2017, un second frigo solidaire a ainsi été inauguré par l’association Cap ou pas cap au 212 avenue Daumesnil dans le XIIe arrondissement de Paris, devant le magasin bio Les nouveaux Robinson. En en février 2018, un troisième a été installé devant Le Bar Commun, situé 135 rue des Poissonniers, toujours dans le XVIIIe arrondissement.

Le frigo solidaire installé devant Le Bar commun, rue des Poissonniers à Paris

Les élus municipaux du XVIIIe voient d’ailleurs d’un très bon œil cette initiative citoyenne qui permet à la fois de lutter contre le gaspillage alimentaire, de venir en aide aux plus démunis et de créer du lien social. Ils l’encouragent donc fortement en relayant les informations de l’association sur les réseaux sociaux et en facilitant les relations avec les services communaux.

Car la réglementation actuelle sur l’occupation de l’espace publique prévoit en principe que les commerçants qui installent un frigo, même solidaire, sur le trottoir devant chez eux, payent une redevance, ce qui pourrait constituer un frein au développement du dispositif comme le reconnait Jean-Philippe Daviaud, adjoint au maire du XVIIIe en charge de la vie associative, de la démocratie locale et de la participation citoyenne, qui soutient le projet.

Une charte pédagogique a été rédigée pour faciliter la mise en place de tels frigos solidaires que l’on retrouve déjà un peu partout, à Lille comme à Grenoble. Grâce à l’appui du blogueur Baptiste Lorber puis de l’influenceuse Natoo dont la vidéo postée sur YouTube a été visionnée par 2 millions de visiteurs en une semaine, le projet de l’association Les Frigos solidaires, créée en partenariat avec Identités mutuelles, a connu un formidable écho sur les réseaux sociaux. Une quinzaine d’initiatives seraient ainsi en train de voir le jour depuis le début de l’année sur le territoire national.

La youtubeuse Natoo a relayé, dans une vidéo particulièrement remarquée, le concept des frigos solidaires (source © YouTube / Natoo)

La démarche à suivre est finalement assez simple : les bénévoles associatifs démarchent les commerçants pour leur expliquer le concept et leur préciser leurs responsabilités et engagements, dont celui de sortir le frigo dans la journée pour le rendre aisément visible et accessible à chacun. Il revient aussi aux commerçants de vérifier le bon fonctionnement de la chaîne du froid et la nature des produits qui y sont déposés. Ceux qui récupèrent les denrées pour les consommer sont seuls responsable de leur usage mais la liste des produits admis est restreinte pour limiter autant que possible les risques d’intoxication alimentaire : viande, poisson et plats faits maison sont en particulier interdits, de même que les produits avec date de péremption dépassée.

L’achat des frigos, qui reviennent à 1300 € pièce, se fait sur la base d’une cagnotte en ligne et pour l’instant l’association ne bénéficie pas de subvention mais nul doute qu’un tel système est appelé à se développer. Le frigo du futur sera sans doute connecté, intelligent et muni d’un écran tactile, comme en rêvent les designers de l’électro-ménager, mais il sera peut-être aussi collectif et solidaire, comme le prouve cette belle initiative citoyenne…

L.V. 

Hydrogène : le carburant de l’avenir ?

5 juin 2018

Dessin de Jiho publié dans Marianne le 1er juin 2018

Contrairement à ce que certains médias laissent parfois entendre, et malgré toutes les couleuvres qu’il a dû avaler, depuis qu’il est ministre de la transition écologique et solidaire, comme d’ailleurs tous ses prédécesseurs à ce poste, Nicolas Hulot est toujours au gouvernement… Il n’a certes pas réussi à convaincre le ministre de l’agriculture à inscrire dans la loi l’interdiction du glyphosate et il n’en est pas à sa première renonciation depuis qu’il est devenu ministre, mais gouverner en démocratie nécessite forcément des compromis

En tout cas, Nicolas Hulot vient de faire beaucoup parler de lui en annonçant vendredi 1er juin 2018 un plan ambitieux doté de 100 millions d’euros pour soutenir la production d’hydrogène décarboné, le stockage électrique et déployer des flottes de véhicules fonctionnant à l’hydrogène. « Ça fait des lustres que j’entends parler d’hydrogène, accompagné par cette phrase : « c’est bien, mais ça ne marchera jamais » ou « c’est bien, mais c’est trop cher ». Mais aujourd’hui ma raison est faite : l’hydrogène pourra jouer un rôle dans la transition énergétique », tel est le credo du ministre, expliqué aux médias dont Actu-environnement.

Loïk Le Floch-Prigent (photo © DR)

Selon lui, l’hydrogène serait un véritable « couteau suisse de la transition énergétique » et il importe donc que la France pour une fois ne passe pas à côté d’un tel enjeu technologique. Une déclaration qui a fait méchamment ricaner le toujours vert (si l’on peut dire) Loïk Le Floch-Prigent, ancien PDG de Rhône-Poulenc, d’Elf Aquitaine, de Gaz de France et de la SNCF, passé un temps par la case prison, condamné à plusieurs reprises et encore sous le coup d’une procédure judiciaire en cours, mais toujours donneur de leçon malgré tout.

Qu’en est-il donc de ce fameux hydrogène et que peut-on donc bien en attendre ? Une des pistes évoquées dans ce fameux plan dévoilé par Nicolas Hulot est de développer les véhicules fonctionnant avec des moteurs à hydrogène. Le procédé n’est pas totalement révolutionnaire puisqu’un brevet, déposé en 1799 par un certain Lebon, prévoyait déjà que son « gaz hydrogène » pourrait fournir « une force applicable à toutes espèces de machine ».

En 1970, Paul Dieges dépose à son tour un brevet concernant une modification des moteurs à combustion interne qui autorise la consommation d’hydrogène, dans le but d’en supprimer la pollution, puisque la réaction de combustion de l’hydrogène en présence d’oxygène, outre l’énergie qu’elle libère, ne rejette que de l’eau (d’où l’expression de « moteur à eau ») et en tout cas pas de CO2, ce qui est bon pour la planète ! Techniquement, l’utilisation de tels moteurs est au point et il existe déjà une voiture de série commercialisée depuis 2006, la BMW Hydrogen 7, mais vendue seulement à une centaine d’exemplaires et arrêtée depuis, tandis que des bus à hydrogène circulent déjà dans certaines villes.

Bus expérimental électrique à hydrogène testé à Cherbourg (source © projet européen CHIC)

Une autre approche permettant d’utiliser l’hydrogène comme carburant est la pile à combustible, autrement dit un moteur électrique alimenté par une pile dans laquelle le réducteur est l’hydrogène et l’oxydant l’oxygène. Un système tout simple en apparence et qui ne rejette que de l’eau, mais très coûteux dans l’état actuel de la technologie car exigeant beaucoup de platine (catalyseur) et des membranes échangeuses d’ions particulièrement sophistiquées.

Là aussi, il existe déjà des véhicules électriques commercialisés avec ce type de pile à combustible, dont la Honda Clarity, vendue en Europe depuis 2016. La société basque Pragma commercialise elle des vélos électriques fonctionnant selon ce même principe et dont les premiers exemplaires ont été mis en circulation fin 2017 à Saint-Lô, une ville qui possède déjà une flotte de 17 véhicules à hydrogène, comme l’a relaté Le Monde. Ces vélos présentent l’avantage de se recharger en 2 mn seulement alors qu’il faut 3 heures avec un vélo électrique classique et l’autonomie est de 200 km.

Vélo électrique à hydrogène en service dans la ville de Saint-Lô (photo © DR)

Que ce soit pour les moteurs à combustion directe ou pour les véhicules électriques alimentés par une pile à combustible, les difficultés liées à l’utilisation de l’hydrogène sont multiples. Un des problèmes majeurs du procédé vient du stockage de l’hydrogène et de son transport via des réseaux de distribution et, plus encore, à bord d’un véhicule. L’hydrogène gazeux est en effet explosif et inflammable, ce qui incite à le transporter plutôt sous forme liquide, mais sa liquéfaction à basse température consomme beaucoup d’énergie… D’autres solutions sont donc testées, y compris la cryo-compression ou des réservoirs gazeux sous forte pression, mais le sujet n’est pas si simple !

Une autre difficulté provient de la fabrication de l’hydrogène nécessaire, lequel est pour l’instant essentiellement produit par transformation soit par gazéification du charbon soit par vaporeformage du gaz naturel, principalement composé de méthane : au-delà de 700 °C et sous forte pression, la vapeur d’eau réagit avec le méthane pour donner de l’hydrogène. Mais cette réaction libère également de grosses quantités de CO2 (13 tonnes pour 1 t d’hydrogène produit !), ce qui n’est guère favorable pour notre environnement. C’est la raison pour laquelle le plan Hulot insiste sur la nécessité de développer des filières de production d’hydrogène décarboné, issu non pas des hydrocarbures mais obtenus soit à partir de biogaz produits par méthanisation, soit par électrolyse de l’eau en utilisant comme source d’énergie de l’électricité verte d’origine éolienne ou solaire.

Nicolas Hulot présentant son plan hydrogène le 1er juin 2018 (source © MTES)

Une proposition qui fait s’étrangler Loïk Le Floch-Prigent dans l’article publié sur Atlantico. Selon lui en effet, produire de l’hydrogène par électrolyse est une hérésie car les rendements sont trop faibles et le procédé bien trop coûteux par comparaison avec la filière pétrochimique classique. Au passage, il considère que seul un régime quasi-totalitaire comme la Chine, qui ambitionne de faire rouler 50 000 véhicules électriques à hydrogène d’ici 2025, est en mesure d’imposer à sa population une telle révolution : sans coercition, point de salut face au défi du changement climatique !

Ce n’est certes pas le pari de Nicolas Hulot qui estime que la forte baisse du prix des piles à combustible permet désormais d’envisager le développement progressif d’une production d’hydrogène par électrolyse. Dans cette hypothèse, le recours à cette filière pourrait apporter des solutions de stockage de l’électricité, en particulier dans les secteurs non desservis par le réseau national. Cela pourrait surtout permettre d’améliorer sensiblement les capacités des véhicules électriques actuels, y compris pour les poids-lourds voire pour des trains sur le réseau non électrifié.

Utopie absurde ou pari technologique audacieux ? L’avenir le dira…

L.V. 

Écho de conférence : Pourquoi se focaliser sur la dette publique ? Quel modèle économique pour le service public ?

3 juin 2018

Le conférencier invité par le Cercle Progressiste Carnussien, ce 24 mai 2018, pour ce sujet d’actualité, était Alain Beitone, déjà invité en janvier 2015. Michel Motré, Président du CPC, a rappelé en introduction le parcours de notre invité : professeur de sciences économiques et sociales en classes préparatoires au lycée Thiers de Marseille, formateur à l’IUFM d’Aix-Marseille, chargé de cours à l’Institut d’études politiques d’Aix-en-Provence, et rédacteur de manuels d’économie, en collaboration avec d’autres auteurs.

L’auditoire, très attentif, a ainsi été immédiatement séduit par le côté pédagogique et la clarté de l’exposé d’Alain Beitone, sur un sujet pourtant d’un abord complexe pour les non initiés aux subtilités des processus économiques.

Alain Beitone en conférence à Carnoux le 24 mai 2018 (photo © Cercle progressiste carnussien)

Le mot «dette» engendre des réactions souvent vives, auprès d’un public pas toujours bien informé par les médias ou influencé par les partis politiques et responsables gouvernementaux qui tentent de justifier leurs orientations concernant la dépense publique, à des fins peu en rapport avec l’intérêt général. Mais de quoi parlons-nous lorsque nous évoquons la «dette» ?

– Une dette est un engagement, d’un État ou d’un particulier, à rembourser, à terme, un créancier, moyennant en général le paiement d’un intérêt.

– Il faut distinguer la dette «brute», qui est le total dû, d’une dette «nette» qui est la différence entre la dette brute et le total des créances détenues sur d’autre agents économiques et qui pourraient, dans certains cas annuler cette dette.

– A l’origine, une dette résulte d’un transfert monétaire à partir d’une épargne ou est le résultat d’une création monétaire. Ainsi, le billet de banque est une créance qui sert aux échanges économiques. L’économie repose donc sur une dette liée au flux de cette monnaie.

– Qu’est-ce que le taux d’intérêt ? C’est le prix du risque et du temps, c’est le prix d’un service.

– Qu’est-ce que le déficit public ? Dans le budget d’un État c’est le résultat (solde négatif) de la différence entre ses recettes et ses dépenses publiques. C’est donc un flux.

– Ne pas confondre ce déficit avec la dette publique qui est une accumulation, au cours du temps, de la totalité des engagements d’un État (les administrations centrales, locales et de sécurité sociale), à une date déterminée, et qui est donc un stock.

Pour comparer et suivre l’évolution de cette dette publique, il est communément admis d’utiliser un indicateur qui est le rapport entre le montant de la dette publique et celui du produit intérieur brut (PIB). Cet indicateur est cependant discutable car il rapporte le stock de dettes (remboursable sur plusieurs années) au flux annuel de production de l’économie.

Crise bancaire : un dessin de Lasserre

Il convient aussi de faire la différence entre la dette publique, qui est contractée par les agents publics agissant pour l’État, les collectivités locales ou la sécurité sociale, et la dette privée, qui est contractée par les entreprises et les particuliers (auprès des banques ou sur les marchés financiers). Il faut distinguer aussi la dette intérieure (contractée auprès d’agents résidents sur le territoire) et la dette extérieure qui appel à l’épargne d’organismes financiers de pays étrangers.

Ce dernier élément est illustré par l’attitude des États-Unis qui, depuis des décennies du fait de la faiblesse de leur d’épargne intérieure, ont emprunté au Japon et maintenant à la Chine, via l’émission de bons du trésor, afin de financer leur activité économique.

Le problème de la dette a pris une ampleur exceptionnelle, en 2007-2008, à l’occasion de la crise des subprime aux États Unis, qui est le résultat d’une crise de la dette privée où des prêts (immobiliers essentiellement) ont été consentis à des personnes insolvables. Suite aux saisies en grand nombre effectuées par les banques pour se rembourser, le marché s’est écroulé, les prix ont baissé et les banques n’ont plus réussi à couvrir leurs actifs, impactant toutes les banques mondiales par effet dominos.

Cela illustre le fait que l’économie suit des cycles en fonction de mouvements spéculatifs perturbant la capacité des États à rembourser les intérêts et le capital de la dette. Il est à noter que, pour les créanciers, la capacité des tats (ou des particuliers) à rembourser les intérêts est une garantie primordiale ce qui explique le fait qu’ils continuent à leurs accorder du crédit.

Un autre fait majeur, lié à la variation des taux d’intérêts, est la crise de la zone Euro en 2010, qui a touché cruellement la zone sud de l’Europe, et la Grèce d’une manière catastrophique. Mais cette crise n’est pas non plus une crise de la dette publique. Elle résulte d’une divergence des taux d’intérêts entre pays européens, alors que ces taux avaient pourtant convergé au moment de la création de l’Euro, mais sans qu’il soit tenu compte de la polarisation des zones économiques dans l’espace commun (pays du nord plus riches que ceux du sud). La crise déclenchée en 2010 est donc une crise de la crédibilité de la zone euro. L’arrêt de flux de capitaux en provenance du nord de la zone a précipité ces pays dans une situation inextricable. Il apparaît donc que cette crise est le résultat de choix collectifs, basés sur des décisions politiques, en relation avec une construction européenne imparfaite (absence de solidarité économique).

Évolution de la dette publique brute de différents pays en pourcentage du PIB

Une fois les éléments de vocabulaire et de contexte liés à la notion de dette précisés, Alain Beitone a commenté une série de graphiques retraçant sur plusieurs périodes, depuis la fin de la guerre et plus précisément sur les 10 et 20 dernières années, l’évolution des dettes publiques et privées en fonction du PIB, des taux d’intérêts réels sur les emprunts d’État, ceci dans les différents pays industrialisés tels que les États Unis, le Japon et la zone Euro.

Il en ressort ainsi qu’à part le Japon confronté depuis des années à un phénomène déflationniste, la dette publique de la France, en pourcentage du revenu national net, évolue au même rythme que les autres pays de la zone Euro, mais elle reste supérieure à la dette moyenne des pays de la zone européenne.

Évolution de la dette publique de différents pays en pourcentage du revenu national net (source F. Avaredo, L. Chancel, Th. Piketty, E. Saez, G. Zucman, Rapport sur les inégalités mondiales, éd. Seuil, 2018)

Cette situation est-elle acceptable pour autant ? Qu’est-ce qui explique qu’avec des taux réels d’emprunt proches de 0 % la France a des difficultés à rembourser sa dette ? Il faut remarquer que la France emprunte sur des durées courtes à des taux négatifs qui augmentent après cinq ans pour atteindre 1,5 % à 50 ans.

Pourquoi cette dette publique a-t-elle augmenté ?

Il faut remonter au premier choc pétrolier de 1974 qui a ralenti la croissance, entraînant une montée du chômage, accroissant les dépenses d’indemnisation ainsi que d’autres dépenses sociales. C’était encore la période bénéficiant de l’effet des « 30 glorieuses » où les taux d’intérêts réels étaient réduits par l’inflation, favorisant un effet de levier sur la consommation et de la production : on s’enrichissait en s’endettant !

Dette publique de différents pays européens en pourcentage du PIB (source INSEE)

Mais, à partir des années 80, la politique de désinflation provoque une hausse des taux d’intérêt réel, ce qui a un effet négatif sur la croissance, effet amplifié par la désindexation des salaires sur les prix, ce qui nuit à la consommation des ménages. Durant les années 80 et 90, une certaine stabilité n’a pas pour autant permis d’endiguer le phénomène face aux dépenses sociales accrues dans une période à faible croissance.

A partir des années 2000, l’émission de produits titrisés sur des emprunts liés à la dette privée aux US, annonçant la crise des subprime, a déconnecté le marché financier de l’économie réelle, plongeant les États comme la France, à partir de 2007, à faire des choix délicats dans leurs politiques sociales (financement des retraites, du chômage, aides sociales, etc) et fiscales, avec en particulier une volonté de baisser les impôts (exonérations diverses et baisses de cotisations) pour les plus riches, dans l’espoir (non garanti) d’une reprise des investissements et de l’emploi donc de la croissance (théorie du ruissellement).

Alain Beitone insiste sur le fait que la dette publique n’est pas la dette privée et qu’elle suit un flux quotidien d’emprunts et de remboursements, par l’État français, ce qui permet à chaque emprunt d’être remboursé en moyenne en 7 ans. L’État a donc la maîtrise de ce mécanisme dans le temps, sous condition de gestion équilibrée permettant de s’endetter pour acquérir des actifs et procéder à une redistribution sociale, résultat d’engagements politiques.

Il faut noter que l’administration centrale de l’État n’est pas soumise à un équilibre budgétaire alors que les collectivités locales le sont. La dette publique et la croissance sont liées, les dépenses d’infrastructures de l’État ayant un impact sur l’activité industrielle et les offres créatrices d’activités. Ainsi, en France, en dessous d’un taux de 1,5 % de croissance, on observe que le nombre d’emplois ne croît pas.

Alors comment réduire la dette publique ?

Pour Alain Beitone, la dette publique est soutenable si le taux d’intérêt réel sur la dette est inférieur ou égale au taux de croissance en volume de l’économie, ceci en jouant sur les taux nominaux, sur l’inflation,sur la croissance, et sur la restructuration de la dette.

La Banque Centrale Européenne pourrait ainsi racheter la dette des pays du Sud, ou donner la possibilité aux pays endettés concernés de ne pas rembourser les intérêts (pas de profits à faire), ou leur permettre de rembourser le capital sur une période plus longue. Il s’agit donc de revoir la logique de la construction européenne pour une meilleure solidarité dans la zone Euro et sa réindustrialisation.

C’est donc dans la poursuite de ce raisonnement que notre conférencier s’interroge sur le modèle économique à suivre pour financer les services publics dans notre société ?

Sur quels principes se définit un service public ?

Un article de P. Bauby et J. Boual (« les services publics entre l’État et le marché »), en 1994, met en avant trois principes :

– « la continuité, car la prise en charge d’une activité par le service public tient à l’existence d’un besoin social ou stratégique à satisfaire et implique que l’activité soit régulière et continue.

Un dessin de Thierry Alberti (source © SNEPFSU Toulouse)

– l’égalité, qui repose sur l’extension du principe d’égalité juridique devant la loi et le règlement de la Déclaration de 1789 et exige que les usagers soient placés dans une position égale, sans discrimination ni avantages particuliers ; principe qui entraîne celui de la péréquation des tarifs dans le cadre de la zone couverte par le service public. Se rattachent à ce principe celui de la neutralité des services publics à l’égard de tous les usagers quelles que soient leurs caractéristiques, ainsi que l’obligation de fourniture et l’objectif de minimisation des coûts, un service d’intérêt général n’ayant pas comme but d’être régi par la loi du profit,

la mutabilité, selon laquelle les prestations sont adaptées aux besoins et évoluent en quantité et en qualité. La notion de service public n’est pas statique, mais est une conception dynamique.

En vertu de ces principes, les services publics doivent être au service de l’intérêt général. Ils sont associés à l’idée de monopole, qui en fonde la légitimité : censé être seul capable de satisfaire certains besoins collectifs, le service public tend à un monopole de fait ou de droit »

Si l’on reconnaît la nature spécifique des objectifs des services publics pour certaines activités sociales, alors ils doivent être gérés d’une manière particulière et échapper à une logique marchande. Il s’agit bien d’un choix politique qui peut découler soit d’un intérêt stratégique commun, soit d’une nécessité de solidarité ou d’équité.

Ces choix ne peuvent être faits qu’avec le consentement des citoyens et des responsables politiques, tous devant en assumer les conséquences via le consentement à en payer le coût (cotisations, prélèvements) et la volonté de réduire les inégalités. Le sentiment d’efficacité des services publics sera d’autant plus partagé si la situation s’améliore par une gestion rigoureuse et une coordination des différents acteurs impliqués.

Le public, resté attentif durant l’exposé, profita de cet instant pour poser de nombreuses questions à notre conférencier, interrogé notamment sur les contraintes des directives de l’Union Européenne sur les services non-économiques d’intérêt général. Il existe de fait un protocole annexé au traité de Lisbonne (2007) qui reconnaît « le rôle essentiel et le large pouvoir discrétionnaire des autorités nationales, régionales et locales pour fournir, faire exécuter et organiser les services d’intérêt économique général d’une manière qui réponde autant que possible aux besoins des utilisateurs ». Donc les dispositions des traités européens « ne portent en aucune manière atteinte à la compétence des États membres»

Un public particulièrement attentif aux explications d’Alain Beitone (photo © Cercle progressiste carnussien)

Interpellé sur le contrôle des budgets, Alain Beitone reconnaît que son efficacité est discutable et que des « anomalies » sont constatées. Il se fait ainsi l’écho des propos du public, choqué par de trop nombreux gaspillages et les inégalités de traitement fiscal faites aux entreprises au sein de l’Europe, en particulier en faveur des GAFA, les géants du web. C’est donc bien l’approfondissement de la construction Européenne qui pourrait répondre à ce besoin d’amélioration de nos conditions de vie, souhaitée par beaucoup, en faisant converger de nombreux critères tel que la fiscalité, le traitement du chômage ou les minimum sociaux.

C’est finalement à une heure tardive que tous les participants ont partagé un apéritif, offert par le Cercle, durant lequel Alain Beitone se prêta avec disponibilité et pédagogie pour répondre à toutes les sollicitations. Encore une soirée particulièrement enrichissante pour le public d’une quarantaine de personnes venues à l’invitation du Cercle Progressiste Carnussien.

CM

Va bene in Italia ?

27 mai 2018

Décidément, la vie politique italienne n’en finit pas de surprendre : rien n’est simple dans ce pays héritier d’une longue tradition démocratique, où les joutes politiques ont toujours su mobiliser les foules, mais dont les dernières péripéties électorales interpellent toute l’Europe.

Matteo Renzi annonçant sa démission de la présidence du Conseil, le 4 décembre 2016 (photo © Andreas Solaro / AFP)

Les récentes élections générales qui se sont tenues en mars 2018 pour renouveler les 630 membres de la Chambre des Députés et les 315 sénateurs, suite à une dissolution anticipée du Parlement fin 2017, confirment en tout cas ce sentiment de complexité. Le Parti démocrate de centre-gauche, dirigé par Matteo Renzi, qui avait démissionné fin 2016 de son poste de Président du Conseil à la suite d’un référendum perdu, laissant alors la place à Paolo Gentiloni, a subi un revers sévère avec moins de 23 % des suffrages exprimés.

C’est la coalition de centre-droit qui est arrivée en tête de ce scrutin, avec 37 % des voix, mais avec des fortunes très diverses entre sa composante Forza Italia de l’inoxydable Silvio Berlusconi, sortie très affaiblie de ce scrutin, et sa composante de la Ligue, classée à l’extrême-droite et dirigée par le nationaliste et europhobe Matteo Salvini, qui a fait un carton, lui qui considérait en 2016 l’euro comme « un crime contre l’humanité », rien de moins…

Ceci étant, le parti qui a obtenu le plus de voix à lui seul, avec près d’un tiers des suffrages exprimés et un très fort ancrage électoral dans la moitié sud du pays, est l’inclassable Mouvement 5 étoiles ou M5S (Movimento cinque stelle). Créé en 2009 par l’ancien humoriste Beppe Grillo et dirigé depuis 2017 par le jeune député de Campanie Luigi Di Maio, ce « non-parti » anti-système, qui prône la démocratie participative, la lutte contre la corruption et s’inquiète fortement des vagues migratoires auxquelles fait face l’Italie, remporte ainsi un succès incontestable.

Classé a priori plutôt à gauche malgré ses positions vaguement xénophobes et souvent franchement démagogiques, on aurait pu s’attendre à ce que le M5S s’allie naturellement avec le Parti Démocrate pour former une coalition de gouvernement. Mais pourquoi faire simple quand on peut faire compliqué ?

Dessin de Plantu publié dans Le Monde le 24 mai 2018

Après de longues tractations, les parlementaires italiens ont finalement élu, le 24 mars dernier, les présidents des deux Chambres, ouvrant la voie aux consultations pour la formation du futur gouvernement. C’est ainsi un membre historique du M5S, Roberto Fico, qui a accédé à la présidence de la Chambre des députés tandis que le Sénat est revenu à une proche de Silvio Berlusconi, Elisabetta Alberti Casellati, une catholique traditionaliste experte en droit ecclésiastique, devenue ainsi la première femme présidente du Sénat italien.

Dès lors pouvaient commencer les tractations pour la formation d’un gouvernement, sous l’égide du Président de la République, Sergio Mattarella. Toutes les autres hypothèses ayant été écartées, c’est finalement un attelage assez hétéroclite constitué du M5S et de la Ligue qui est chargé de former ce nouveau gouvernement, sur la base d’un accord qui repose principalement sur une aversion commune de la politique économique européenne, des promesses de baisses d’impôts, d’abaissement de l’âge de la retraite et de mise en place d’un revenu minimum, ainsi qu’une volonté partagée de mettre un coup d’arrêt à l’immigration.

Giuseppe Conte, le nouveau Président du Conseil italien (photo © Vincenzo Pinto / AFP)

C’est le juriste Giuseppe Conte, un avocat et professeur de droit novice en politique, qui est ainsi chargé depuis le 23 mai 2018, après 80 jours d’intenses tractations et 48 heures d’hésitation de la part du Président de la République, de former le nouveau gouvernement italien, sous le regard plutôt inquiet des autres pays européens, guère rassurés de voir arriver aux commandes de la troisième puissance économique de la zone euro, un attelage aussi hétéroclite d’eurosceptiques assumés et dont le programme consiste pour l’essentiel à creuser les déficits par des dépenses non financées.

Comme l’écrit Libération, « après le Brexit, les velléités d’indépendance de la Catalogne, l’affaiblissement de la chancelière allemande pour cause de trop grande générosité à l’égard de réfugiés fuyant la guerre et la misère, l’essor des nationalistes et des xénophobes en Hongrie et en Pologne, (…) voici que l’extrême droite arrive au pouvoir en Italie dans un improbable attelage (…). On a beau avoir l’optimisme chevillé au corps, l’avenir paraît soudain bien sombre. Le seul espoir, c’est que cette nouvelle entaille dans le projet commun serve d’électrochoc. »

Dessin de Kak, publié dans l’Opinion

Le verdict est sans doute excessif et à tout le moins prématuré. Il n’en reste pas moins que l’arrivée au pouvoir en Italie d’un parti d’extrême-droite, viscéralement opposé aux politiques d’austérité et d’accueil migratoire prônées par l’Union européenne, annonce de forts risques de tangage à un an des prochaines élections européennes, d’autant que cette arrivée a été bruyamment applaudie par des partis ouvertement nationalistes comme celui de Viktor Orban, au pouvoir en Hongrie depuis 2010.

Dessin de Gros, publié dans Marianne le 25 mai 2018

Ce petit séisme politique italien a aussi de quoi inquiéter les économistes orthodoxes européens car le pays est l’un des plus endettés d’Europe avec une dette publique évaluée en 2017 à 2263 milliards d’euros, soit un peu plus que la France mais pour un PIB sensiblement inférieur, ce qui représente un taux d’endettement de 131 % du PIB, presque autant que la Grèce… Et l’on se souvient encore du bras de fer lors de l’arrivée au pouvoir de Syriza en 2015 puis des vains efforts d’Alexis Tsipras pour desserrer le joug de la politique d’austérité ! Nul doute donc que les relations entre Rome et Bruxelles risquent de se tendre dans les mois qui viennent.

Espérons du moins que cette nouvelle crise, qui vient encore fissurer la construction du fragile équilibre européen, se traduira par un sursaut de la part des autres pays européens afin d’infléchir les politiques menées ces dernières années et qui se traduisent, à chaque élection, par un rejet de plus en plus marqué de la part des populations…

L.V.  

Autoconsommation d’électricité, c’est possible !

25 mai 2018

Panneaux photovoltaïque intégrés en toiture (source © L’Energeek)

Produire soi-même à base d’énergie renouvelable l’électricité que l’on consomme, ce n’est pas si fréquent que cela, mais pour autant l’idée n’est pas si farfelue ! L’approche la plus classique en matière d’autoproduction d’électricité, surtout dans le Sud de la France, consiste à recouvrir une partie de sa toiture de panneaux photovoltaïques et de brancher l’installation sur le réseau électrique, ce qui permet de revendre à EDF le surplus de production et ceci à un tarif garanti avantageux.

Une telle démarche nécessite néanmoins un investissement relativement conséquent, de l’ordre de 20 à 30 000 € pour une installation de 6 à 9 kWc qui nécessite une superficie utile de toiture correctement orientée de l’ordre de 45 à 75 m2. Cela suppose surtout des procédures relativement lourdes pour assurer le raccordement au réseau et exige que les panneaux soient directement intégrés à la toiture en remplacement du revêtement classique, ce qui peut être source de nombreux désordres, depuis la simple fuite jusqu’à la mise à feu de l’isolation et de la charpente en cas de défaillance électrique !

Ombrière photovoltaïque sur une terrasse de Marseille (source © Twiza)

Une alternative consiste donc à produire uniquement l’électricité dont on a besoin, ce qui est beaucoup plus simple car il n’est alors nul besoin de transférer le surplus d’électricité produite sur le réseau : l’électricité produite est alors injectée directement en aval du compteur, par exemple au niveau d’une simple prise. Dans ce cas en revanche, il ne faut produire que ce dont on a besoin, les dispositifs de stockage de type batterie étant coûteux, peu performants à long terme, et encore moins écologiques.

Il suffit donc de poser 2 à 3 modules photovoltaïques, soit une surface de 4 à 6 m2 seulement, disposés en ombrière voire simplement fixés au sol en l’absence d’obstacle à l’insolation. La puissance produite est alors nettement plus faible, de l’ordre de 0,5 à 0,8 kWc, mais peut suffire à couvrir la consommation électrique de base du foyer, en dehors des pics de consommations que l’on observe généralement lorsqu’on met en marche le four électrique, le micro-onde ou la machine à laver, ainsi bien sûr que les radiateurs électriques éventuels.

Ombrière photovoltaïque en pergola (source © LSK outdoor)

Inutile en effet d’espérer produire sa propre électricité pour se chauffer l’hiver si l’on utilise des convecteurs électriques ! Même en Provence, la production photovoltaïque fonctionne très bien l’été et en journée, mais pas quand le soleil se cache… L’objectif est donc alors de dimensionner l’installation au plus juste pour couvrir uniquement le « bruit de fond » courant qui correspond à la consommation des appareils toujours branchés ou en veille, tels que réfrigérateur, livebox, ordinateurs, etc. Une pompe de piscine qui fonctionne principalement en période estivale peut être aussi partiellement alimentée grâce à un tel système.

Une installation de ce type nécessite donc de bien connaître sa consommation électrique de base et ses variations dans le temps. C’est d’ailleurs un excellent prétexte pour regarder de plus près les caractéristiques de cette consommation, quitte à ajuster ses habitudes de vie pour l’optimiser…En tout état de cause, on considère, au vu des retours d’expérience existants, que l’optimum économique permet ainsi de couvrir entre 20 et 40 % de sa consommation électrique annuelle totale, ce qui n’est déjà pas si mal !

Selon ENEDIS (ex ERDF, responsable du réseau de distribution d’électricité en France), on considère qu’il existe actuellement en France de l’ordre de 20 000 foyers consommant leur propre électricité, un chiffre très probablement appelé à se développer dans les années à venir. Le département Alpes-du-Sud d’ENEDIS vient d’ailleurs de réaliser une opération pilote d’autoconsommation photovoltaïque collective, une grande première en région PACA.

Maquette du projet des Colibres avec les ombrières photovoltaïques (source © TPBM)

Il s’agit en l’occurrence d’un projet d’habitat participatif porté par l’association Les Colibres, sur la commune de Forcalquier, dans les Alpes de Haute-Provence. Lancé en 2013 par un groupe de familles militantes, suite à un précédent projet de la mairie qui avait avorté, le projet consiste en la construction de 11 logements répartis dans 3 bâtiments à ossature bois installés sur une parcelle communale d’un peu plus de 4 000 m2 seulement. Plusieurs parties communes (buanderie, chambres d’amis, atelier, garage à vélo, jardin) sont partagées entre les membres du collectif.

Le groupe d’auto-constructeurs, formé début 2014 et dont les premières familles ont emménagé fin 2017, compte en son sein plusieurs professionnels aguerris dont un urbaniste, une avocate, l’architecte du projet, et le directeur d’une structure associative d’accompagnement de projets d’habitat participatif. Il s’est constitué en société civile immobilière d’attributions (SCIA), une structure juridique adaptée à ce type de projet collectif et qui est donc la personne morale avec qui ENEDIS a conventionné.

Chantier des Colibres à Forcalquier (photo © Les Colibres)

En l’occurrence, la production photovoltaïque est assurée via des ombrières intégrées à l’architecture des bâtiments sous forme de casquettes, avec une puissance totale installée de 16 kWc. La consommation électrique étant évaluée à 2 kW par logement, la production est redistribuée de manière intelligente, grâce à la pose de compteurs Linky, en fonction de l’occupation et des besoins de chacun des logements.

La convention passée avec ENEDIS permet à ce dernier de procéder au relevé des compteurs communicants, de calculer les quantités consommées et produites par chacun des propriétaires en tenant compte des clés de répartition définies au sein du groupe, mais aussi d’émettre toutes les données utiles à la rémunération des autres fournisseurs (car bien sûr le dispositif n’est pas autosuffisant), du responsable d’équilibre et du gestionnaire du réseau public de distribution.

Un bel exemple, parmi d’autres, qui montre en tout cas qu’ENEDIS est désormais en capacité de gérer ce type de demande avec une souplesse que l’on n’imaginait pas de la part de l’héritier d’une longue tradition de centralisme énergétique à base de nucléaire… Il se murmure d’ailleurs que la nouvelle réglementation thermique en préparation pour 2020 pourrait présenter des avancées dans ce domaine en incitant les constructeurs de bâtiments neufs à prévoir dès l’origine des dispositifs facilitant l’installation de panneaux photovoltaïques pour une part d’autoconsommation : la transition énergétique se met peu à peu en marche…

L.V. 

Services publics / Dette bientôt en débat à Carnoux

23 mai 2018

Ce jeudi 24 mai 2018, à Carnoux, Alain BEITONE, économiste et enseignant honoraire de chaire supérieure en Économie à Marseille et à l’Université d’Aix-Marseille abordera deux questions d’actualité : « Pourquoi se focaliser sur la dette publique ? » et « Quel modèle économique pour le service public ? »

Il développera une réflexion sur l’État, sa place dans l’économie, son financement, sa gestion de la dette publique, mais aussi sur les services publics, sujets décisifs pour l’avenir.

Cette conférence organisée par le Cercle progressiste carnussien, accessible gratuitement à tous, se tiendra dans la salle du Clos Blancheton à partir de 18h30. Elle sera suivie d’un échange avec le public et d’un apéritif convivial pour poursuivre les échanges autour d’un verre.

Le mirage de la mer à boire…

14 mai 2018

Dessaler l’eau de mer pour satisfaire nos besoins en eau douce : la solution technique paraît séduisante pour faire face à la raréfaction des ressources en eau douce, menacées par les épisodes de sécheresse et contaminées par les pollutions. Sachant que les océans recouvrent 70 % de la surface du globe terrestre, l’eau de mer apparaît pour beaucoup comme une ressource inépuisable. La transformer en eau potable après élimination de ses sels minéraux pourrait donc constituer, aux yeux de nombreux responsables politiques, une solution d’avenir à généraliser.

Usine de dessalement de l’eau de mer de Fujairah aux Émirats arabes unis (source © Suez)

En apparence, la solution technique n’est pas compliquée et les marins grecs la mettaient déjà en œuvre dans l’Antiquité en appliquant une recette concoctée par Aristote et qui consiste simplement à chauffer l’eau et à récupérer par condensation la vapeur ainsi émise. C’est le principe de la distillation, utilisé dans la marine de manière industrielle dès le XIXème siècle.

Depuis, il a fait naturellement l’objet de multiples améliorations techniques, avec notamment le développement de la vaporisation multi-flash qui consiste à faire passer l’eau, initialement chauffée sous pression, dans des enceintes à pression de plus en plus réduite qui entraînent sa vaporisation quasi instantanée. C’est ce type de procédé qui est notamment employé à grande échelle dans les pays du Golfe où l’énergie à base d’hydrocarbures ne coûte pas très cher.

Vue de la plus grande usine de dessalement de l’eau de mer fonctionnant en Europe, près de Barcelone

Car – est-il besoin de le préciser ? – l’opération est particulièrement gourmande en énergie. Certes, dans nombre de pays, comme le Qatar, qui recourt massivement au dessalement de l’eau de mer pour son approvisionnement en eau potable, l’eau est distribuée gratuitement et son prix de revient n’est donc pas considéré comme un problème. Ce qui explique d’ailleurs qu’un Qatari consomme en moyenne 1200 litres d’eau par jour, là où un Allemand n’en utilise que 95 litres !

L’usine de dessalement de l’eau de mer construite en 2010 à Hadera, au nord de Tel-Aviv en Israël

Heureusement, la technique a fait de nombreux progrès en la matière et on a de plus en plus recours à d’autres procédés nettement moins énergivores comme celui de l’osmose inverse. Là encore, le principe est simple puisqu’il consiste en une ultrafiltration sous pression à travers une membrane poreuse semi-perméable qui retient les sels. C’est cette technique qui est notamment utilisée couramment en Israël où près de 70 % de l’eau consommée par les particuliers provient du dessalement de l’eau de mer.

Pour autant, même avec ce type de procédé, dessaler l’eau de mer consomme encore cinq fois plus d’énergie que les usines de traitement d’eau douce classiques. Certes, on développe désormais de plus en plus d’installations de dessalement alimentées par des énergies renouvelables, comme c’est le cas par exemple sur l’île d’El Hierro aux Canaries, où trois usines fonctionnent grâce à l’énergie éolienne ou hydraulique et on commence à exploiter, pour l’instant à titre expérimental, des systèmes de distillation à four solaire.

Principe de fonctionnement de l’alimentation électrique d’une station de dessalement d’eau de mer sur l’île El Hierro, aux Canaries (source © Futura Sciences)

Mais tout cela ne résout pas le problème majeur qui est celui des rejets : la saumure concentrée et les produits destinés à limiter l’entartrage des installations, sont purement et simplement rejetés en mer où ils s’avèrent particulièrement néfastes pour le milieu naturel, surtout dans une mer fermée comme l’est la Méditerranée. Poussé à l’extrême, le principe consiste à augmenter sans cesse la salinité de l’eau laissée en mer, alors que cette salinité, qui est en moyenne de 35 g/l dans les océans atteint déjà 39 à 40 g/l en Méditerranée, 42 g/l dans le Golfe Persique et dépasse 50 g/l dans la Mer Rouge.

Sans aller jusqu’à prétendre, bien évidemment, que c’est à cause des usines de dessalement que l’eau de mer est salée, il n’en reste pas moins que les impacts environnementaux des rejets de ces installations apparaissent comme des plus préoccupants, en particulier sur les fonds marins où la saumure se dépose et perturbe non seulement la vie benthique mais aussi les courants marins.

Là aussi, les ingénieurs ne manquent pas d’imagination pour rechercher des solutions techniques. C’est ainsi qu’un cabinet canadien a imaginé, dans le cadre d’un appel à projet pour la production d’eau potable à Santa Monica, en Californie, une construction en forme de gros cigare posé à quelques encablures de la côte et qui devrait permettre de produire, grâce à l’énergie solaire, 4,5 millions de m3 d’eau potable par an tout en rejetant les saumures dans un bassin central à usage thermal : de quoi faire d’une pierre deux coups…

Maquette du projet The Pipe destiné à dessaler l’eau de mer près de Santa Monica en Californie (source © Khalili Engineers – Land Art Generator Initiative Design)

Mais l’on se rend compte aussi que l’alimentation en eau potable à partir d’eau de mer dessalée peut être à l’origine de carences graves en magnésium et en iode, comme c’est déjà le cas en Israël. Il faut donc rajouter ces éléments dans l’eau douce après s’être évertué à les enlever de l’eau de mer, ce qui du coup rend le procédé encore moins économique.

Globalement, le dessalement de l’eau de mer reste en tout cas un procédé coûteux qui n’est envisagé que faute d’alternative plus simple permettant d’exploiter les eaux de surface ou les nappes souterraines. Pourtant, on constate que certains pays n’hésitent pas à utiliser de l’eau dessalée y compris pour l’irrigation agricole. C’est le cas désormais en Espagne où, dès 2006, 40 % de l’eau produite par dessalement était en fait destinée à la production de tomates sous serres, en particulier dans la région d’Alméria.

Serres de cultures intensives près d’Alméria, alimentée à l’eau de mer dessalée (source © Ecotoxicologie)

Une telle situation paraît aberrante mais répond à une logique purement économique : cette production d’eau douce est indispensable pour répondre à l’afflux saisonnier de touristes dans une région où l’aridité du climat rend les ressources en eau douce trop rares, et le meilleur moyen de rentabiliser de tels investissements est de les faire fonctionner toute l’année en approvisionnant les agriculteurs pour la production maraîchère de contre-saison qui permet d’inonder tout le marché européen à bas coût.

Pas sûr que cette démarche soit la plus rationnelle en termes d’exploitation raisonnée et durable des ressources naturelles, mais dans le domaine de l’alimentation en eau, comme dans beaucoup d’autres, ce sont bien souvent d’autres critères qui dictent les investisseurs économiques…

L.V. 

Dette et services publics : une conférence du CPC

5 mai 2018

Le Cercle Progressiste Carnussien organise une nouvelle conférence sur l’économie qui se tiendra à 18h30 le jeudi 24 mai 2018 dans la salle du Clos Blancheton à Carnoux-en-Provence.

 

Alain BEITONE, économiste et enseignant honoraire de chaire supérieure en Économie à Marseille et à l’Université d’Aix-Marseille abordera deux questions d’actualité :

« Pourquoi se focaliser sur la dette publique ? »

« Quel modèle économique pour le service public ? »

Il développera une réflexion sur l’État, sa place dans l’économie, son financement, sa gestion de la dette publique, mais aussi sur les services publics, sujets décisifs pour l’avenir.

Cette conférence sera suivie d’un échange avec le public présent que nous souhaitons nombreux compte-tenu de l’importance des questions traitées.

M.M.

Le champignon de Marseille va-t-il détrôner celui de Paris ?

3 mai 2018

L’agriculture urbaine, tout comme la permaculture sont en train de devenir des concepts à la mode. A Singapour, un État minuscule de 715 km2 (moins que la superficie de la seule commune d’Arles !) dans lequel s’entassent pas moins de 75 millions d’habitants, soit davantage que sur le territoire français, on compte ainsi déjà une centaine de fermes verticales, des tours édifiées en site urbain et dans laquelle on pratique le maraichage hors-sol.

Ferme verticale hors-sol à Singapour (source © Sky Greens)

Le principe est simple, sachant qu’une plante pour se développer a besoin, comme chacun sait, d’un peu d’amour et de beaucoup d’eau fraîche, mais aussi de lumière (l’énergie qui permet d’activer la photosynthèse) et de certains nutriments, généralement contenus dans le sol mais aussi apportés par les épandages d’engrais. A défaut de substrat, il suffit de verser les apports dans l’eau où baignent les racines des plantes. C’est ce même principe de l’hydroponie qui va être mis en œuvre à Romainville, en Seine Saint-Denis où plusieurs bâtiments dont une tour maraîchère de 24 m de hauteur sont en cours de construction, qui comprendront, outre des serres pour le maraîchage hors-sol, une champignonnière, un laboratoire pour la germination des graines, une serre pédagogique, un point de vente et, en extérieur, des petits vergers et un poulailler.

Maquette de la future tour maraîchère de Romainville (source © Ilimelgo et Secousses architectes / Poltred perspectiviste)

A Montréal, c’est ce même principe de la culture hydroponique qui est mis en œuvre dans deux serres installées sur les toits de la ville et dont la production est vendue sur internet sous forme de paniers de légumes. Cultiver sur les toits en ville présente en effet de multiples avantages, le moindre n’étant pas la proximité avec les consommateurs, ce qui permet de réduire fortement les coûts de commercialisation et de distribution.

Cultures maraichères sur le toit d’un supermarché à Montréal (source © Cent degrés)

Mais l’autre avantage est paradoxalement de profiter d’une qualité de l’air parfois meilleure en ville, surtout en altitude : les gaz d’échappement restent généralement bloqués au sol et ne dépassent pas le 2ème ou le 3ème étage, si bien que l’air en toiture est très acceptable.

Julien Girardon, créateur d’Abricotoit

C’est ce qui explique que les toitures marseillaises deviennent un lieu de refuge pour l’agriculture des Bouches-du-Rhône. C’est en tout cas le pari de la structure créée sous le joli nom d’Abricotoit par Julien Girardon, un jeune Marseillais, titulaire d’un doctorat en biotechnologie végétale, et qui propose d’aménager des jardins potagers sur les toits des immeubles du centre-ville, soit pour faciliter sa production personnelle, soit pour alimenter des restaurants en produits frais.

D’ailleurs les toits des immeubles sont de plus en plus convoités pour de multiples activités liés à l’agriculture, y compris pour y installer des ruches. Force est en effet de constater que les apiculteurs trouvent désormais en ville un terrain nettement plus propice à l’élevage mellifère du fait de l’absence de pesticides dans l’environnement proche et en raison de la plus grande diversité des espèces florales. On compte ainsi plus de 700 ruches à paris où la mortalité des abeilles ne dépasse pas 3 à 4 % alors qu’elle atteint désormais 30 à 40 % en milieu rural.

C’est la raison pour laquelle on voit désormais fleurir des ruches non seulement sur certains ronds-points comme c’est le cas à Vitrolles par exemple, mais aussi sur le toit des hôtels. Les clients de l’hôtel Sofitel situé sur le Vieux Port savourent ainsi depuis plusieurs années déjà le miel produit sur le toit du bâtiment et il en est de même pour ceux qui fréquentent l’hôtel Ibis de Bonneveine. Gérard Jourdan, l’apiculteur à l’origine de cette initiative, basé à Auriol, a depuis multiplié les implantations de ruches dans l’agglomération marseillaise et estime que la qualité du miel récolté ainsi en site urbain est généralement excellente.

Ruches installées sur le toit de l’hôtel Sofitel sur le Vieux Port de Marseille (source © Gérard Jourdan)

Depuis 2014, c’est le Castorama de Saint-Loup qui s’est lancé dans l’aventure, pour le plus grand bénéfice des employés du magasin qui se partagent la récolte, tandis qu’une association, intitulé Une ruche dans mon jardin, s’efforce d’implanter des ruches dans différents quartiers périphériques de Marseille, dont la Cité des Néréides, dans un but pédagogique afin d’inciter les enfants à retrouver le goût de la nature et de l’activité agricole.

Et voilà que ce sont désormais les caves de Marseille qui commencent à être investies par les adeptes de l’agriculture urbaine. Comme le relate Agathe Perrier sur le site Made in Marseille, deux amis, Maxime et Nicolas, ont eu l’idée de développer la culture de champignons (non hallucinogènes, est-il besoin de le préciser ?) dans les sous-sols de l’Équitable café situé sur le Cours Julien. Le substrat utilisé pour cela est en effet tout simplement du marc de café, mélangé aux spores de champignons et enserré dans des filets en forme de gros boudins, conservés pendant 15 jours dans l’obscurité puis exposés à la lumière dans une atmosphère très humide qui fait pousser en 5 jours de gros bouquets de pleurotes plutôt appétissantes.

Les boudins contenant le marc du café qui sert de support à la culture des champignons (photo © Agathe Perrier / Made in Marseille)

Une fois les champignons récoltés, le substrat est donné à l’association Terre de Mars, qui cultive d’anciens terrains agricoles dans le quartier de Sainte-Marthe : un apport organique idéal pour enrichir la terre. « C’est là que l’on boucle la boucle, car on produit des champignons grâce à des déchets et, de notre côté, on ne crée aucun déchet », met en avant Maxime.

Un cageot de pleurotes produites à Marseille (photo © Agathe Perrier / Made in Marseille)

Un bel exemple d’économie circulaire et qui pourrait encore évoluer puisque les deux amis se sont lancés dans d’autres expérimentations en essayant de recycler comme substrat des sciures de bois issus d’un chantier naval du Pharo.

D’ailleurs, leur ambition est de produire à terme une tonne de champignons par mois. Pour cela, ils envisagent sérieusement de déporter leur champignonnière urbaine dans les sous-sols du fort Saint-Nicolas et viennent de répondre à un appel à projet dans ce but. Le champignon de Marseille est peut-être promis à un bel avenir ?

L.V.

Vers une privatisation des barrages hydroélectriques ?

21 avril 2018

Voilà une information qui a fait le buzz dans tous les médias, de Libération à La Dépêche du midi, en passant par le blogger Ludo Torbey dont la vidéo d’Osons causer sur le sujet fait un tabac : Macron ose s’attaquer à notre patrimoine hydroélectrique et veut privatiser les barrages d’EDF, pour le plus grand bénéfice des multinationales, Total en tête, mais aussi les Allemands EON et Vattenfall, l’Italien Enel, le Canadien Hydro-Québec, voire des entreprises chinoises qui vont donc s’emparer de nos grands barrages, fleurons du génie industriel français.

Un véritable cauchemar pour les 160 000 salariés d’EDF dont 21 000 dans le secteur de l’hydroélectricité, et principalement les syndicalistes de la CGT qui ont été les premiers à monter au créneau après avoir appris, à l’occasion d’une réunion intersyndicale à Matignon le 7 février dernier, de la bouche de Thibaud Normand et Antoine Peillon, conseillers énergie du Premier ministre, que la France avait fini par céder aux exigences de la Commission européenne et acceptait d’ouvrir à la concurrence certaines des 433 concessions hydroélectriques françaises, et ceci dès 2018.

Barrage EDF de Sainte-Croix sur le Verdon, mis en service en 1974 (source © photothèque EDF)

On dénombre en France de l’ordre de 2300 installations hydroélectriques dont 433 donc qui relèvent du régime de la concession car d’une puissance supérieure à 4,5 MW. Elles totalisent à elles-seules 95 % de la puissance installée, soit de l’ordre de 24 GW. La part de l’hydroélectricité dans le mix énergétique français est relativement modeste, autour de 12 % (deux fois moins qu’au Portugal par exemple), même si l’hydroélectricité représente plus des deux tiers de l’énergie renouvelable produite en France.

Quoi qu’on en dise, la France reste totalement dépendante de la filière nucléaire pour son alimentation électrique et EDF fait tout pour que cette situation perdure, s’opposant de toutes ses forces à la volonté politique de réduire la part du nucléaire, refusant obstinément de fermer ces centrales même en fin de vie.

Or sur ces 433 concessions hydroélectriques, l’entreprise EDF en gère près de 85 %, le reste se partageant entre la CNR (Compagnie nationale du Rhône) et la SHEM (Société hydro-électrique du Midi). La CNR, créée en 1933, privatisée en 2001 et premier producteur français d’énergie exclusivement renouvelable est détenue principalement par le groupe public Caisse des Dépôts et des collectivités territoriales, avec comme actionnaire de référence minoritaire ENGIE (ex GDF-Suez). La SHEM, également producteur d’énergie 100 % renouvelable et lointaine héritière de la Compagnie des chemins de fer du Midi est aussi une filiale d’ENGIE.

C’est cette position dominante, quasi exclusive, d’EDF sur le parc hydroélectrique français, que l’Union européenne conteste depuis des années, prônant pour une ouverture à la concurrence. Car, contrairement à ce qu’on pourrait imaginer, les barrages en question n’appartiennent pas à EDF mais à l’État qui en a financé la construction (un gros investissement puisque l’on considère qu’il faut de l’ordre de 1 milliard d’euros pour aménager de quoi produire 1 GW).

Marcel Paul, syndicaliste et résistant, ministre de la production industrielle dans le gouvernement de Charles de Gaulle et instigateur de la création d’EDF-GDF en 1946

A l’époque où la plupart de ces barrages ont été construits, juste après la guerre, EDF était un service public, créé en 1946 sous l’impulsion du ministre et ancien résistant Marcel Paul avec un statut d’établissement public à caractère industriel et commercial. Bénéficiant alors d’un régime de monopole, EDF a pu s’arroger la quasi-totalité des concessions hydroélectriques, pour des durées de 75 ans.

Depuis, on s’est rendu compte que les situations de monopole jouaient rarement en faveur de l’usager ou du consommateur. La loi Sapin, adoptée en 2013 pour tenter de lutter contre les pratiques de corruption, a réduit la durée des délégations de services publics précisément pour éviter les dérives liées aux rentes de situation. En parallèle, l’ouverture progressive du marché de l’électricité à la concurrence sous l’impulsion politique de l’Union européenne et la transformation du statut d’EDF, devenue en 2004 une société anonyme cotée en bourse, ont radicalement changé la donne.

Certes, EDF reste détenue à près de 85 % par l’État français, ses autres actionnaires étant pour l’essentiel des investisseurs institutionnels (majoritairement étrangers). Mais l’entreprise se comporte désormais comme un champion de l’ultralibéralisme qui semble avoir totalement tourné le dos à ses valeurs initiales, ouvrant des filiales dans des paradis fiscaux, refusant de développer les énergies renouvelables, confiant la maintenance de ses centrales nucléaires à près de 20 000 sous-traitants en situation de grande précarité, exigeant sans cesse de nouvelles hausses des tarifs de l’électricité tout en amassant de juteux bénéfices.

EDF, fortement critiquée pour la gestion peu durable de son parc électronucléaire

Et l’hydroélectricité participe pour beaucoup à la constitution de ces bénéfices puisqu’on estime qu’ils s’élèvent à 1,25 milliards par an du seul fait de l’exploitation des concessions hydroélectriques depuis longtemps amorties, au point que l’électricité produite ainsi ne coûte de 20 à 30 € le MWh, contre 50 € le MWh d’origine nucléaire. Ces bénéfices sont principalement réinvestis à l’étranger et notamment au Royaume Uni où EDF a racheté British Energy en 2008 et lancé fin 2016 la construction des deux réacteurs nucléaires très controversés d’Hinkley Point, pour la modique somme d’au moins 21 milliards d’euros.

En 2010, l’État français avait annoncé une première vague d’appels d’offres pour la reprise de certaines concessions hydroélectriques mais sans jamais y donner suite. Au contraire, les concessions d’EDF déjà arrivées à échéance avaient été subrepticement rallongées moyennant quelques menus travaux supplémentaires de maintenance des ouvrages, au point qu’en octobre 2015, la commissaire européenne chargée de la concurrence, Margrethe Vestager, a adressé à Laurent Fabius, alors ministre des affaires étrangères et responsable à ce titre des questions européennes, un courrier pour l’informer de l’ouverture d’une enquête sur les concessions hydrauliques accordées en France à EDF.

Travaux de rénovation sur le barrage de Sarrans sur la Truyère en 2014 après vidange complète de la cuvette (source © L’Usine nouvelle)

Depuis, les acteurs français jouaient la montre alors que d’autres pays européens dont l’Allemagne avaient dès 2011 obtenu de sortir leurs barrages hydroélectriques du champ de la directive européenne sur les concessions, au même titre que les centrales nucléaires sont exclues du domaine concurrentiel car relevant d’activités « d’importante vitale ».

A l’époque, la France était déjà en position de faiblesse à cause de son taux d’endettement colossal totalement dérogatoire aux critères de Maastricht. Et désormais il se murmure que si le gouvernement a été contraint de céder aux injonctions de Bruxelles c’est pour faire baisser la pression contre le maintien des aides publiques françaises à l’agriculture…

Barrage de Bort-les-Orgues, sur la haute vallée de la Dordogne, mis en service en 1952 (source © Corrèze tourisme)

Toujours est-il que l’on annonce dès 2018 la remise en concurrence de certaines concessions hydroélectriques dont les barrages de Haute-Dordogne, celui de Beaufortain en Savoie et celui du Lac Mort en Isère. Les autres concessions suivront progressivement jusqu’en 2050, au fur et à mesure que les concessions initiales arriveront à échéance, conformément aux conventions signées initialement mais qu’EDF espérait bien ne jamais voir appliquer : dura lex, sed lex…

L.V. 

Coca-Cola se jette à l’eau…

14 avril 2018

Un dessin signé Nagy

Décidément, ces commerciaux sont vraiment trop forts, ou les consommateurs trop crédules ! Voilà que le géant de l’agro-alimentaire, la firme créée à Atlanta en 1885, The Coca-Cola Company, à l’origine de moult scandales de corruption, d’actions musclées de lobbying et d’études pseudo-scientifiques mensongères, voilà que cette société multinationale s’apprête à vouloir vendre aux Français de l’eau en bouteille au prix astronomique de 2,80 € le litre !

Voyant en effet les ventes de ses sodas stagner dans les pays européens où le marché est depuis longtemps saturé, la société cherche à se diversifier. Elle a déjà investi dans le domaine du bio avec les thés et infusions Honest et Fuze Tea. Mais son calcul vise surtout le marché de l’eau en bouteille, particulièrement florissant notamment en France où la consommation par habitant d’eau en bouteille est la deuxième du monde ! En 2015, la vente d’eau embouteillée en France représentait un chiffre d’affaire colossal de 2 milliards d’euros, avec une croissance estimée à 4,9 % pour l’année 2017, tant en volume qu’en valeur.

Un dessin d’Olivero

C’est incontestablement une victoire impressionnante des rois du marketing que d’avoir ainsi réussi à instiller aux Français l’idée que les eaux vendues dans des bouteilles en plastiques sont meilleures que celle qui sort du robinet alors que cette dernière est nettement plus contrôlée et infiniment moins chère.

En tout cas, Coca-Cola a bien repéré qu’il y avait là des bénéfices à engranger et s’apprête donc à venir tailler des croupières aux trois grands groupes qui se partagent actuellement 80 % de ce marché juteux. Nestlé Waters caracole en tête des ventes avec notamment ses marques d’eaux minérales Perrier, Vittel, Hépar ou encore Contrex, suivi de près par Danone, propriétaire entre autres des marques Evian, Badoit ou Volvic. Le troisième larron est le groupe Neptune qui commercialise par exemple Vichy Célestins, Saint-Yorre ou Pierval.

Mais Coca-Cola, troisième producteur mondial d’eau en bouteille, est prêt à en découdre et il met donc un pied sur le marché hexagonal en lançant la commercialisation de son eau en bouteille Smartwater après trois ans d’étude de marché. Lancée en 1996 aux États-Unis, puis en 2014 au Royaume Uni, cette marque, bien que vendue 5 fois plus cher que ses concurrents, s’est rapidement imposée sur le marché américain où elle truste 63 % des ventes, tandis que chez nos voisins anglais elle a déjà conquis 11 % de parts du marché en moins de 4 ans.

Un succès commercial d’autant plus étonnant qu’il s’agit d’une eau captée à la source de Morpeth, une ville du Northumberland, dans le nord de l’Angleterre, mais cette eau naturelle est ensuite distillée par évaporation puis reconstituée en y introduisant des sels minéraux, ceux-là même que le processus de distillation a éliminés. Une véritable aberration en matière de traitement d’eau, qui explique d’ailleurs le coût particulièrement élevé de cette eau totalement artificielle. Mais cela ne semble guère gêner les consommateurs qui retiennent seulement l’argument commercial de la purification à outrance…

Dès le mois d’avril, les consommateurs français qui ne regardent pas à la dépense trouveront donc, pour l’instant uniquement dans les magasins de la chaîne Monoprix, les bouteilles étiquetées Smartwater. De contenance 600 ml, ces bouteilles seront vendues au prix exorbitant de 1,40 € le flacon pour l’eau plate, et jusqu’à 1,75 € pour l’eau gazeuse. Un vrai luxe quand on compare avec l’eau du robinet qui revient en moyenne à moins de 4 € le mètre cube, soit 0,4 centimes le litre…

Dasani, l’eau en bouteille de Coca-Cola qui a fait un flop en Europe

Rien ne dit que le succès commercial sera au rendez-vous, d’autant que Coca-Cola a déjà subi un échec cuisant sur le marché européen. C’était en mars 2004. La firme d’Atlanta venait de dépenser 20 millions d’euros en budget publicitaire pour préparer l’ouverture du marché français à accueillir son eau en bouteille vendue sous la marque Dasani.

Un beau succès commercial aux USA où cette marque introduite en 1999 avait réussi à se placer parmi les eaux les plus vendues, mais un véritable accident industriel au Royaume Uni où la compagnie américaine se trouvait alors confrontée à une levée de bouclier totalement inattendue malgré le matraquage publicitaire qui avait accompagné l’arrivée de Dasani Outre-Manche. Il faut dire que les commerciaux américains ne faisaient pas dans la dentelle, présentant leur « pure eau plate » vendue en petite bouteille bleu clair comme un véritable concentré de pureté, contrairement aux eaux douteuses distribuées au robinet.

Le hic, c’est que l’eau en question, vendue 1,40 € la bouteille de 500 ml, n’était ni plus ni moins que de l’eau du robinet acheminée directement à l’usine Coca-Cola de Sidcup, située dans la banlieue londonienne, par le réseau public géré par Thames Water, une compagnie britannique de distribution d’eau, laquelle facture cette même eau à 0,4 centimes le demi-litre. La compagnie de service public en question ne s’est bien entendu pas privée de faire remarquer que le procédé frisait l’escroquerie…

Coca-Cola a certes fait valoir que l’eau en question subissait une purification supplémentaire par osmose inverse avant ajout de sels minéraux. Mais quand, de surcroît, la firme a été contraint de retirer de la vente 500 000 bouteilles en raison d’un taux de bromates supérieur aux normes britanniques autorisées, elle a alors préféré jeter l’éponge et renoncer à introduire son eau en bouteille Dasani tant en France qu’en Allemagne, se limitant à y commercialiser l’eau minérale issue de la source belge de Chaudfontaine acquise par les Américains en 2003.

A l’époque, la firme Coca-Cola s’était même vu décerner le prix Ig Nobel (prononcez « ignoble » en anglais, un prix satirique attribué chaque année par le magazine scientifique Annals of Improbable Research) de chimie 2004 « pour son usage de la technologie avancée pour convertir l’eau contaminée de la Tamise en Dasani, une eau minérale embouteillée… qu’il a fallu finalement retirer des étalages, pour présence d’un produit cancérigène ». Une distinction dont la firme d’Atlanta se serait sans doute bien passée mais que chacun a déjà oubliée… Vive le marketing !

L.V. 

Grande braderie sur les aéroports français !

4 avril 2018

L’affaire avait fait un peu de bruit à l’époque : en avril 2015, l’État avait vendu à un consortium chinois 49,9 % des parts qu’il détenait sur l’aéroport de Toulouse-Blagnac. Ni les protestations du collectif qui s’était formé pour tenter d’empêcher cette privatisation du troisième aéroport régional français, ni même l’affaire rocambolesque de la disparition temporaire de l’homme d’affaires qui servait d’intermédiaire n’avait pu empêcher que la vente se fasse, laissant un arrière-goût de gâchis.

A l’époque, le consortium bénéficiaire de l’opération, regroupement du groupe étatique chinois Shandong High Speed et du fonds d’investissement hongkongais Friedmann Pacific Asset Management avançait masqué derrière une société écran de droit français créée pour l’occasion sous le nom de Casil Europe, avec un capital dérisoire de 10 000 euros seulement, et l’intermédiaire désigné pour piloter le rachat, un certain Mike Poon, avait pris la fuite au cours des négociations car, selon Le Monde, son nom apparaissait dans une affaire de corruption où il était mis en cause suite à une enquête touchant la China Southern Airlines.

L’homme d’affaire Mike Poon devant le Capitole de Toulouse en avril 2015

Une affaire ténébreuse à souhait et qui aurait pu inciter Bercy à davantage de prudence. Mais l’appât du gain et le besoin de cash étaient les plus forts et rien n’a pu alors faire fléchir la volonté du ministre de l’économie d’alors, un certain Emmanuel Macron. Pour apaiser les craintes, Bercy répétait alors à l’envie qu’il n’avait pas la moindre intention de céder aux Chinois les 10,01 % d’actions lui restant en propre, et ceci alors que le contrat prévoyait explicitement la possibilité pour ces derniers de s’en porter acquéreurs dans un délai de 3 ans, qui s’ouvrira donc très prochainement, le 18 avril 2018.

A l’approche de cette échéance, l’inquiétude monte chez les actionnaires locaux qui se partagent les 40 % restant de l’aéroport et qui risqueraient donc de se retrouver minoritaire face aux Chinois si Bercy donne suite à la cession de ses dernières parts. Une inquiétude d’autant plus justifiée que le discours du nouveau ministre de l’économie, Bruno Le Maire, laisse la porte ouverte à toutes les interprétations, lui qui répondait en ces termes sur le sujet en octobre 2017 suite à une interpellation d’un député : « Ce qui compte au final n’est pas de savoir si l’aéroport est public ou privé, mais qu’il puisse avoir de l’activité et des investissements afin de rester moderne et innovant. L’État conserve d’autres moyens d’intervention : les normes, les règles et la distribution des créneaux pour les compagnies aériennes ».

Un dessin de Na !

Certes, mais de là à laisser un consortium chinois prendre le contrôle de la plateforme aéroportuaire de Toulouse-Blagnac qui a franchi l’an dernier le cap des 9 millions de passagers par an et dont une activité importante est liée à la présence d’Airbus Industrie, voilà qui nous éloigne fortement du rôle d’État stratège auquel les Français sont habitués.

D’autant que le bilan de l’exercice 2016 a laissé un goût amer aux autres actionnaires minoritaires, à savoir la Chambre de commerce et d’industrie de Toulouse (qui détient 25 % des parts), le Département de Haute-Garonne, la Région et la Métropole (à raison de 5 % chacun). A l’instigation de Casil Europe, ce sont en effet 100 % des bénéfices (soit la bagatelle de 5,8 millions d’euros) qui ont été redistribués aux actionnaires, lesquels se sont de surcroît partagés le trésor de guerre accumulé depuis des années, soit 15 millions d’euros dont la moitié est donc revenue aux Chinois, lesquels expliquent benoîtement que ce « pillage de réserves » n’est que le juste retour sur investissement normal, histoire de récompenser les investisseurs qui ont le bon goût de vouloir investir en France…

Une telle pratique de prédateur qui relève davantage de la recherche du rendement immédiat que de la logique d’intérêt général en vue de développer les infrastructures à long terme, pourrait d’ailleurs amener Bercy à revoir sa stratégie quant à la cession des dernières parts qui lui restent. Mais rien n’est moins sûr, d’autant que le consortium chinois exprime désormais son souhait de se désengager, le tout dans une ambiance pour le moins délétère puisque le président du Directoire, Jean-Luc Vernhes a été débarqué par les Chinois en septembre dernier et que la présidente du Conseil de surveillance, l’ex-ministre Anne-Marie Idrac, vient d’annoncer qu’elle quittera ses fonctions en mai prochain.

L’aéroport de Nice, privatisé en 2016, malgré l’opposition de Christian Estrosi

Et pourtant, cette expérience pour le moins malheureuse, suivie par la privatisation en 2016 des aéroports de Lyon-Saint-Exupéry (où les parts de l’État ont été cédées à Atlantia et EDF Invest) et de Nice (vendu au consortium Vinci – CDC – Predica), n’empêche pas Bercy de continuer à travailler activement au désengagement de l’État dans d’autres structures, et en particulier Aéroports de Paris dont il détient 50,8 % des parts qu’il envisage très sérieusement de céder à Vinci pour 8 milliards d’euros, lequel Vinci est déjà actionnaire minoritaire à hauteur de 8 %. Une opération qui rappelle furieusement la privatisation des autoroutes préparée en 2006 par Dominique de Villepin et dont une bonne moitié (ASF et Cofiroute) avait déjà atterri dans l’escarcelle de Vinci.

Aéroport de Paris, un magot qui fait saliver Vinci… (photo © Dominique Faget / AFP)

Une opération des plus profitables pour le groupe de BTP, qui n’avait alors déboursé en tout et pour tout que 7,5 milliards d’euros. Douze ans plus tard et alors que la durée de sa concession ne cesse de s’allonger, négociation après négociation, Vinci a déjà engrangé au moins 10 milliards d’euros du fait de l’exploitation de ce réseau autoroutier, une belle culbute sachant que la valeur de ce même réseau est désormais estimée à 16,5 milliards d’euros net de dettes : on se demande bien pourquoi l’État toujours en mal de liquidités a pu laisser partir au privé une telle poule aux œufs d’or…

On peut comprendre dans ces conditions que le groupe de BTP, devenu entre-temps le quatrième opérateur mondial de plateformes aéroportuaires rêve de refaire la même opération avec Aéroports de Paris, dont les plateformes ont franchi en 2017 le cap des 100 millions de passagers, affichant une croissance de 4,5 % par an, et qui détient pas moins de 66 km2 de foncier en plein cœur de la région francilienne, de quoi bâtir des centaines de milliers de mètres carrés de bureaux et de logements, promesses de juteux bénéfices pour un opérateur comme Vinci.

Augustin de Romanet, PDG d’Aéroports de Paris (photo © Eric Piermont / AFP)

Le président d’Aéroports de Paris, Augustin de Romanet, a beau tempêter : « Vous serez comptables devant l’Histoire d’avoir fait la même connerie qu’avec les autoroutes ! », nul doute qu’après l’abandon du projet de Notre-Dame-des-Landes, voilà un joli lot de consolation qui devrait réjouir Xavier Huillard, le PDG de Vinci !

L.V.