Biomasse bois : 3 projets retenus en PACA

3 mars 2018 by

Le bois, source renouvelable d’énergie (photo © Frédéric Douard)

C’est un communiqué du Ministère de la transition écologique et solidaire qui l’a annoncé, le 28 février 2018 : la deuxième tranche de l’appel à projets lancé en vue de soutenir, via un complément de rémunération, des projets de développement d’unités de production de biomasse, a retenu 11 projets dont trois qui se situent en région PACA : un beau succès pour le développement de la production énergétique à partir de la biomasse forestière dans notre région !

La première tranche de cet appel à projets lancé en février 2016 visait explicitement à encourager à la fois les projets de méthanisation, autrement dit la production de biogaz à partir de déchets ou de matière végétale brute, mais aussi la production directe d’électricité à partir de la combustion du bois. Ce développement de la biomasse en France est une nécessité comme l’affirme Nicolas Hulot : « La France a voté en décembre dernier une loi mettant fin à la recherche et à l’exploitation des hydrocarbures sur tout notre territoire. En parallèle, notre pays doit monter en puissance sur le développement des énergies renouvelables pour répondre aux objectifs fixés dans le Plan climat. Les projets annoncés aujourd’hui répondent à cette ambition de soutenir des filières créatrices d’emplois ».

Stock de copeaux de bois destinés à la filière bois énergie (photo © Richard Mayer / La Gazette)

A l’échelle mondiale, on estime que l’électricité produite à partir de la biomasse représente de l’ordre de 58 GW mais que cette puissance pourrait atteindre 86 GW d’ici 2021, ce qui représente un potentiel de croissance remarquable. En France, c’est moins de 1 % de l’électricité produite qui provient de la biomasse, même si cette fillière représentait déjà en 2014 de l’ordre de 7,5 % de la production d’électricité d’origine renouvelable (loin derrière l’hydroélectricité et l’éolien, mais devant le solaire néanmoins).

Le principe de la filière bois-énergie est des plus simples puisqu’il se limite à faire brûler le bois pour chauffer de l’eau et produire de la vapeur qui actionnera une turbine comme dans n’importe quelle centrale électrique. Il faut environ 4 tonnes de bois pour produire autant d’électricité qu’avec une tonne de pétrole, mais le CO2 qui est relâché dans l’atmosphère à cette occasion correspond à la seule quantité qui a été séquestrée durant la croissance des arbres, d’où un bilan neutre en termes d’émission de gaz à effet de serre, contrairement à ce qui se passe via l’utilisation d’un combustible fossile.

Digesteur à méthanisation de Marnay Energie à Feux dans le Cher, construite par Xergi (photo © Xergi)

Dans le cadre de la méthanisation, le procédé est plus complexe puisqu’on récupère d’abord le biogaz issu de la fermentation de la matière organique utilisée (déchets organiques, résidus végétaux, boues issues de stations d’épuration, ou déchets provenant de certaines activités agro-industrielles) et que c’est ce biogaz qui sert ensuite soit pour produire de l’électricité soit pour se chauffer.

Toujours est-il que l’on est désormais rentré dans un véritable processus visant à encourager ce type de production en France et cet appel à projets du ministère y contribue. Ce sont en effet 45 dossiers de candidatures qui ont été reçus à l’occasion de cette seconde tranche de l’appel à projet, sachant que la troisième tranche sera ouverte à compter du 29 juin 2018 et devrait permettre de sélectionner encore de nouveaux projets industiels.

Le ministre Nicolas Hulot visitant la plateforme expérimentale Gaya à Saint-Fons (production de biométhane à partie de biomasse sèche) le 26 juillet 2017 (photo © ENGIE)

Sur les 11 projets ainsi retenus, 2 correspondent à des installations de méthanisation prévues respectivement en Bretagne et dans le Médoc. Tous les autres sont des projet bois-énergie pour des puissances installées unitaires supérieures à 300 kW, l’ensemble des projets totalisant une puissance globale installée de près de 53 MW (à comparer avec une tranche de réacteur nucléaire de type Fessenheim dont la puissance nominale est de 900 MW).

La plus ambitieuse de ces installations est justement prévue dans les Bouches-du-Rhône, à Tarascon, portée par la société marseillaise Bio-Watt, pour une puissance totale de 25 MW. Les deux autres projets implantés en région PACA sont d’ampleur nettement plus limitée avec des puissances visées oscillant entre 1MW pour le projet de Campus SAG Sud Luberon à Villelaure, dans le Vaucluse, et 1,2 MW pour celui porté par la société Pérénia à Clans, une commune forestière située dans la vallée de la Tinée, dans les Alpes-Maritimes.

Ces désignations interviennent alors que le projet de plus grande centrale biomasse de France prévu à Gardanne, porté initialement par le groupe énergétique allemand E.ON puis repris par sa filiale, la société Uniper France Power, continue à faire polémique. Pour rappel, le Tribunal administratif de Marseille avait annulé le 8 juin 2017 l’autorisation d’exploitation accordée par l’État en 2012, au motif que l’étude d’impact n’analysait pas « les effets négatifs indirects et permanents du projet sur les espaces forestiers de la zone d’approvisionnement » de la centrale, située dans un rayon de 400 km.

Vue de l’unité de la centrale thermique de Provence, à Gardanne destinée à produire de l’électricité à partir de la biomasse (photo © Serge Guéroult / La Provence)

Il faut dire que le projet était particulièrement ambitieux, voire totalement démesuré pour ses détracteurs qui évoquent « un véritable aspirateur à forêts » destiné à raser les châtaigneraies des Cévennes et à faire disparaître toute la forêt méditerranéenne… Il consistait à transformer, moyennant un investissement de 265 millions d’euros, la tranche 4 de l’ancienne centrale à lignite de Gardanne, en une vaste centrale à biomasse, d’une puissance de 150 MW (soit 6 % de la consommation totale de la région PACA), capable de brûler d’ici 2024, 850 000 tonnes de bois par an, dont 445 000 tonnes provenant de boisements locaux, le reste étant a priri constitué de déchets verts et de bois recyclé.

Les deux parcs naturels régionaux du Luberon et du Verdon sont vent debout contre ce projet de centrale à biomasse, au grand dam du Président de la Région, Renaud Muselier, qui menace du coup de leur couper les vivres, estimant dans un communiqué que « l’écologie doit être mise au service de l’économie pour faire de la croissance verte un atout ». Mettre l’écologie au service de l’économie, les écologistes apprécieront certainement…

En juillet 2017, Nicolas Hulot a malgré tout décidé de faire appel du jugement du Tribunal administratif. Quant aux parcs naturels régionaux, ils ont fini par rentrer dans le rang. Comme l’a raconté Reporterre, le 29 septembre dernier, les deux PNR réunis à Valensole ont accepté de signer un protocole d’accord avec Uniper, décidant de l’abandon de leurs poursuites devant le Tribunal administratif et de l’accompagnement de la nouvelle étude d’impact qui s’est du coup déroulé fin 2017 dans la plus grande discrétion. L’association France Nature Environnement PACA, elle-même très opposée au projet a aussi rendu les armes, effrayée par les baisses de subvention annoncées par la Région. Un passage en force donc et qui a déjà permis à l’unité de biomasse de produire 250 MWh au cours de 2200 heures de fonctionnement accumulés pendant les phases d’essais en 2017.

Pour l’instant, 55 % de la ressource utilisée à Gardanne est importée, pour l’essentiel de plantations d’eucalyptus situées en Espagne et au Brésil, 20 % étant issu de la production forestière locale, le reste provenant de déchets de récupération et de bois en fin de vie. Un progrès sans doute par rapport au charbon qui alimentait jusque là cette centrale thermique, l’une des 4 dernières encore en activité dans l’hexagone, mais qui est encore loi d’apaiser toutes les craintes des défenseurs locaux de l’environnement !

L.V.  

Publicités

La voiture électrique est-elle écologique ?

1 mars 2018 by

Jenatzy au volant de sa voiture électrique La jamais contente, en 1899

La voiture électrique n’est pas une invention récente. En 1899, c’est d’ailleurs un véhicule électrique, la fameuse Jamais contente du Belge Camille Jenatzy, qui dépasse pour la première fois la vitesse alors fabuleuse de 100 km/h ! En 1900, sur un peu plus de 4000 véhicules alors fabriqués aux États-Unis plus de 1500 sont des voitures électriques, les véhicules à essence étant alors encore nettement minoritaires, y compris par rapport aux moteurs à vapeur.

Depuis, la tendance s’est nettement inversée et les motorisations diesel et essence ont largement pris le dessus. Mais les fortes contraintes liées désormais à la pollution de l’air et aux nuisances sonores en ville commencent à remettre au goût du jour les véhicules électriques. Les dernières directives européennes en cours d’adoption et qui visent précisément à renforcer, pour des raisons sanitaires, les exigences en matière de qualité de l’air dans les agglomérations urbaines, pourraient d’ailleurs rendre plus attractif le recours aux véhicules électriques comme mode de déplacement urbain.

Dessin de presse de Dilem

En France, Nicolas Hulot avait d’ailleurs fait sensation en annonçant, en juillet 2017, la fin programmée pour 2040 de la commercialisation des véhicules diesel, appelés selon lui à être remplacés par des véhicules électriques pour lesquels l’État français offre un bonus écologique fiscal pouvant aller jusqu’à 6300 € et auquel s’ajoute de surcroît une prime de conversion de 2500 € (en 2018) pour l’abandon d’une voiture diesel. Mais malgré ces fortes incitations et la multiplication des bornes de recharge électriques que les collectivités s’efforcent d’installer un peu partout, le marché est encore bien timide. Avec un peu plus de 30 000 voitures électriques immatriculées en 2017 (sur un total de moins de 100 000 véhicules électriques en circulation), la France fait moins bien que la Norvège où la part des véhicules électriques dépasse désormais 17 % du marché des véhicules neufs : remarquable pour un pays producteur de pétrole !

Il faut dire qu’un parc automobile français composé entièrement de véhicules électriques consommerait à lui seul la bagatelle de 90 TWh par an, soit 20 % de la consommation totale d’électricité française, de quoi booster la filière électronucléaire, mais pas de quoi réjouir forcément les écologistes… D’où d’ailleurs les interrogations que se posent beaucoup quant à l’intérêt écologique de la voiture électrique.

De ce point de vue, la référence à ce jour reste la très complète étude réalisée en 2012 à la demande de l’ADEME (Agence de l’environnement et de la maîtrise de l’énergie) par Ginkgo 21 et PE International, un rapport rendu public en 2013 et dont le résumé décrit très précisément les différents impacts environnementaux tout au long de son cycle de vie d’un véhicule électrique comparé à un autre à moteur thermique, et ceci pour un véhicule particulier comme pour un utilitaire.

La voiture électrique revue et dessinée par Gaston Lagaffe (© Franquin)

Cette analyse très exhaustive ne manque pas d’intérêt car elle indique que la comparaison dépend fortement du mode d’usage. Grosso modo, et sans vouloir dévoiler toutes les subtilités d’une telle étude, il se confirme en tout cas que la fabrication d’un véhicule électrique (et en particulier de sa batterie) constitue un investissement fort en consommation d’énergie primaire, ce qui explique que sur la durée de vie complète du véhicule, l’empreinte carbone globale reste finalement très proche de celle d’un véhicule diesel. Par rapport à un véhicule essence, on arrive à un bilan global légèrement plus favorable pour le véhicule électrique mais à condition de raisonner sur la durée de vie totale et d’avoir parcouru plus de 75 000 km sans changement de la batterie, ce qui n’est pas si évident pour un véhicule électrique…

Contribution au potentiel de changement climatique d’un véhicule électrique fabriqué en France et d’un véhicule à motorisation thermique (données 2012 – source ADEME)

Certes, d’autres critères pris en compte dans cette étude se montrent plus favorables aux voitures électriques. C’est le cas en particulier si l’on s’intéresse au potentiel de changement climatique, lié pour l’essentiel à l’émission de CO2. Là aussi, c’est la fabrication initiale et en particulier celle de la batterie qui constituent les principaux points faibles de la voiture électrique. En revanche, les émissions induites par l’utilisation de la voiture sont moins impactantes que celles d’un moteur thermique, diesel ou essence, mais ces émissions dépendent elles-même fortement de la composition du mix énergétiqe utilisé. Ainsi, en France où les trois-quart de l’électricité sont produits à partir d’énergie nucéaire, le facteur d’émission est de l’ordre de 88 g CO2/éq kWh, alors que ce facteur d’émission est en moyenne de 489 en Europe et atteint 636 en Allemagne où plus de 40 % de l’électricité est issue de centrales thermiques au charbon.

Du coup, les résultats seront légèrement variables d’un pays à l’autre. Globalement toutefois, on constate que vis-à-vis de ce critère de l’impact sur le changement climatique, il faut là aussi qu’une voiture électrique ait roulé au moins 50 000 km durant toute sa vie pour que son bilan environnemental commence à être compétitif par rapport à un véhicule à moteur thermique classique. On retrouve d’ailleurs des résultats assez comparables si l’on s’intéresse au potentiel d’épuisement des ressources fossiles, avec, là encore, un avantage à la voiture électrique mais au-delà d’un certain kilométrage seulement et encore sans qu’il n’ait été possible de prendre en compte l’épuisement à terme des ressources en uranium, matière fossile s’il en est !

Domaines de pertinence environnementale d’un véhicule électrique fabriqué en France par rapport à un véhicule à motorisation thermique selon les différents indicateurs analysés (données 2012 – source ADEME)

Quant à prendre en compte d’autres critères comme l’a fait l’étude publiée par l’ADEME, la comparaison risque d’être encore plus défavorable pour la voiture électrique… C’est le cas en particulier d’un indicateur lié au potentiel d’acidification atmosphérique, du fait des fameuses « pluies acides » causées par les rejets atmosphériques de certaines substances telles que le dioxyde de soufre (SO2), les oxydes d’azote (Nox), l’ammoniac, l’acide chlorhydrique ou encore l’acide fluorhydrique, toutes substance nocives émises en quantité non négligeables lors de la fabrication des batteries de voitures

Sans commentaire…

Bref, même si l’étude se veut la plus objective possible et met bien en évidence des différents éléments qui pourraient permettre de rendre la situation plus favorable à terme à la voiture électrique au gré des amélioration technologiques déjà entrevues à l’horizon 2020, il n’en reste pas moins qu’elle ne soulève pas un enthousiasme délirant en faveur de la motorisation électrique…

La voiture électrique individuelle n’est certainement pas la solution miracle que chaque automobiliste appelle de ses vœux et tout indique que les solutions tant vis à vis d’une limitation de nos émissions de gaz à effet de serre que eu égard à une réduction des pollutions sonores et olfactives en site urbain sont à rechercher plutôt dans le développement des modes doux de déplacement et des transports en commun, que via la généralisation des véhicules électriques. Chacun s’en doutait déjà inconsciemment, mais cette étude parmi d’autres vient opportunément le rappeler : en matière de déplacement urbain comme dans d’autres domaines, les solutions miracles sont rarement au rendez-vous…

L.V. 

France-Allemagne : l’analyse de Thomas Piketty

27 février 2018 by

Thomas Piketty en conférence à Washington le 15 avril 2014 (crédit photo © Ivan Couronne / AFP)

Est-il besoin de présenter Thomas Piketty ? Docteur en économie de l’École des hautes études en sciences sociales et directeur d’études dans cette même institution après avoir été fondateur et premier directeur de l’École d’économie de Paris en 2006, cet économiste engagé, spécialiste des inégalités économiques, s’est notamment fait mondialement connaître pour la parution en 2013 de son ouvrage intitulé Le Capital au XXIe siècle, une somme de plus de 1000 pages qui le conduisit à donner de nombreuses conférences mondiales très remarquées y compris aux États-Unis.

Proche du Parti socialiste, il s’était engagé comme conseiller économique de Ségolène Royal lors de la campagne présidentielle de cette dernière en 2007, avant de soutenir François Hollande en 2012, pour reconnaître néanmoins sa forte déception a posteriori, allant jusqu’à estimer que « le gouvernement fait exactement le contraire de ce qu’il faudrait ». En 2015, il fait partie, avec Joseph Stiglitz des économistes qui conseillent le candidat du Labour britannique Jeremy Corbyn, et en 2017 on le retrouve dans l’équipe de campagne de Benoît Hamon, favorable à « un revenu universel crédible et audacieux ».

Les idées que soutient Thomas Piketty, en faveur notamment d’une réduction des inégalités par une réforme fiscale ambitieuse via une imposition progressive basée sur l’ensemble des revenus effectifs, ne font certes pas l’unanimité et suscitent même un rejet viscéral de la part des tenants du néolibéralisme, allergiques à toute idée de redistribution des richesses. Une chose est sûre pourtant, rares sont ceux qui contestent la compétence de cet économiste reconnu et ses analyses font souvent autorité.

Ainsi, l’un des articles publiés sur son blog en janvier 2017 et intitulé « De la productivité en France et en Allemagne » a conservé toute son actualité et mérite d’être lu en détail pour préciser certaines de nos idées reçues quant au fameux différentiel de compétitivité entre les deux pays moteurs de la construction européenne. Il n’est pas question ici d’évoquer toute la richesse du raisonnement mais on retiendra néanmoins à titre d’illustration trois ou quatre idées parmi d’autres.

Première affirmation, qui heurtera sans doute certains adeptes du déclinisme à la française : la productivité des économies mesurées en rapportant le PIB (c’est-à-dire la valeur totale des biens et services produits dans un pays au cours d’une année) au nombre total d’heures travaillées (salariés et non-salariés confondus) est quasiment identique en France et en Allemagne, comme d’ailleurs aux États-Unis. Elle représente environ 55 euros par heure travaillée en 2015, et est de plus de 25 % supérieure à celle enregistrée au Royaume-Uni ou en Italie, et près de trois fois plus élevée qu’en 1970 (après prise en compte de l’inflation et du niveau des prix dans les différents pays).

PIB par heure travaillée en parité de pouvoir d’achat et en euros 2015 (source © T. Piketty)

Contrairement à ce que certains voudraient faire croire, la France fait donc partie des quelques pays à forte productivité, de tels taux n’étant en effet dépassés que dans certaines économies très spécifiques basées sur la rente pétrolière (Norvège ou Émirats Arabes Unis par exemple) ou sur les paradis fiscaux (comme le Luxembourg).

Plus instructif encore, on observe que jusque dans les années 1970, la productivité américaine était très supérieure à celle des économies européennes, France comprise. Si la France et l’Allemagne ont pu grosso modo rattraper leur retard dès la fin des années 1980, c’est pour l’essentiel en ayant investi massivement dans l’éducation de leur population en généralisant l’accès à l’enseignement secondaire puis supérieur, avec plus de réussite que nos voisins britanniques et italiens, et davantage d’équité aussi que nos concurrents américains… Comme quoi, miser sur l’éducation est une nécessité absolue !

Nombre d’heures travaillées par an et par emploi (source © T. Piketty)

Deuxième idée intéressante qui ressort de cette analyse de Thomas Piketty : si le PIB par habitant est supérieur aux États-Unis qu’en Europe où il est finalement très comparable entre la France, l’Allemagne et le Royaume Uni (de l’ordre de 3000 € par mois et par personne), c’est parce que le volume d’heures travaillées y est très différent.

Thomas Piketty (crédit photo © Ekko von Schwichow)

Si l’on rapporte le nombre d’heures travaillées au nombre d’emplois, on observe ainsi que ce chiffre est en diminution régulière depuis les années 1970 en France et plus encore en Allemagne (où le phénomène est encore accentué par le développement du temps partiel imposé) alors qu’il est resté nettement plus élevé au Royaume Uni et surtout aux États-Unis. Les 1500 heures travaillées actuellement en moyenne par an en France correspondent peu ou prou à 35 heures hebdomadaires pendant 44 semaines alors que la durée des congés aux USA n’a quasiment pas augmenté depuis les années 1980, ce qui traduit une différence notable de choix de société.

Troisième notion évoquée dans cette analyse : le taux d’emploi par habitant qui, en France, stagne autour de 42 % alors qu’en Allemagne il s’accroit régulièrement depuis le début des années 2000 pour s’approcher désormais de la barre des 50 %. Ce décrochage très significatif de l’emploi en France depuis une quinzaine d’années est particulièrement significatif chez les moins de 25 ans et les plus de 55 ans, reflétant des faiblesses manifestes et inquiétantes en matière de formation professionnelle, de structuration du tissu industriel, de gouvernance des entreprises, mais aussi de financement de la protection sociale.

Dernier point qui mérite aussi d’être cité, sans prétendre tout dévoiler de cette analyse comparative très complète développée ici par Thomas Piketty : la question de l’excédent commercial allemand qui depuis les années 2000 représente toujours plus de 5 % de son PIB, atteignant même jusqu’à 8 % en 2015. Une situation totalement inédite pour un grand pays développé.

Le port à containers d’Hambourg, porte ouverte vers l’exportation

Le Japon a connu lui aussi dans les années 1980 des périodes d’excédent commercial qui lui ont permis d’accumuler des liquidités destinées à anticiper le vieillissement de sa population mais est depuis revenu à l’équilibre et présente même actuellement de nouveau une situation de léger déficit. Au même titre que la France d’ailleurs qui oscille régulièrement entre léger excédent et déficit modéré, alors que les États-Unis se distinguent depuis les années 1980 par un déficit chronique rendu possible par le rôle particulier de leur monnaie qui leur permet de rendre tolérable leur situation d’endettement financier permanent.

Reste que cette situation très particulière d’excédent commercial paraît peu durable à terme car elle suppose d’une part que les autres pays puissent absorber un tel excédent et d’autre part que l’Allemagne soit capable d’investir de manière judicieuse les liquidités ainsi accumulées, ce qui ne semble guère être le cas. La logique voudrait que le pays investisse désormais de manière plus significative dans les salaires (longtemps gelés), dans la consommation et dans l’investissement en Allemagne, afin de rééquilibrer son économie : un véritable défi pour la chancelière Angela Merkel qui peine toujours à former un gouvernement de coalition, cinq mois après les dernières élections législatives, mais un défi aussi pour la construction européenne et la solidité du tandem moteur franco-allemand !

L.V.  

A Paris comme à Marseille, le Préfet qui s’attaque aux cas d’eau

25 février 2018 by

En France, selon une tradition républicaine solidement établie, les Préfets restent rarement très longtemps au même poste, histoire d’éviter qu’ils s’engluent dans le réseau de notabilité locale au risque de perdre le recul nécessaire à ceux qui sont d’abord chargés de faire appliquer localement les règles de la Nation et les orientations du Gouvernement. Rares sont donc sans doute ceux qui se souviennent encore du nom de celui qui fut Préfet des Bouches-du-Rhône et Préfet de Région à Marseille entre juin 2013 et juillet 2015.

Martine Vassal à La Ciotat le 17 juin 2015 en présence de Patrick Boré (au centre) et de Michel Cadot (à droite), encore préfet des Bouches-du-Rhône (source © TPBM)

Gageons néanmoins que la Présidente du Conseil Départemental des Bouches-du-Rhône, Martine Vassal, élue à ce poste prestigieux en remplacement de l’inénarrable Jean-Noël Guérini, s’en souvient parfaitement. Car c’est bel et bien le Préfet Michel Cadot, haut fonctionnaire austère, issu de la promotion Voltaire de l’ENA, tout comme François Hollande, et qui fut un temps directeur de cabinet de Michèle Alliot-Marie au Ministère de l’Intérieur, qui est à l’origine des ennuis judiciaires dans lesquels elle est désormais empêtrée.

Petit retour en arrière, pour ceux qui l’auraient oublié : en 2013, après avoir confié pendant 53 ans sans discontinuer (un record !) la distribution de l’eau potable à la SEM (Société des Eaux de Marseille, désormais entièrement entre les mains de Véolia), la Communauté urbaine Marseille Provence Métropole avait remis en jeu cette délégation de service publique, pour se mettre enfin en conformité avec la loi. Et surprise, le 31 octobre 2013, trois des 4 lots (un pour l’eau potable et deux concernant l’assainissement, représentant quand même la bagatelle de 3,2 milliards d’euros) ont été attribués de nouveau à la SEM pour 15 ans supplémentaires, au terme d’une procédure manifestement entachée de très nombreuses irrégularités, ainsi que nous l’avions déjà évoqué ici.

Outré par de telles pratiques, le Préfet Cadot a donc saisi immédiatement la Cour Régionale des Comptes qui avait rendu très rapidement ses conclusions, totalement accablantes. Rendu public après les élections municipales de mars 2014, le rapport met tout particulièrement en cause le rôle de Martine Vassal, alors simple conseillère départementale mais déjà adjointe au maire de Marseille et surtout présidente de la commission Agglomération éco-responsable de MPM. A ce titre, c’est elle qui a présenté devant les élus de la commission d’examen des offres les conclusions de l’analyse des offres après avoir participé en direct aux négociations avec les entreprises, orientant sans difficulté la décision en faveur de la SEM.

Or la Cour Régionale des Comptes pointe un conflit d’intérêt manifeste puisque Martine Vassal était à l’époque trésorière du Forum mondial de l’eau, une association destinée à défendre les intérêts des multinationales françaises de l’eau au premier rang desquelles Véolia, et dont le président, un certain Loïc Fauchon, lui-même ancien secrétaire général de la Ville de Marseille, est par ailleurs PDG de la SEM. Pendant la précédente réunion du Forum mondial de l’eau qui s’était comme par hasard tenue à Marseille en mars 2012, en pleine phase de renégociation du contrat de la SEM, Martine Vassal s’était montrée particulièrement proche de Loïc Fauchon…

Eugène Caselli, Jean-Claude Gaudin, Loïc Fauchon (de gauche à droite) et Martine Vassal lors de la clôture du Forum mondial de l’eau en 2012 (crédit photo © Christophe Taamourte / 6th Water World Forum)

L’affaire avait été jugée alors si grave et susceptible d’être constitutive d’infractions pénales, que le Procureur de la République avait été saisi. On avait finalement appris, en 2015, que ce dernier avait transféré le dossier au Parquet national financier, créé suite à l’affaire Cahuzac pour juger les faits d’évasion fiscale et de corruption. Ceci n’avait pas empêché Martine Vassal de devenir entre temps 2ème adjointe au maire de Marseille, puis Présidente du Conseil Départemental des Bouches-du-Rhône, et finalement première Vice-Présidente de la Métropole Aix-Marseille-Provence : des postes clés dans le cadre de la réorganisation territoriale de l’agglomération marseillaise et qui la placent en position idéale pour succéder, peut-être même avant la fin de son mandat, à un Jean-Claude Gaudin vieillissant.

Le nouveau siège social de Véolia à Aubervilliers (crédit photo © C. Majani / Véolia)

Sauf que depuis, l’affaire a prospéré… Le 12 janvier 2015, le Parquet national financier ouvre donc une enquête préliminaire pour favoritisme et prise illégale d’intérêt, complicité et recel de ces délits. Le siège parisien de Véolia est perquisitionné en avril et le 10 novembre de la même année, un procureur accompagné d’enquêteurs de la Division économique et financière de la Police Judiciaire de Marseille, frappent à la porte du bureau de Martine Vassal pour une perquisition en bonne et due forme, avant d’aller visiter son domicile dans l’après-midi, puis de s’intéresser au bureau du Directeur général des services de MPM et au siège de la Société des Eaux de Marseille.

Et les choses ne s’en arrêtent pas là puisque le 22 juin 2017, la présidente du Conseil Départementale est placée en garde à vue pendant 15 heures dans les locaux de la Brigade financière, ainsi d’ailleurs que son grand ami Loïc Fauchon. Le maire de Marseille, Jean-Claude Gaudin en personne, est lui-même longuement entendu par les enquêteurs ce même jour, comme simple témoin car une mise en garde à vue aurait nécessité la levée préalable de son immunité parlementaire alors qu’il détenait encore à cette date un mandat de sénateur.

Depuis, rien n’a filtré quant aux suites judiciaires de cette affaire qui risque de déboucher sur un renvoi devant le tribunnal correctionnel, à moins que le dossier ne soit finalement classé sans suite… Quoi qu’il arrive, l’image de vertu que voulait donner Martine Vassal en arrivant à la tête du Département risque d’en être quelque peu écornée, elle qui disait vouloir en finir avec « le clientélisme » de son prédécesseur et déclarait vouloir placer son mandat « sous le signe de la transparence et de l’équité »…

Le Préfet Michel Cadot (crédit photo © P. Magnien / 20 minutes)

Et pendant ce temps là, le Préfet Cadot, à l’origine de ce coup de pied rageur dans la fourmilière, poursuivait sa carrière comme Préfet de Police de Paris. Le 17 avril 2017, il chute malencontreusement de son Vélib et se déboîte la hanche, au point de demander à être remplacé à son poste par son collègue Michel Delpuech qui venait pourtant tout juste d’être nommé Préfet de Région Ile de France en remplacement de Jean-François Carenco. Et c’est donc finalement Michel Cadot lui-même qui est nommé le 14 juin 2017 à ce poste de Préfet de Paris, Préfet de Région, et qui se retrouve illico confronté aux nouvelles frasques de Véolia, cette fois dans le cadre d’un contrat lié à l’exploitation de la station d’épuration de Valenton pour le compte du SIAAP, le Syndicat interdépartemental pour l’assainissement de l’agglomération parisienne, qui gère les eaux usées de près de 9 millions de Franciliens.

En l’occurrence, le contrat d’exploitation de cette immense station d’épuration représente 397 millions d’euros sur 12 ans et, curieusement, le marché a été remporté par Véolia face à son éternel concurrent Suez, alors que son offre était pourtant plus chère (de 37 millions quand même !).

Vue de l’usine du SIAAP à Valenton (crédit photo © Emmanuel Riche / ODYSEE pour le SIAAP)

Cette fois, c’est le Tribunal administratif qui a été saisi de l’affaire, avec du coup une réaction beaucoup plus rapide que dans l’affaire marseillaise. Une première ordonnance a été rendue le 15 novembre 2017 par le Tribunal administratif qui met bien en évidence des éléments constitutifs d’un délit de favoritisme dans l’attribution de ce marché dont l’application a donc été suspendue par les juges à compter du 28 novembre, le temps pour le SIAAP de remédier aux irrégularités constatées.

Mais le Préfet Cadot n’a pas accepté d’en rester là et a fait appel, afin d’obtenir l’annulation du contrat et permettre de relancer l’appel d’offre sur des bases plus saines. En l’occurrence, la stratégie du Préfet est plus globale et vise la reconfiguration complète de la gouvernance territoriale du Grand Paris, encore en plein chantier. Il n’en demeure pas moins que ses attaques insistantes contre les bonnes vieilles habitudes de Véolia et sa proximité avec certains élus locaux ne doivent pas manquer d’en agacer certains…

L.V.  

Changement climatique : pourquoi personne ne bouge ?

22 février 2018 by

Depuis maintenant des années que les scientifiques du monde entier tirent la sonnette d’alarme, chacun sait que la température moyenne à la surface du globe s’élève progressivement, que le niveau moyen des mers monte petit à petit, et que les répercussions de cette évolution inéluctable risquent d’être dramatiques, en particulier dans les pays les moins développés, avec une recrudescence des vagues de sécheresses et d’aléas climatiques aux conséquences potentiellement dévastatrices, y compris avec des recrudescences d’épidémies voire de guerres.

Chacun sait bien désormais aussi que le principal moteur de ce changement climatique global, perceptible depuis le début du XXe siècle mais qui s’est dangereusement accéléré ces derniers temps et qui va encore s’aggraver dans les années qui viennent, quoi qu’on fasse, est l’activité humaine qui s’est traduite depuis plus d’un siècle par une consommation massive d’énergie fossile et une émission jamais égalée de gaz à effets de serre (CO2 et méthane pour les principaux).

Il y a belle lurette que les climatosceptiques, chantres de l’industrie pétrolière ou charlatans irresponsables, ont perdu toute crédibilité. Les publications scientifiques du GIEC, qui décrivent année après année une situation de plus en plus alarmante et de moins en moins réversible, ne sont plus contestées et les grands raouts internationaux tels que les COP s’enchaînent sans discontinuer, au cours desquels chacun y va de son discours grandiloquent sur la nécessité et l’urgence d’agir avant qu’il ne soit trop tard.

Un dessin d’Olivier Ménégol publié par Buzzly

Et pourtant, malgré cette prise de conscience planétaire incontestable, il ne se passe rien ou presque. Les États-Unis, deuxième émetteur mondial de gaz à effet de serre derrière la Chine, se sont choisi un président qui préfère développer l’extraction des huiles de schistes et relancer l’industrie pétrolière plutôt que de s’embarrasser de considérations environnementales. Et les belles promesses prises à l’occasion de la COP 21 ne se sont guère concrétisées depuis, aucune décision notable n’ayant été prisse à l’issue de la COP 23 qui vient de se terminer à Bonn. Tout se passe comme si chacun était conscient du risque et avait bien intégré les mesures à prendre pour le contrer mais préférait faire l’autruche comme si de rien n’était…

Contrairement à d’autres menaces comme celle de l’attentat terroriste ou de l’immigration mal contrôlée, pour lesquelles tout le monde se mobilise et qui incitent même nos responsables politiques à la surenchère, faire face au changement climatique semble beaucoup moins mobilisateur. C’est cette situation paradoxale qu’a parfaitement analysée le sociologue et philosophe américain George Marshall dans son livre intitulé justement Le syndrome de l’autruche : pourquoi notre cerveau veut ignorer le changement climatique ?

En réalité, cette inaction collective face à la menace pourtant avérée du changement climatique relève de ressorts liés à la psychologie sociale. Ce ne sont pas tant les campagnes de désinformation menées par certains lobbies industriels qui nous empêchent de nous mobiliser à la hauteur des enjeux, mais plus profondément la nature même de ce risque face auquel « notre cerveau évolué est incapable de réagir » selon Daniel Gilbert, professeur de psychologie à Harvard.

Contrairement à d’autres risques plus tangibles, le changement climatique se caractérise en effet par une menace diffuse, à long terme, qui n’est pas rattachable à un adversaire aisément identifié, mais qui provient de notre propre mode de vie… On est volontiers capable de se mobiliser contre une menace directe telle que l’implantation d’une centrale nucléaire ou d’un incinérateur d’ordures ménagères, surtout si elle se produit à côté de chez soi. En revanche, décider de moins utiliser sa voiture ou son smartphone, de ne pas prendre l’avion pour partir en vacances ou de baisser sa chaudière, tout cela pour faire en sorte que le climat reste vivable pour les générations à venir, voilà qui ne fait pas partie de nos gènes !

« Tout le monde contribue aux émissions à l’origine du problème ; tout le monde a donc une bonne raison d’ignorer le problème ou de s’inventer un alibi » estime ainsi George Marshall dans son ouvrage. Personne n’a envie qu’on lui rappelle la menace mondiale qui pèse sur chacun d’entre nous en cas d’inactivité prolongée. Même ceux qui ont subi un cataclysme pourtant assez directement rattaché au changement climatique, comme c’est le cas des victimes de l’ouragan Sandy dans le New Jersey, que George Marshall a interrogés, même eux préfèrent voir dans cet événement un aléa exceptionnel contre lequel on ne peut rien, mais n’envisagent pas pour autant de modifier leur mode de vie pour éviter que ce type de phénomène ne devienne monnaie courante.

En 2012, l’ouragan Sandy ravage la côte Est des États-Unis (photo © Shannon Stapleton / Reuters paru dans Geopolis)

On retrouve là le syndrome classique du responsable politique face à tout risque naturel. Les maires que l’on voit s’épandre devant toutes les caméras de télévision après chaque inondation pour déplorer un phénomène cataclysmique « jamais vu de mémoire d’homme » et implorer des aides à la reconstruction, sont les mêmes qui ensuite accordent des permis de construire en zone inondable en toute bonne foi, justement parce qu’ils sont persuadés qu’il s’agit là d’événements exceptionnels qui ne sont pas destinés à se reproduire, en tout cas pas pendant la durée de leur mandat électif…

Un dessin d’Ysope

C’est donc toute la difficulté à laquelle on se heurte pour faire face au changement climatique. Même si la plupart des gens sont convaincus de la réalité du phénomène, il n’en reste pas moins une menace floue, difficile à quantifiée du fait de ses manifestations aléatoires, et dont les conséquences concerneront principalement les habitants d’autres contrées voire des générations futures que l’on ne connaîtra jamais. Il est donc bien difficile pour chacun d’entre nous de se mobiliser face à un tel risque, d’autant plus lorsque cela implique de devoir renoncer à une certaine part de son confort personnel et à modifier ses habitudes de vie au quotidien…

En d’autres termes, les ressorts psychologiques à actionner pour mobiliser l’opinion publique sur ce dossier restent largement à explorer. Comme l’explique bien Marion Rousset dans un article paru dans Marianne, il ne suffit pas de faire appel à la rationalité de chacun mais il convient aussi de mobiliser une certaine charge émotionnelle : défendre la nature de manière générale n’a jamais été très mobilisateur ; en revanche, défendre son territoire contre un envahisseur quel qu’il soit a toujours constitué un mobile fortement fédérateur !

Reste donc à explorer d’autres modes de communication pour faire en sorte que la lutte contre le changement climatique global implique davantage. La littérature et le cinéma ont peut-être un rôle à jouer dans un tel combat. C’est ce que suggère Claire Perrin, doctorante en littérature américaine, dans un article consacré à ce nouveau genre littéraire de la cli-fi, la fiction climatique qui s’apparente souvent à des récits post-apocalyptiques où les personnages évoluent dans un monde ravagé par les effets du changement climatique. Depuis le succès des Raisins de la colère qui évoquait déjà les impacts sociaux d’une catastrophe climatique, nombre d’auteurs s’emparent de ce thème, parmi lesquels Paolo Bacigalupi, dont le roman The Water Knife, met en scène un combat homérique dans le Sud-Ouest américain pour l’accès à l’eau…

Faut-il donc encourager la production littéraire et cinématographique pour faciliter la mobilisation collective contre le réchauffement climatique ? Les talents artistiques peuvent-ils venir au secours des scientifiques, prompts à identifier les phénomènes, en analyser les causes et à proposer des panels de solutions techniques, mais peu outillés pour mobiliser l’imaginaire collectif ? Peut-être des pistes à explorer, pendant qu’il en est encore temps…

L.V.  

La conférence sur les mondes lointains se rapproche…

19 février 2018 by

Vous qui avez toujours voulu tout savoir sur les mystères de l’univers et la découverte des mondes lointains grâce aux télescopes géants, ne manquez pas la prochaine conférence du Cercle progressiste carnussien, déjà annoncée ici et qui se tiendra cette semaine à Carnoux-en-Provence, jeudi 22 février 2018 à partir de 18h30, dans la salle du Clos Blancheton, rue Tony Garnier.

C’est Jean-Gabriel Cuby, astronome au Laboratoire d’astrophysique de Marseille et spécialiste de l’observation spatiale à l’aide des télescopes géants, qui animera cet échange et qui retracera l’histoire de l’observation de l’Univers ainsi que celle des recherches les plus récentes dont la construction en cours du télescope européen le plus grand du monde, dans le désert d’Atacama au Chili.

Ne manquez pas ce petit moment d’évasion vers les univers lointains qui nous entourent. Comme à l’accoutumée, l’accès à cette conférence est libre et gratuit, dans la limite des places disponibles, et les échanges avec le conférencier seront suivis d’un apéritif convivial.

Sainte-Baume : le PNR nouveau est né !

17 février 2018 by

Rencontre le 21 décembre 2017 entre le premier ministre Edouard Philippe et le président du PNR Sainte-Baume en présence du président de la Région PACA, Renaud Muselier (source © PNR Sainte-Baume)

Ce n’est pas vraiment une surprise mais plutôt l’aboutissement d’un long et patient processus d’élaboration concertée qui a permis d’aboutir, le 20 décembre 2017 à la naissance officielle, via un décret signé par le premier ministre Edouard Philippe, du parc naturel régional (PNR) de la Sainte-Baume, le 52ème parc ainsi créé en France. Cinquante ans après la création du concept de « parc naturel régional » en 1967 par le Général de Gaulle, ces 52 PNR couvrent désormais 15 % du territoire national et 6 % de la population française y habite.

En effet, contrairement aux parc nationaux qui existent en France depuis 1963 mais qui ont plutôt vocation à protéger des espaces naturels peu habités, les PNR ont été créés sous l’impulsion de la DATAR dans une perspective d’aménagement d’espaces ruraux dans des secteurs qui présentent non seulement un patrimoine environnemental remarquable mais aussi un patrimoine culturel voire un cadre de vie et d’activités qu’il importe de préserver en vue de favoriser le développement économique et touristique local.

La région PACA possède désormais 8 parc naturels régionaux dont le plus emblématique est sans doute celui de Camargue, mais parmi lesquels on peut citer aussi ceux du Queyras, du Luberon, du Verdon ou encore des Alpilles. Autant de lieux d’une grande richesse écologique et qui présentent des paysages hors du commun, mais qui sont avant tout des espaces de vie structurés autour d’une charte qui traduit un véritable projet de développement territorial.

Pour ce qui concerne le PNR de la Sainte-Baume, le projet était en gestation depuis une dizaine d’années, même si certains pionniers en soutenaient l’idée depuis les années 1970, et a fait l’objet ces derniers temps d’une intense concertation entre les collectivités locales, les services de l’État, les partenaires associatifs et les acteurs économiques. Présidé par Michel Gros, par ailleurs maire de La Roquebrussane, le nouveau PNR couvre une superficie de 810 km² et s’étend sur le territoire de 26 communes du Var et des Bouches-du-Rhône. 80 % de ce territoire est constitué d’espaces naturels mais 58 500 habitants y vivent, avec des activités économiques variées.

Limites du périmètre du PNR Sainte-Baume

Le parc est situé aux portes de Carnoux puisque la commune tout proche de Cuges-les-Pins est entièrement située dans le périmètre du nouveau PNR qui s’étend au nord jusqu’à Saint-Maximin et à l’est jusqu’à Brignoles. L’inauguration du nouveau parc n’est pas encore fixée mais devrait avoir lieu au cours du premier trimestre 2018.

En attendant, le syndicat mixte du PNR anime déjà depuis un an les deux sites Natura 2000 partiellement juxtaposés au cœur du parc : Massif de la Sainte-Baume (zone spéciale de conservation, définie au titre de la directive européenne Habitats) et Sainte-Baume occidentale (zone de protection spéciale, définie au titre de la directive européenne Oiseaux). Des inventaires biologiques et une étude socio-économique ont déjà été conduits en 2017 dans ce cadre, en vue de définir les enjeux et les objectifs de conservation. Une fois ce diagnostic posé, un programme d’action sera élaboré d’ici 2019, afin de définir les axes d’intervention pour préserver ce patrimoine naturel remarquable qui contient notamment la fameuse hêtraie historique de la Sainte-Baume ainsi que des sources pétrifiantes spectaculaires dans des formations de travertins, et qui abrite de nombreuses espèces animales et végétales rares.

Entablements de travertins à la source de l’Huveaune (source © Les balades de Gecko)

Le processus de concertation engagé depuis des années avec de nombreux acteurs du territoire en vue de l’émergence de ce nouveau PNR est détaillé sur le site du nouveau syndicat mixte. On y retrouve, outre de nombreux éléments de présentation du projet, dont un film grand public qui met en avant les atouts et caractéristiques de ce territoire, un rappel de la genèse de cette aventure qui s’est concrétisée en 2012 par la création d’un syndicat de préfiguration du futur PNR. L’année suivante a été mis sur pied un Conseil de développement, rassemblant de nombreux acteurs locaux fédérés autour du projet, et a été lancée la concertation en vue d’élaborer un diagnostic partagé et de dessiner les grandes lignes de la future charte du parc.

Un document de synthèse qui présente les grandes lignes de la charte

Il a fallu ensuite attendre 2015 pour que soit finalisée cette charte destinée à fixer pour les 15 ans à venir les grandes orientation du nouveau PNR. L’année 2016 a été mise à profit pour lancer la consultation auprès du Conseil national de protection de la nature et auprès des habitants (enquête publique), ainsi que pour permettre aux collectivités concernées de délibérer pour exprimer leur volonté d’adhésion. Et c’est donc en 2017 seulement que le syndicat mixte de préfiguration s’est transformé en syndicat mixte du parc tandis que le décret ministériel de labellisation du nouveau PNR était signé officiellement le 20 décembre dernier.

C’est donc à l’issue d’un long processus de co-construction que voit le jour cette nouvelle structure qui est désormais destinée à protéger et valoriser le patrimoine naturel, culturel et humain de ce vaste espace remarquable, via la mise en œuvre d’une politique cohérente d’aménagement et de développement économique, social et culturel, respectueuse de l’environnement.

La grotte de Ste Marie Madeleine à Plans d’Aups, un des sites emblématique du nouveau PNR (source © Provence verte)

Tout un programme qui va demander beaucoup de diplomatie et de pédagogie pour arriver à concilier les impératifs de préservation d’un écosystème fragile avec les ambitions légitimes des acteurs locaux en matière de développement économique et touristique, où comment marier en bonne intelligence les exploitations de carrières avec la préservation durable des ressources en eau du massif, les nuisances sonores du circuit automobile du Castellet avec le maintien d’une faune d’aigles de Bonelli et de chauve-souris endémiques, l’afflux de touristes avec les nécessités de recueillement autour de la grotte de Sainte Marie-Madeleine, les soucis de préservation du paysage avec le souhait de développer des sites de production d’électricité par centrales photovoltaïques, ou encore l’extension de la viticulture avec le développement d’une agriculture biologique adepte des circuits courts ?

Autant de défis passionnants auxquels le nouveau PNR de la Sainte-Baume va se trouver confronté au jour le jour et qui donnent un aperçu des difficultés de la tâche qui l’attend !

L.V.  

Des villes menacées par la pénurie d’eau ?

15 février 2018 by

C’est un article publié en janvier 2018 dans la revue Nature Sustainability par deux chercheurs allemands et un collègue américain qui l’affirme : d’ici 2050, les besoins en eau dans les grandes villes vont augmenter de 80 % alors même que l’accessibilité aux ressources en eau va se réduire du fait du changement climatique, ce qui pourrait se traduire par des situations de pénurie.

Déjà aujourd’hui 3,9 milliards de personnes, soit plus de la moitié de la population mondiale, vivent en ville et cette proportion va encore s’accroître pour atteindre 60 voire 90 % de la population d’ici la fin du siècle. Cette augmentation spectaculaire de la population urbaine, couplée avec une demande accrue en confort domestique liée à l’hygiène et à la santé, va inéluctablement se traduire par une forte augmentation des besoins en eau pour approvisionner ces centres urbains.

L’étude de ces chercheurs, qui vient compléter de nombreuses projections allant déjà dans le même sens, s’est focalisée sur 482 agglomérations parmi les plus grandes du monde (dont Paris), totalisant 736 millions d’habitants. Elle a porté sur la période 1971-2000 puis s’est attachée à établir des prospectives sur la base de scénarios classiques de changement climatique et d’évolutions socio-économiques.

L’analyse montre ainsi que, même en considérant que l’approvisionnement des villes est considéré comme prioritaire par rapport à tous les autres usages et sans tenir compte des impacts éventuels sur l’environnement, 16 % des villes sont déjà sujettes à un déficit des ressources en eau de surface par rapport à leurs besoins, et que cette proportion pourrait monter à 27 % d’ici 2050 en prenant en compte les effets du changement climatique.

Situation des 482 villes étudiées : en blanc, celles qui ne sont pas considérées comme vulnérables, en rouge celles qui le sont même si l’affectation des ressources leur est prioritairement consacrée, en bleu et en vert celles qui ne le deviennent que dans des hypothèses plus sévères de priorisation des usages agricoles ou de l’environnement (source : Nature Sustainability)

Si de surcroît on s’attache à préserver les débits minimums à laisser dans les cours d’eau pour y permettre le maintien d’une vie aquatique, alors ce sont près de la moitié des villes étudiées qui risquent de connaître des difficultés d’approvisionnement en eau de surface à l’avenir. Sans surprise, ces grandes agglomérations les plus vulnérables à ce déficit en eau sont situées dans l’Ouest américain (Los Angeles en étant l’exemple emblématique) et dans le Sud de l’Asie, tout particulièrement en Inde.

Pour pallier cette insuffisance des ressources en eaux superficielles, puisées directement dans les cours d’eau, il faudra sans doute recourir davantage aux eaux souterraines. Mais les projections liées au changement climatique mettent toutes en avant un risque de baisse des niveaux des nappes phréatiques, ce qui se traduira par une raréfaction de ces ressources en eau et un renchérissement de leurs coûts d’exploitation.

Le canal de Marseille (photo © Munoz)

Il faudra donc recourir à des transferts d’eau comme on en connaît déjà dans notre région où une large partie des zones urbanisées des Bouches-du-Rhône et du Var est alimentée par de l’eau issue de la Durance et du Verdon. Mais ceci se fera nécessairement au détriment des besoins de l’agriculture locale et l’étude de ces trois chercheurs met donc en exergue le risque de conflits d’usage et la nécessité d’optimiser les procédés techniques d’irrigation (mais aussi de distribution de l’eau potable) afin de limiter autant que possible les fuites et les gaspillages dans un tel contexte de raréfaction de la ressource.

Bref, rien de bien révolutionnaire dans cette étude qui a pourtant été largement médiatisée, y compris dans des journaux comme Les Echos. Mais il n’est quand même pas inutile de rappeler ce type de constat et de tirer la sonnette d’alarme quant à un risque que l’on a tendance à oublier. D’autant que nombre de villes qui ne figurent pas dans la liste des plus menacées, connaissent déjà de sérieuses difficultés pour approvisionner leur population. C’est le cas notamment de Mexico où les coupures d’eau sont déjà monnaie courante et où l’eau est acheminée sur des distances de plus en plus élevées, avec un taux de déperdition très élevé.

« L’eau ne va pas manquer à Sao Paulo » (source © Ricardo Carlos Gaspar / Tlaxcala)

Et l’on pourrait citer bien d’autres exemples du même type, dont Sao Paulo, au Brésil, qui en 2015 a frôlé la pénurie absolue, sauvée in extremis par l’arrivée providentielles de pluies diluviennes, mais aussi Melbourne, en Australie, où les autorités estiment que, d’ici 10 ans, la ville ne sera plus en mesure de faire face aux besoins en eau de sa population.

Et l’actualité s’est fait l’écho également de la ville du Cap en Afrique du Sud, où l’approvisionnement en eau des habitants devient critique après 3 années consécutives de sécheresse qui ont fait drastiquement diminuer les réserves en eau disponibles. Les réservoirs de la ville, qui compte 4 millions d’habitants, sont actuellement à 25 % seulement de leur capacité et les autorités ont décidé que lorsque ce niveau atteindra 13,5 %, les trois-quarts de la population se verront brutalement privés d’approvisionnement en eau afin de réserver les précieuses ressources aux besoins jugés prioritaires, dont les centres de santé et les écoles.

On ne sait pas très bien quand se produira cette coupure d’eau massive mais les projections actuelles la situent pour le 11 mai, ce qui constitue une échéance assez proche ! Ce jour-là, la population privée d’eau sera invitée à se ravitailler auprès de 200 points d’eau soigneusement gardés par les forces de l’ordre et où il sera délivré un quota de 25 l par jour et par personne : à la guerre comme à la guerre…

Point d’eau préparé en prévision de la pénurie au Cap (photo © Anthony Molyneaux / TimesLIVE)

Depuis des mois, la municipalité multiplie les campagnes de sensibilisation pour inciter chacun à restreindre sa consommation, mais celle-ci ne baisse guère et reste largement supérieure au seuil qui permettrait à la ville de passer ce cap alarmant. Même l’augmentation spectaculaire du prix de l’eau qui est passé le 1er février 2018 de l’équivalent de 0,3 à plus de 2 € le m3, n’a semble-t-il guère eu d’impact, du moins jusqu’à présent…

Du coup, les techniciens s’échinent à accélérer la mise en œuvre des projets permettant d’offrir des ressources alternatives. Une première usine de désalinisation de l’eau de mer devrait ainsi entrer en production d’ici la fin du mois, permettant d’offrir 2 000 m3/jour, une goutte d’eau par rapport aux besoins de la ville qui consomme 457 000 m3/jour. D’autres usines sont en construction mais les chantiers ont pris du retard. On envisage donc désormais d’aller puiser dans plusieurs aquifères dont l’un situé sous la montagne de la Table, au risque que ces ressources s’épuisent très rapidement si les pompages excèdent les capacités de renouvellement par infiltration, faute de pluies !

On n’a probablement pas fini de parler de ces problèmes d’approvisionnement en eau de nos grandes agglomérations urbaines…

 L.V.

Alimentation : les consommateurs passent à l’action !

12 février 2018 by

Dessin signé JM

En France, un tiers des adultes sont en surpoids et 7 millions de Français sont considérés comme obèses, ce qui représente quand même 15 % de la population. Et le phénomène n’arrête pas de s’aggraver : en 1965, seuls 3 % des enfants d’âge scolaire étaient obèses alors que cette proportion atteignait 13,3 % en 2000 et ne cesse de croître depuis. Une situation d’autant plus inquiétante que l’obésité acquise avant l’âge de 5 ans persiste ensuite à l’âge adulte. On reste certes loin des chiffres de nos amis canadiens où 26 % des enfants sont considérés en surpoids tandis que 36 % des adultes présentent de l’embonpoint et 25 % sont classés obèses. Reconnue comme maladie chronique depuis 1997 par l’OMS, l’obésité est devenue un problème majeur de santé publique.

Pourtant, en matière nutritionnelle, les principes à respecter sont simples et identifiés depuis bien longtemps. Sur le plan quantitatif, il s’agit de fournir à son corps de quoi équilibrer les dépenses énergétiques qui dépendent de différents facteurs dont l’activité physique, mais qui correspondent grosso modo à 2500 Cal/jour pour un homme et autour de 2000 pour une femme. Et sur le plan qualitatif, il est bien connu qu’il convient d’éviter de grignoter entre les repas et qu’il vaut mieux privilégier la consommation de fruits et légumes et limiter les apports en lipides, sel et sucres. Des règles de base que l’école comme les messages de santé publique n’arrêtent pas de rabâcher.

Composition des plats préparés : des listes de composants à rallonge… (source © Bien-être et fitness)

Seulement voilà : autant il est facile de faire des choix alimentaires sains lorsque l’on achète des produits bruts pour les cuisiner soi-même, autant la tendance est désormais de consommer pour l’essentiel (à 70 % dans un pays comme la France) des produits transformés, issus de l’industrie agro-alimentaire, et préparés principalement à base d’ingrédients peu coûteux et présentant des caractéristiques nutritionnelles déplorables : riches en calories, en graisses, en sucres et en sel, mais pauvres en fibres, en vitamines et en sels minéraux…

Le professeur Serge Hercberg (source © Observatoire des aliments)

Pour faire face à ce véritable fléau de santé publique et guider les consommateurs dans leurs achats, l’épidémiologiste Serge Hercberg, expert en nutrition à l’INSERM et président du Plan national nutrition santé, lancé en 2006, préconise depuis 2014 d’adopter un code couleur ultra simple permettant de classer de A (produit le plus favorable sur le plan nutritionnel) à E des aliments transformés, en se basant sur l’analyse de la composition de 100 g du produit, analyse qui prend en compte d’une part les nutriments jugés favorables (fibres, protéines, fruits et légumes) et d’autre part ceux à limiter (acides gras saturés, éléments caloriques, sucres, sel).

Ce code couleur ultra simple et très pédagogique pour les consommateurs, dénommé Nutri-Score, permet de comparer d’un seul coup d’œil dans les rayons du supermarché, la pizza surgelée ou le paquet de céréales qui présente la meilleure qualité nutritionnelle.

Une véritable hérésie pour les entreprises de l’agro-alimentaire et la grande distribution qui se battent bec et ongles depuis des années pour empêcher l’adoption d’un tel dispositif. Il faut lire les discours du président de l’ANIA, l’Association nationale des industries agro-alimentaires, pour voir avec quelle mauvaise foi les industriels du secteur s’acharnent à démonter une telle approche de santé publique afin de préserver leurs intérêts : « l’ANIA maintient son opposition à tout dispositif d’étiquetage nutritionnel simpliste reposant uniquement sur un code de couleurs et une approche médicalisée et théorique de l’alimentation. L’équilibre alimentaire d’un individu ne peut pas se réduire à une pastille de couleur sur un produit. Ces systèmes de notation nutritionnelle stigmatisent injustement les aliments car ils reposent sur des calculs théoriques prenant en compte 100 g de produit sans en distinguer la consommation réelle  par les consommateurs. »

Dessin signé Esclandre, publié dans Le querelleur

Comme toujours en la matière, les patrons du secteur préfèrent mettre en avant des démarches volontaristes basées sur la communication. Comparer la valeur nutritionnelle de deux produits en analysant la composition d’une même masse de référence de 100 g est une catastrophe à leurs yeux car le résultat est évidemment incontestable et pas forcément à leur avantage. En revanche, laisser libre cours à l’imagination de leurs équipes d’experts en marketing pour démontrer que, ramené à une « portion », leur produit est parfaitement adapté aux besoins du consommateur, voilà qui leur plaît davantage car laissant la porte ouverte à toutes les interprétations…

Histoire de gagner du temps en espérant que la pression retombe, les industriels ont donc réussi à bloquer le dispositif en 2015 et imposé aux pouvoirs publics une expérimentation en vraie grandeur et en conditions réelles d’achat, dans une soixantaine de points de vente répartis dans 4 régions. Cette expérimentation, qui s’est déroulé au dernier trimestre 2016, a porté sur 1200 produits référencés et a mis en concurrence 4 dispositifs différents d’affichage, dont deux très synthétiques basés sur un code à 4 (Sens) ou 5 couleurs (Nutri-Score) et deux autres plus analytiques et plus complexes, ayant la préférence des industriels et de la grande distribution car incompréhensibles pour le commun des mortels !

Les codes couleurs expérimentés fin 2016 (source Isa-conso)

Cette expérimentation s’est bien entendu accompagnée d’une vaste campagne d’information menée dans les magasins concernés, mais surtout d’analyses en continu à base d’enquêtes qualitatives et quantitatives conduites auprès des consommateurs et complétées par des études précises pour évaluer l’évolution des ventes, produit par produit. Ces résultats particulièrement riches ont permis à l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) de proposer finalement au ministère de la Santé d’adopter le système Nutri-Score, ainsi que l’a annoncé la ministre Marisol Touraine en mars 2017, en précisant que l’avantage de ce dispositif très simple « est plus marqué encore lorsqu’on observe spécifiquement le comportement des consommateurs qui achètent les produits les moins chers », justement le cœur de cible dans la lutte contre le surpoids.

Dessin de Xavier Delucq publié dans le Huffington Post

Comme il fallait s’y attendre, les industriels, par la voix de l’ANIA, comme la grande distribution via celle de la FCD (Fédération du commerce et de la distribution) ont aussitôt crié au scandale, prétextant que l’analyse de cette expérimentation aurait sans doute mérité d’être poursuivie plus longtemps, avec d’autant plus de conviction que la loi ne rend pas obligatoire l’apposition du nouveau logo sur les produits car la législation européenne ne le permet pas

Certes, en mai 2017, quelques mastodontes du secteur dont les firmes Auchan, Fleury-Michon, Intermarché et Leclerc, suivies par Danone et Mac Cain, se sont finalement engagées à jouer le jeu, même si jusqu’à présent le consommateur lambda n’en a encore guère vu les effets. Mais les 6 géants du secteur agro-alimentaire, à savoir Coca-Cola, Nestlé, Mars, Mondelez (ex Kraft food), Unilever et Pepsi-Co, ont décidé de concocter leur propre logo, histoire de bien embrouiller le chaland !

Mais les consommateurs ont de la ressource et il convient de saluer une initiative citoyenne qui vient d’émerger sous le nom d’Open Food Facts, et qui constitue une base de données ouverte et collaborative sur les produits alimentaires « faite par tout le monde, pour tout le monde ».

Exemple d’analyse nutritionnelle de yaourts brassés aux fruits, emballés à Aubagne (source © Open Food Facts)

Sur le même principe que Wikipédia, chaque consommateur peut y contribuer en aidant à répertorier la composition de produits alimentaires. Aidé de son smartphone, chacun est ainsi invité à photographier la liste des ingrédients et les informations nutritionnelles figurant sur les étiquettes des produits, afin de rendre les données facilement accessibles et aisément comparables. Plus de 420 000 produits auraient ainsi déjà été rendus transparents dans le monde : un vrai cauchemar pour l’industrie agro-alimentaire !

Comme l’explique Stéphane Gigandet, ex employé de Yahoo à l’origine de ce projet : « Tout est fait pour que l’on ne sache pas exactement ce que l’on mange, le type d’additifs, la quantité de sel, de graisses saturées, de sucres, ce qui se cache derrière un additif, l’origine du produit et son lieu de transformation. Notre but est de rendre les étiquettes intelligibles, pour que le consommateur reprenne le contrôle de son assiette ».

Pas sûr que cette initiative soit vraiment du goût des industriels de la malbouffe…

L.V.  

Une cartographie mondiale des rivières et plans d’eau

10 février 2018 by

En matière scientifique, la coopération européenne présente de belles réussites qui mériteraient d’être davantage diffusées. Le programme européen Copernicus, issu d’une initiative conjointe de l’Agence spatiale européenne et de l’Agence européenne pour l’environnement, et qui permet de développer la surveillance de la Terre par imagerie satellitaire en est un bel exemple. Initié en 1998 sous le nom un peu moins communicant de GMES pour « Global monitoring for environment and security », ce programme est désormais pleinement opérationnel depuis 2014 et le lancement des premiers satellites Sentinel.

L’objectif est simple puisqu’il s’agit d’acquérir et de mettre à disposition, des chercheurs comme des entrepreneurs ou des simples citoyens, des données satellitaires utiles pour permettre une compréhension globale des phénomènes, avec des retombées dans de multiples domaines dont l’agriculture, le changement climatique, la protection civile et l’aide humanitaire en cas de catastrophe, l’environnement, la planification en matière d’aménagement du territoire ou encore le développement des énergies renouvelables.

Parmi les principales thématiques visées par ce programme, la connaissance des phénomènes climatiques et de leur évolution, mais aussi la prévention contre les risques naturels constituent des domaines pour lesquels cette observation globale des phénomènes est tout particulièrement utile. Nous avions d’ailleurs déjà illustré l’intérêt des images ainsi produites et mises à disposition de tout un chacun pour évaluer par exemple l’extension spatiale d’un feu de forêt comme celui qui a menacé Carnoux le 7 septembre dernier.

Mais on pourrait citer aussi le suivi du panache de cendres issu de l’éruption du volcan islandais Eyjafjallajökull en 2010 qui a beaucoup fait parler de lui malgré son nom imprononçable, et a cloué au sol des millions de passagers dans toute l’Europe du fait des perturbations du trafic aérien occasionnées…

Suivi du panache de cendres du volcan Eyjafjallajökull (sources © Service Copernicus de surveillance de l’atmosphère et Centre européen pour les prévisions météorologiques à moyen terme)

Bien d’autres applications, toutes plus utiles les unes que les autres, pourraient être citées dans ce domaine. Ainsi, une brochure de présentation du programme cite les cartographies de zones inondées rendues possibles par l’interprétation d’images satellite lors des inondations de mai 2014 qui ont provoqué de gros dommages dans les Balkans et tout particulièrement en Serbie et en Bosnie Herzégovine.

Cartographie de l’étendue des zones inondées en mai 2014 dans la région de Lazarevac en Serbie (source © Service Copernicus de gestion des urgences)

Suite au passage de la dépression météorologique Yvette qui s’était traduit par des précipitations très inhabituelles (l’équivalent de trois mois de pluie était tombé en 3 jours !), plus de 2000 glissements de terrain s’étaient produits et les inondations avaient causé des dommages évalués à 3 milliards d’euros, faisant 49 victimes le 20 mai 2014 et nécessitant plusieurs centaines de milliers d’évacuations. Le fait de pouvoir cartographier très rapidement et sur l’ensemble des zones touchées les secteurs urbanisés inondés constitue une aide précieuse pour guider les programmes d’aide d’urgence.

Mais cet outil présente également de multiples intérêts pour aider à la connaissance globale de notre environnement. C’est ainsi qu’a été lancé début 2017 un programme de cartographie interactive des eaux de surface à l’échelle mondiale. Depuis plus de 30 ans que les satellites tournent autour de la Terre et en photographient la surface sous toutes ses coutures, plusieurs millions d’images se sont accumulées, formant une masse de données colossales, issue en particulier des satellites américains Landsat mais destinée à s’enrichir considérablement à l’avenir avec celles issues des satellites Sentinel.

Le programme intitulé « Global water surface explorer » initié par l’Union européenne via sa politique d’open data Copernicus et en collaboration avec Google Earth Engine, vise précisément à exploiter cette masse de données concernant les cours d’eau (rivières, canaux, fleuves) et les plans d’eau (étangs, lacs, retenues de barrages). L’outil qui en résulte et qui est accessible librement permet de compiler l’ensemble de ces données depuis 1984 avec une résolution de 30 m et de suivre ainsi l’évolution de ces milieux aquatiques dans le temps et dans l’espace : une aide fabuleuse pour comprendre l’état des ressources en eau superficielle à la surface du globe !

Images prises par satellite de la Mer d’Aral en 1989 (à gauche) et en 2008 (à droite)

C’est ainsi que l’on apprend que sur les 30 dernières années pas moins de 90 000 km² de plans d’eau, soit l’équivalent de la superficie du Portugal comme l’indique Ouest-France, a purement et simplement disparu de la surface de la Terre. En parallèle, des plans d’eau autrefois permanents ne sont désormais plus que saisonniers, et ceci sur une superficie totale de 72 000 km² soit autant que celle de l’Irlande…

Curieusement, près des trois quarts de cette évolution très préjudiciable des plans d’eau évaporés au fil du temps se concentre dans seulement 5 pays : le Kazakhstan et l’Ouzbékistan (qui se partagent la défunte mer d’Aral) mais aussi l’Iran, l’Afghanistan et l’Irak, des pays déjà largement touchés par l’instabilité politique voire la guerre et qui doivent donc faire face de surcroît à une diminution drastique de leurs ressources en eau facilement accessibles.

Barrage d’Alqueva au Portugal

En Europe en revanche, la situation montre une augmentation des surfaces en eau en raison notamment de construction d’ouvrages hydrauliques qui permettent le stockage de l’eau. Citons notamment la mise en service en 2004 du barrage d’Alqueva au Portugal, qui avec 250 km² de superficie supplante désormais, comme plus grand lac artificiel d’Europe, le lac du Der aménagé en 1974 près de Saint-Dizier, en Haute-Marne, et qui s’étend sur environ 48 km².

Cet outil de cartographie interactive mis ainsi à disposition de chacun et qui sera prochainement étendu au milieu marin, constitue assurément une formidable aide à la décision pour l’analyse des ressources en eau disponibles sur le globe et dont l’existence est vitale pour bien des usages. Reste à espérer que nos responsables politiques sauront s’en emparer et anticiper les évolutions liées au changement climatique et à ses impacts directs sur les milieux aquatiques…

L.V.  

Lustucru ou l’histoire de la halle voyageuse…

7 février 2018 by

A Arles, voilà que la friche Lustucru fait de nouveau parler d’elle, et c’est l’occasion de retracer l’histoire peu banale d’une gigantesque structure métallique construite en 1906 par un proche de Jean Eiffel et qui a beaucoup voyagé depuis…

Carte postale de l’exposition coloniale de 1906 à Marseille (source © Iris blog)

En 1906 donc, se tient à Marseille la troisième Exposition coloniale, après celles organisées en 1896 à Rouen et en 1989 à Rochefort. L’idée vient du docteur Heckel, fondateur de l’école de médecine du Pharo, spécialisée dans l’épidémiologie et les pathologies tropicales. Le maire de Marseille, un certain Jean-Baptiste-Amable Chanot, fait voter un budget d’un million de francs et le projet est entériné par un décret présidentiel signé en 1904.

L’exposition se tiendra sur un terrain de près de 40 ha situé entre le boulevard Rabatau, le rond-point du Prado et le boulevard Michelet, utilisé jusque là par l’armée comme champ de manœuvre, et qui deviendra le futur parc Chanot. Une cinquantaine de pavillons, tous plus exotiques les uns que les autres sont construits autour d’une grande allée centrale, tous destinés à être détruits à l’issue de l’exposition, laquelle fut un beau succès avec 1,8 millions de visiteurs entre avril et novembre 1906. Le Président de la République en personne, Armand Fallières, viendra visiter l’exposition avant de poser la première pierre du futur Canal du Rove. De nombreuses personnalités dont Frédéric Mistral, Auguste Rodin ou Jean-Baptiste Charcot ainsi que le général Lyautey, s’y rendent également.

Au centre du parc, à l’extrémité de l’allée centrale, se trouve le grand palais où sont présentées les diverses activités de la métropole et surtout de Marseille ; huilerie et savonnerie, tannerie, raffinage du soufre et du sucre, métallurgie du plomb, chantier naval, etc. Cet immense édifice, dessinée par Edouard Allar, jeune ingénieur de l’Ecole Centrale et ancien adjoint de Gustave Eiffel, a été construit par la Société de construction de Levallois-Perret (ex Compagnie des établissements Eiffel).

Carte postale de l’exposition coloniale de 1906 à Marseille avec une vue du Grand Palais

De forme rectangulaire, la halle mesure 99 m de long pour 44,5 m de largeur et près de 20 m de hauteur intérieure. Elle est constituée d’une nef centrale prolongée de quatre bas-côtés et possédait à l’origine une galerie desservie par deux escaliers intérieurs. Construite à Levallois-Perret et assemblée à Marseille, la structure métallique y sera à maintes reprises rhabillée pour abriter diverses manifestations jusqu’en 1939. Réquisitionnée ensuite successivement par les armées française, puis allemande et finalement américaine, la grande halle peut s’enorgueillir d’avoir connu de près les vicissitudes de l’Histoire…

Elle finit par être démontée et en 1951, elle est transportée à Arles où elle est remontée, sans sa galerie, pour servir de hangar agricole pour les usines de conditionnement de riz Lustucru qui s’établissent dans la plaine de Montmajour, à l’entrée nord de la ville. 

L’ex usine Lustucru est devenu un terrain de jeu pour graphistes (photo © Amélie / Ad-Urbex)

En 2003, la crue du Rhône dévaste totalement les usines Lustucru, rachetées entre temps par le groupe Panzani. Devant l’ampleur des dégâts, Panzani annonce le 26 mars 2004 la fermeture définitive du site. Malgré une très forte mobilisation des salariés qui occupent les locaux et malgré l’appui du préfet Christian Frémont qui va jusqu’à déclarer en septembre 2004 que « tout ceci est immoral », il faut se rendre à l’évidence et le site est définitivement abandonné en 2005, pour devenir le paradis des taggeurs et autres graphistes qui s’en donnent à cœur joie.

En octobre 2016, la ville d’Arles, qui avait racheté les 7,3 ha de la friche industrielle pour 1 € symbolique, accepte finalement de la céder au groupe Frey, un promoteur champenois qui projette d’y créer un centre commercial de plein air regroupant 13 moyennes surfaces et autant de boutiques dans le domaine de l’équipement de la personne et de la maison. Évalué à 1,8 millions d’euros par France Domaine, le tout est cédé à moitié prix au vu des frais particulièrement élevés envisagés pour démolir les bâtiments après les avoir désamiantés, et dépolluer le sol.

Etat actuel de la halle (photo © Jonathan Dahan / Le Moniteur)

Mais des défenseurs du patrimoine s’émeuvent de voir ainsi disparaître l’ancienne halle métallique, qualifiée de « cathédrale d’acier » et qui avait été labellisée en 2012 par l’État « Patrimoine du XX° siècle ». Une pétition recueille 3 000 signatures et est adressée à la ministre de la culture, l’Arlésienne Françoise Nyssen.

Vue aérienne du chantier de la digue des papeteries Etienne (source © SYMADREM)

A l’issue de moult tractations, une solution vient semble-t-il d’être trouvée, le 9 janvier 2018, à l’issue d’une réunion qui s’est tenue en sous-préfecture d’Arles en présence de tous les acteurs du dossier et au terme de laquelle, le groupe Frey a accepté de procéder à un nouveau démontage de la halle pour la déplacer une fois de plus. Le prochain point de chute de cette structure métallique qui aura finalement beaucoup voyagé, sera le site des Papeteries Etienne, une autre friche industrielle située à l’ouest d’Arles, en rive droite du Rhône, rachetée par l’Établissement public foncier régional, et que la Communauté d’agglomération Arles-Crau-Camargue-Montagnette projette de transformer en un nouveau pôle économique dédié à l’économie créative et aux industries culturelles et du patrimoine.

Sauf que pour l’instant ce site, lui-même en zone inondable, attend d’être requalifié en fonction du niveau de protection des digues qu’il est prévu de renforcer. Un laps de temps qui pourra donc être mis à profit pour lancer une consultation citoyenne et réfléchir aux contour du futur projet et au devenir de la fameuse structure métallique si souvent démontée et remontée. A moins qu’elle ne finisse par revenir à son point de départ, le parc Chanot, comme le suggère Christian Mourisard, adjoint au maire d’Arles, délégué au patrimoine et au tourisme. Au point où on en est, la « cathédrale d’acier » à monter en kit n’en est plus à un déplacement près…

L.V.  

Jura : la consigne remise au goût du jour

5 février 2018 by

Consigner les bouteilles en verre : voilà une pratique autrefois très courante et qui a quasiment disparu de notre environnement quotidien. Dans les années 1960, le geste était pourtant des plus banal, qui consistait à rapporter à son épicier où dans les grandes surfaces alors en plein expansion ses bouteilles vides de lait, de vin ou de bière, et ceci en échange de quelques pièces de monnaie ou d’un bon d’achat de valeur modique.

La pratique ne date d’ailleurs pas d’hier puisqu’elle aurait été initiée, dit-on, en 1799 à Dublin par un vendeur d’eau minérale gazeuse, imité dès 1800 par la marque Schweppes. En 1884, la Suède a généralisé le dispositif à grande échelle, allant jusqu’à imposer une standardisation des bouteilles pour en faciliter le recyclage.

Stockage de verre brisé issu du recyclage (source © Verre avenir)

Car le dispositif de la consigne ne présente que des avantages, tant écologiques qu’économiques. Une bouteille consignée (conçue spécifiquement à cet effet pour être plus résistante) peut être réutilisée une cinquantaine de fois moyennant un simple lavage. Ce qui permet d’économiser, selon une étude menée en Alsace et reprise par la fondation Nicolas Hulot, jusqu’à 75 % d’énergie et 33 % d’eau par rapport au recyclage classique qui nécessite de broyer les bouteilles, de débarraser le verre de ses impuretés puis de le fondre dans un four à 1 500 °C afin de fabriquer de nouveaux flacons…

Et pourtant, la France a presque complètement abandonné cette démarche dans les années 1980, alors que la filière des bouteilles en verre se trouvait fortement déstabilisée du fait du développement massif des emballages jetables en plastique. En 1992, lorsqu’a été créé en France le principe de « la responsabilité élargie du producteur », l’objectif prioritaire des industriels était d’éviter qu’on lui impose un système de consigne et ceci pour des raisons purement commerciales. La directive européenne adoptée en 1994 rend en effet désormais obligatoire la reprise ou la collecte des emballages ménagers en vue de leur réutilisation ou leur recyclage.

Récolte sélective du verre : ça déborde parfois… (source © Ouest-France)

La dispositif français oblige quant à lui les entreprises produisant ce qui deviendra des déchets, de verser une contribution financière à des organismes chargés d’organiser les filières de collecte et de traitement de ces déchets, en l’occurrence l’Adelphe, créée en 1993 à l’initiative des opérateurs industriels du secteur des vins et spiritueux. Or le verre pèse pour près de la moitié dans les déchets ménagers des Français, avec environ 2,3 millions de tonnes collectées chaque année par les collectivités. Et les sommes versées par les industriels pour la collecte et le traitement de ces déchets, de l’ordre de 60 millions d’euros par an, ne couvrent qu’une partie du coût, le reste étant pris en charge par les collectivités locales et payé par le contribuable via la taxe d’enlèvement des ordures ménagères.

Automate pour la collecte des bouteilles consignées en Allemagne

Un modèle imposé par les industriels donc, mais qui coûte cher au consommateur comme au contribuable et dont le bilan énergétique est déplorable ! Mais un modèle qui pourrait facilement être changé, à l’exemple de nombreux pays européens dont l’Allemagne où près des trois quarts des bouteilles sont consignées. Il est d’ailleurs cocasse de constater que Verallia, ancienne filiale conditionnement en verre de Saint-Gobain, produit justement des bouteilles consignées destinées au marché allemand

En France, la pratique de la consigne n’a cependant pas totalement disparu puisqu’elle est toujours pratiquée dans les hôtels, cafés et restaurants, ce qui permet ainsi de réutiliser directement environ 500 000 tonnes de verre par an, ce qui représente pas loin d’un milliard de bouteilles, sachant qu’on en produit chaque année de l’ordre de 3,4 milliards…

Et l’Alsace, peut-être en raison de sa proximité culturelle et géographique avec l’Allemagne, n’a jamais abandonné non plus le principe de la consigne, au point de faire des émules puisque l’on assiste depuis quelques années à l’émergence d’un mouvement de réutilisation des bouteilles dans le Jura.

L’initiative date de 2015 et est à porter au crédit de Clus’Ter Jura, une société coopérative d’intérêt collectif, elle-même issue de Juratri, une entreprise d’insertion créée en 1993 à Lons-le-Saunier et spécialisée dans le tri sélectif des déchets. Lauréate de l’appel à projet « Territoire zéro gaspillage, zéro déchet » organisé depuis 2014 par le ministère de l’environnement, l’initiative sobrement intitulée « J’aime mes bouteilles » commence à faire parler d’elle dans les médias.

Aude Weiss, responsable de la filière J’aime mes bouteilles (photo © Laëtitia Achilli)

Une animatrice, Aude Weiss, a été recrutée en septembre dernier pour piloter le projet qui consiste à collecter les bouteilles de vin issus de la production locale et qui sont consommés à 60 % dans le Jura, ce qui rend d’autant plus aisée et rentable leur réutilisation. Depuis un an, ce sont ainsi déjà plus de 50 000 bouteilles de vin qui ont été récupérées dans 25 points de collecte (Biocoop, cavistes, épiceries, etc.) où les clients les rapportent (gratuitement pour l’instant). La structure revend ensuite ces bouteilles aux viticulteurs, au prix de 18 à 20 centimes la bouteille, contre 24 à 27 centimes pour une neuve, ce qui leur permet de les réutiliser moyennant une économie substantielle supérieure à 20 %.

Dispositif de collecte des bouteilles mis en place dans le Jura par J’aime mes bouteilles

Le mouvement ainsi initié est en plein essor et espère augmenter significativement son impact en visant la collecte de 500 000 bouteilles d’ici 2020, avec une extension à d’autres productions locales telles que la bière et les jus de fruits. La mise en place d’une gratification pour inciter davantage les consommateurs à rapporter leurs bouteilles vides est aussi envisagée, comme en Allemagne où les bouteilles sont vendues un peu plus chères, mais où l’acompte est ensuite redonné aux consommateurs qui rapportent les bouteilles : 8 centimes pour une canette de bière, 15 pour une bouteille en plastique recyclable et 25 centimes pour les contenants non recyclables – sous forme de bons en magasin ou via des automates collecteurs.

Non seulement cette pratique est vertueuse sur le plan environnemental en contribuant à diminuer les volumes de déchets, mais de surcroît elle offre aux plus démunis la possibilité d’arrondir leurs fins de mois en ramassant les bouteilles et canettes vides laissées à l’abandon. Comme quoi, bénéfices économiques, sociaux et environnementaux arrivent parfois à se rejoindre !

L.V.  

Inondations : on a trouvé les coupables !

3 février 2018 by

Une nouvelle fois, la France vient de connaître une vague d’inondations spectaculaires. A Paris, le niveau de la Seine est monté la semaine dernière à 5,85 m et aurait selon toute vraisemblance dépassé les 6,40 m sans l’action des quatre lacs-réservoirs situés en amont du Bassin parisien. A un tel niveau, certes très inférieur à celui observé en janvier 1910, mais qui n’avait pas été atteint depuis 1955, les dégâts sur les réseaux et infrastructures auraient pu être considérables, en particulier sur le réseau de transports et notamment le RER C qui commence à être sérieusement menacé au-delà de 6,20 m.

Les bords de Seine à Paris le 22 janvier 2018 (photo © Stéphane de Sakutin / AFP)

Et comme toujours dans ces cas-là, on cherche les coupables… Ainsi que lors de chaque épisode de ce type, les rumeurs les plus absurdes courent, alimentées par la certitude, aussi irrationnelle que récurrente, selon laquelle : « ils nous ont inondés pour protéger Paris » (ou tout autre ville d’ailleurs, selon l’endroit où l’on se place…). Il est toujours difficile d’admettre que l’on a été inondé parce qu’il a beaucoup plu et que l’on est situé en zone inondable, dans le lit majeur d’un cours d’eau…

Et ceci malgré tous les dispositifs de protection contre les inondations qui ont pu être mis en place et qui ont souvent joué un rôle atténuateur très bénéfique comme cela a été le cas en janvier 2018 avec les lacs-réservoirs qui ont dérivé et stocké en amont du bassin versant des centaines de millions de mètres cube d’eau, réduisant d’autant les débits en aval.

Alors, puisque l’on a vraiment besoin de trouver un bouc émissaire, ne cherchez-plus. L’explication à ces inondations, exceptionnelles par leur ampleur et leur durée, est parfaitement claire sur la photo suivante, prise le 31 janvier 2018 sur la commune de Montesson, dans les Yvelines, et garantie sans trucage : c’est simplement un étourdi qui a oublié de fermer le robinet…

A Montesson, le 31 janvier 2018 (photo © Frédéric Gache / EPTB Seine Grands Lacs)

Et pour les Parisiens qui ont une dent contre la politique menée depuis des années par la Ville de Paris en faveur de la réduction de la voiture en ville et de la réappropriation des voies sur berges par les piétons, voici une seconde explication, tout aussi recevable…

Dessin de Lacombe publié dans Marianne le 2 février 2018

Lorsque les forces de la nature dépassent l’entendement, il est toujours rassurant de se raccrocher à des explications simples et pleines de bon sens !

L.V.  

Marseille envisage le recours à la délation massive…

1 février 2018 by

A Marseille, on savait déjà grâce aux travaux du sociologue Laurent Mucchielli, que les caméras de vidéosurveillance servaient principalement non pas à élucider les délits de voie publique mais à verbaliser les automobilistes mal garés. Il en est d’ailleurs de même à Carnoux, depuis l’an dernier. Et voilà qu’un article très documenté paru dans la Provence du 24 janvier 2018 vient encore noircir le tableau et brouiller les pistes.

Extrait de l’article publié par La Provence, le 24 janvier 2018

Intitulé sobrement « Big Brother : un ami qui vous veut du bien », l’article décortique la politique de surenchère frénétique et de course à la technologie qui s’est emparée des édiles marseillais cherchant à tout prix à rassurer leur électorat par le déploiement à grande échelle de gadgets aussi coûteux qu’inutiles, et envisageant sérieusement d’encourager des pratiques de délation massive qui commencent à faire froid dans le dos…

Caroline Pozmentier, adjointe au maire de Marseille, déléguée à la sécurité publique

On y apprend ainsi que Caroline Pozmentier, l’adjointe au maire de Marseille en charge de la sécurité publique et de la prévention de la délinquance, attend avec impatience les résultats de l’expérimentation de la ville de Nice sur le dispositif Reporty avant d’envisager sa mise en œuvre dans la cité phocéenne. Développé en Israël, où la politique ultra-sécuritaire que mène depuis des années ce pays en guerre civile larvée fait fantasmer tous nos élus locaux de droite, ce système consiste en une application installée sur le smartphone de tout un chacun et qui permet à un citoyen lambda de dénoncer en direct toute incivilité, crime ou délit dont il serait témoin, en se contentant de filmer la scène.

Certains craignent que cela ne vienne encourager le développement d’un climat de délation générale, peu propice à renforcer le tissu social et de nature à déborder la police municipale sous un amas de plaintes futiles et relevant surtout de la jalousie de voisinage. Mais Caroline Pozmentier ne voit pas où est le risque, affirmant sans sourciller : « vous savez, la délation elle existe déjà : le maire reçoit chaque jour des dizaines de lettres anonymes dénonçant tel ou tel… Tout ça, c’est une question de culture que nous devons mettre en place peu à peu ». A croire que l’élue LR regrette le bon temps de la Collaboration où chacun n’hésitait pas à dénoncer allègrement son voisin… D’autant que l’outil qui permet de dénoncer des incivilités existe déjà, via Allo mairie, et que téléphoner au numéro d’urgence nationale (17), lorsqu’on est témoin d’un fait grave, relève déjà de l’obligation citoyenne.

Laurent Mucchielli, cité par La Provence dans son article du 24 janvier 2018

Mais on sent derrière cette stratégie, comme l’analyse Laurent Mucchielli dans le reportage de La Provence, une volonté politique de la municipalité marseillaise de s’approprier la sécurité au détriment des forces de l’ordre nationale. Avec plus de 400 policiers municipaux armés et 600 prévus d’ici 2020, la ville de Marseille bénéficie d’ores et déjà des forces de police municipale les plus importantes de France, talonnée il est vrai par la ville de Nice qui sert d’aiguillon.

Une ville de Nice qui a donc lancé l’expérimentation du dispositif Reporty et où le maire, Christian Estrosi, se dit persuadé que seul un dispositif de vidéosurveillance peut assurer la sécurité de ses concitoyens, lui qui n’hésitait pas à persifler au lendemain de l’attentat contre Charlie Hebdo (et avant celui du 14 juillet 2016 qui avait ensanglanté la Promenade des Anglais) : « Avec 999 caméras et une caméra pour 343 habitants, je suis à peu près convaincu que si Paris avait été équipé du même réseau que le nôtre, les frères Kouachi n’auraient pas passé 3 carrefours sans être netralisés et arrêtés ».

Reporty, une application en test à Nice (source : numerama.com)

La suite des événements lui a clairement prouvé qu’il avait tort mais cela ne l’empêche pas de persévérer et de faire des émules, non seulement à Marseille mais même dans des petites communes comme Sisteron où le maire LR compte installer en 2018 pas moins de 81 caméras pour 8 000 habitants, un des taux les plus élevés de France, ou encore à Châteaurenard où les 15 000 habitants disposent déjà d’une caméra pour 110 habitants.

Centre de supervision urbaine de Marseille (photo © Anne-Christine Poujoulat / AFP.com)

Et Marseille bien entendu ne compte pas être en reste puisque l’objectif est d’y installer 2 000 caméras d’ici 2020, ce qui revient quasiment à doubler le parc déjà déployé depuis 2012, mais qui jusqu’à présent est surtout disposé le long des grands axes routiers (principalement pour surveiller les infractions au code de la route) et dans les noyaux villageois, mais évite soigneusement les cités chaudes où se concentre la délinquance. A raison de coûts d’installation estimés entre 1 500 et 7 000 euros pour chaque caméra, sans compter les frais de fonctionnement liés à la maintenance du matériel et à l’exploitation des images enregistrées, on voit bien que cette politique municipale va coûter cher au contribuable marseillais.

Renaud Muselier, Président du Conseil régional PACA et roi de la surenchère sécuritaire…

Et ce n’est sans doute qu’un début puisque, dans un souci évident de surenchère, chacun y va de sa proposition. C’est ainsi que le Président du Conseil régional, Renaud Muselier, souhaite désormais installer des portiques de reconnaissance faciale devant chaque lycée, tandis que sa vice-présidente rêve de développer « la Big data de la tranquillité publique » pour faire de Marseille une « safe city », en provençal dans le texte. Autrement dit, il s’agit de croiser tous les fichiers de données numériques pour mieux les exploiter, une gageure quand on sait comment fonctionnent les services qui les gèrent, et un véritable cauchemar pour la Commission nationale de l’informatique et des libertés, la CNIL, qui croule sous les demandes et ne sait plus où donner de la tête, elle qui est sensée s’assurer que le fichage des données personnelles respecte certaines règles de base et ne vient pas mettre en péril la vie privée des Français.

Jusqu’où ira-t-on dans une telle course à la technologie destinée avant tout à permettre aux élus locaux de rassurer leurs électeurs en leur montrant qu’ils ne lésinent pas pour assurer leur sécurité ? Après le dispositif des voisins vigilants et les lotissements entièrement cloturés et sous gardiennage électronique, après les caméras de vidéosurveillance et les systèmes de reconnaissance faciale, on envisage désormais sérieusement des drones pour surveiller en permanence tout déplacement suspect et sans doute bientôt des milices armées de citoyens comme on commence à l’organiser avec les groupes de chasseurs dans l’Est de la France. Décidément, on vit une époque formidable qui devrait nous préparer un avenir radieux !

L.V.  

Prochaine conférence du CPC : à la découverte d’univers lointains…

29 janvier 2018 by

Le conférencier, Jean-Gabriel Cuby (crédit photo © planetastronomy.com)

Après quelques mois d’interruption, le Cercle Progressiste Carnussien relance son cycle de conférences. La prochaine se déroulera jeudi 22 février 2018 à 18h30 et sera animée par Jean-Gabriel Cuby, astronome au Laboratoire d’astrophysique de Marseille. Elle vise à partager les avancées récentes en matière d’observation spatiale à l’aide des télescopes géants, des outils fabuleux de plus en plus performants, permettant d’améliorer sans cesse notre connaissance des univers lointains, très au-delà de notre système solaire.

Jean-Gabriel Cuby est astronome, ex-directeur du Laboratoire d’astrophysique de Marseille (LAM). Il a été, pour l’Observatoire européen austral (ESO) au Chili, le responsable de l’ensemble de l’instrumentation du « Very Large Telescope » (VLT).

Il est ainsi devenu le spécialiste français des télescopes de taille extrême, dénommés ELT pour « Extremely Large Telescope ». Il est désormais en charge de la coordination pour le CNRS – et plus précisément pour son Institut national des sciences de l’Univers (INSU) – des activités liées aux ELT en France. Il est également fortement impliqué sur les ELT au niveau européen, au travers de programmes de l’ESO ou des programmes cadres de recherche et développement de l’Union Européenne.

Vue d’artiste du futur European Extremely Large Telescope en projet dans le désert d’Atcama au Chili (crédit photo © L. Calçada / ESO)

La construction du plus grand télescope au monde a débuté dans le désert d’Atacama au Chili. Ce télescope européen aura un miroir principal de 39 mètres de diamètre, constitué de plus de 700 segments individuels. La construction et la mise en opération de ce miroir, ainsi que de nombreux autres éléments de l’instrument, soulèvent de nombreux défis technologiques. Cet œil géant européen permettra l’observation directe de planètes hors de notre système solaire jusqu’aux galaxies les plus distantes aux confins de l’Univers…

C’est à la fois l’histoire de l’observation de l’Univers et celle des recherches les plus récentes que Jean-Gabriel Cuby envisage de présenter au public lors de sa prochaine conférence à Carnoux-en-Provence le jeudi 22 février 2018, dans la salle du Clos Blancheton, rue Tony Garnier. Comme d’habitude, l’accès à cette conférence est libre et gratuit et les échanges avec le conférencier seront suivis d’un apéritif convivial.

M.M.

Dominique Tian pris la main dans le sac

27 janvier 2018 by

Dominique Tian (photo © Kenzo Tribouillard / AFP)

Le premier adjoint au maire de Marseille, Dominique Tian, risque fort de ne jamais succéder à Jean-Claude Gaudin comme premier magistrat de la ville. Député depuis 14 ans dans les beaux quartiers de Marseille, Dominique Tian, qui faisait partie de l’équipe de campagne de François Fillon après avoir soutenu Bruno Le Maire, avait déjà annoncé qu’il démissionnerait de son poste de premier adjoint une fois réélu député pour la quatrième fois, loi sur le non cumul des mandats oblige.

Mais pas de chance pour lui car il a été sèchement battu aux dernières élections législatives, par une parfaite inconnue de 37 ans, Claire Pitollat, ingénieur de son état. Et voilà que le pauvre Dominique Tian vient de se voir condamné en première instance à une lourde peine par le Tribunal correctionnel de Paris pour « blanchiement de fraude fiscale et déclaration mensongère de patrimoine ».

L’affaire, que nous avions déjà évoquée ici, remonte à 2012, alors que le député fraîchement réélu à l’Assemblée nationale remplit sa déclaration de patrimoine en se gardant bien de mentionner qu’il détient plus de 1,5 millions d’euros sur un compte en Suisse ainsi qu’un hôtel 3 étoiles à Bruxelles. De simples peccadilles aux yeux de celui qui se présente d’abord comme un « homme d’affaires », d’obédience ultra-libérale comme le relate Marsactu à l’issue d’une de ses visites chez ses amis de l’association libérale Contribuables associés, dénonçant à cors et à cris « l’oppression fiscale », désireux de faire disparaître le statut de la fonction publique territoriale et auteur en 2011 d’un rapport au vitriol dénonçant la fraude aux cotisations et prestations sociales.

Dessin de Soulcié, publié par Anti-K

Créée en 2013 suite à l’affaire Cahuzac qui avait menti pour dissimuler son compte en Suisse, la Haute Autorité pour la transparence de la vie publique (HATVP) est chargée de contrôler les déclarations de patrimoine et d’intérêts des responsables publics français. Dotée de pouvoirs élargis par rapport à la commission qu’elle remplace, ainsi que l’explique Le Monde, la HATVP peut croiser les déclarations de patrimoine avec les fichiers des services fiscaux, ce qui lui a permis de prendre la main dans le sac plusieurs parlementaires parmi lesquels le sénateur LR de la Haute-Marne Bruno Sido, condamné à six mois de prison avec sursis et 60 000 euros d’amende en avril 2016, pour avoir également omis de signaler l’existence de son compte bancaire en Suisse.

En avril 2015, la Haute autorité a ainsi déclenché une enquête administrative à l’encontre de Dominique Tian. Celui-ci indique pour sa défense que le compte en Suisse lui vient d’un héritage de son père, « un chef d’entreprise marseillais exerçant dans l’univers des soins et des retraites » selon les informations de La Provence et qu’il avait tenté de négocier une régularisation dans le cadre du dispositif de rapatriement des capitaux mis en place en 2013 par le ministre du budget d’alors, Bernard Cazeneuve. Quant à l’hôtel belge, l’élu prétend qu’il ne lui appartient pas en propre mais à une de ses sociétés : la nuance est subtile…

Toujours est-il que le premier adjoint de Marseille a dû comparaître devant la 11e chambre du Tribunal correctionnel de Paris le 1er décembre 2017. Après plus de cinq heures d’audience, le procureur de la République Pierre Jeanjean a alors requis une peine de prison de 12 mois avec sursis à l’encontre du 1er adjoint au maire de Marseille, ainsi qu’une amende de 300 000 euros et une peine d’inégibilité de cinq ans.

Le jugement avait été mis en délibéré et vient d’être rendu ce vendredi 26 janvier 2018, en des termes plutôt sévères pour le prévenu puisque la présidente, Bénédicte de Perthuis, tient à enfoncer le clou en précisant que « les faits commis sont d’une particulière gravité », traduisant « une violation de la loi et de l’égalité devant l’impôt » par « un élu de la République » dont le comportement aurait dû être « exemplaire ». Ces faits, a ajouté la présidente du tribunal, ne peuvent que « nourrir la méfiance des citoyens envers ceux qui les représentent ».

De fait, Dominique Tian a été condamné à douze mois de prison avec sursis, trois ans d’inéligibilité et une amende record de 1,45 million d’euros. Le jugement est sévère et bien entendu le premier adjoint au maire de Marseille a immédiatement hurlé au scandale et au lynchage politique, tout en annonçant qu’il faisait appel du jugement. Une stratégie qui lui permet de gagner du temps puisque l’appel est suspensif, ce qui lui permet de conserver son mandat électif pendant les 8 à 12 mois que vont durer les procédures, quitte à pousser ensuite le bouchon jusque devant la Cour de Cassation, de quoi tenir jusqu’aux prochaines élections municipales…

Pas sûr cependant que cela suffira pour lui permettre de rester dans la course de la succession à Jean-Claude Gaudin. Une course qui semble désormais bien lancée depuis les déclarations fracassantes du Président du Conseil régional, Renaud Muselier, qui tire désormais à l’arme lourde contre le bilan du « mauvais maire » qui a effectué « deux mandats de trop », l’accusant en vrac pour sa « politique de l’immobilisme » et sa « cohabitation politico-mafieuse » avec Jean-Noël Guérini…

Martine Vassal et Jean-Claude Gaudin, le 26 janvier 2018 (photo © Frédéric Speich pour La Provence)

« Je n’ai pas pour habitude de répondre aux insultes, aux injures et aux outrances », a aussitôt Jean-Claude Gaudin selon Le Monde. D’autres l’ont fait à sa place, parmi lesquels la Présidente du Conseil départemental, Martine Vassal, l’autre élue de droite qui brigue également le fauteuil du maire sans le dire et qui s’est donc ostensiblement affichée aux côté de Jean-Claude Gaudin vendredi dernier en lui rappelant mielleusement devant la presse, comme le rapporte La Provence : « Jean-Claude, tu as profondément transformé Marseille depuis vingt-cinq ans (…) Tu peux désormais compter sur ceux que tu as lancés dans le grand bain de la politique ».

Voilà qui a au moins le mérite de la clarté et laisse entrevoir pour les prochaines élections municipales à Marseille une bataille sanglante entre élus de la majorité républicaine… A condition du moins que Martine Vassal ait elle-même réglé ses propres ennuis judiciaires puisqu’elle est toujours en attente d’une décision dans le cadre de l’affaire sur les marchés publics de l’eau qui l’avait conduite en garde à vue en juin 2017.

L.V.  

Dépenses scolaires de Carnoux : un joli tour de magie !

24 janvier 2018 by

Le dernier bulletin municipal de Carnoux-en-Provence, qui porte le n°50, fait preuve d’un bel effort de pédagogie dont la municipalité n’est pas coutumière et qu’il convient donc de saluer à sa juste valeur. La luxueuse « revue trimestrielle gratuite » (car payée par le contribuable), dans laquelle la binette du maire n’apparaît que 11 fois en 32 pages (un petit score par rapport à certaines éditions précédentes), contient en effet pas moins de 4 pages grand format sur papier glacé et soigneusement illustrées en couleur qui détaillent les « moyens matériels, humains et financiers de premier ordre » que la commune consacre à l’enfance dans le cadre d’une « politique éducative qui vise l’excellence ».

L’exercice est remarquable de clarté et confirme en effet que la commune de Carnoux consacre à la petite enfance et aux affaires scolaires (une des rares compétence encore du ressort des communes) une part importante de son budget. On y apprend ainsi que la gestion des 59 places de la crèche municipale, confiée à l’association Carnoux Avenir, qui n’est qu’un faux nez de la mairie, est financée à hauteur de 223 609 € par la commune alors que la participation des parents, de l’État et de la CAF ne dépasse pas 101 k€ : un geste social admirable, tout à l’honneur de la municipalité.

Les activités péri et extra-scolaires sont également plutôt bien loties puisque la commune prend en charge globalement plus de la moitié des dépenses pour un montant cumulé de l’ordre de 240 k€ tandis que les familles et la Caisse d’allocation familiale participent chacun pour sa part à hauteur d’environ 100 k€.

Un extrait du Messager n°50

A cela s’ajoutent les frais de scolarité pour les 592 élèves de maternelle et du primaire qui fréquentent le groupe Frédéric Mistral et pour lesquels la commune dépense annuellement 960 k€ en frais de personnel (hors enseignants qui sont, rappelons-le, pris en charge par le budget de l’Education nationale), entretien et fonctionnement des locaux, mais aussi fournitures scolaires et animations diverses. Un budget non négligeable et que beaucoup d’autres communes à commencer par Marseille aimeraient bien avoir à leur disposition pour choyer autant leurs enfants scolarisés. On ne saura pas en revanche combien verse la commune pour ses enfants qui sont scolarisés sur des communes voisines et combien elle perçoit dans la situation inverse, alors que ces montant sont loin d’être négligeables.

Et ce n’est pas tout puisque la commune dépense également 213 k€ par an pour la cantine scolaire, chaque repas servi étant subventionné à hauteur de 3,81 € tandis que les parents ne payent que 3,01 €.

La brochure municipale ne précise pas à quel exercice budgétaire correspondent ces chiffres et on est bien en peine de le savoir puisque la commune ne publie pas son budget sur son site d’information. On peut supposer néanmoins qu’ils sont issus du compte administratif 2016. En revanche, le texte précise que le montant total des dépenses de la commune pour les « activités de la petite enfance et enfance jeunesse » s’élève à 2 011 500 €, ce qui représente 36,49 % du budget de fonctionnement de la commune qui s’élèverait donc à un peu plus de 5,5 millions d’euros. On ne retrouve pas, loin s’en faut, le chiffre de 6,5 millions d’euros qui avait été annoncé par La Provence pour la section de fonctionnement, lors du vote du budget primitif en avril 2016, mais on n’ira pas chercher la petite bête…

D’autant que l’analyse s’agrémente d’un magnifique camembert bariolé qui montre la part de chacun des postes énumérés précédemment dans le budget de fonctionnement de la commune. On retrouve bien la part des 960 k€ de frais de scolarité qui représentent en effet 17,4 % des dépenses communales annuelles de fonctionnement tandis que les 223 k€ dépensés pour la petite enfance correspondent à un peu plus de 4 % de ces mêmes dépenses.

Pour le reste, les chiffres annoncés laissent davantage perplexes. Alors que le coût net pour la commune de la restauration scolaire est annoncé à 213 k€, les pourcentages indiqués font en réalité état d’une dépense annuelle quasiment double dont on comprend que la part supportée par les familles n’a pas été déduite. Une présentation logique en comptabilité publique puisque la participation des parents ne vient pas en déduction des dépenses de fonctionnement mais sous forme de recette supplémentaire. Sauf que la qualité pédagogique de la démonstration en est pour le moins écornée… Et bien entendu, il en est de même pour les dépenses péri et extra-scolaires dont la part dans le budget de fonctionnement de la commune est ainsi allègrement renforcée par les participations financières des familles et de la CAF.

Un joli tour de passe-passe comptable qui permet d’annoncer fièrement que le montant total des dépenses engagées par Carnoux pour nos enfants s’élève à plus de 2 millions d’euros annuellement alors qu’en réalité le coût pour la commune se limite à 1,6 millions. La différence, qui représente quand même près de 400 000 €, correspond à la participation financière des parents pour la restauration scolaire mais aussi pour les activités péri et extra-scolaires, ainsi qu’aux subventions versées par la CAF pour ces dernières activités.

Bien entendu, loin de nous l’idée qu’une telle présentation relèverait de la manipulation puisqu’elle est parfaitement conforme aux règles de la comptabilité publique. Il n’en reste pas moins que l’exercice aurait mérité d’être présenté de manière un peu plus rigoureuse aux habitants de Carnoux. Mais ne boudons pas notre plaisir : pour une fois que la municipalité fait un réel effort de pédagogie et de transparence !

L.V.  

Trafic de faux médicaments : comment lutter ?

22 janvier 2018 by

Le trafic de médicaments, un marché très lucratif… (photo © Douglas Sacha / Getty)

Après un documentaire publié en novembre 2017 sur France 5, c’est un récent article du Monde qui met une nouvelle fois l’accent sur la recrudescence des trafics de faux médicaments via un reportage auprès d’une équipe de douaniers basés à l’aéroport de Roissy. En 2016, ce sont pas moins de 41 800 colis de médicaments importés illégalement qui auraient ainsi été saisis par les douaniers de Roissy, soit la bagatelle de 1,5 millions de comprimés, sur un total de 4,2 millions sur toute la France. Et sur les dix premiers mois de l’année 2017, même si les chiffres sont en baisse (les douaniers seraient-ils fatigués?), plus de 22 000 colis avaient déjà été repérés et confisqués, ce qui correspond, là encore, à un nombre assez vertigineux de 800 000 comprimés…

Des médicaments commandés sur internet et expédiés en toute illégalité, en provenance pour l’essentiel de Chine, d’Inde et de Thaïlande. Le produit phare de ces trafics ? Des copies de Viagra et autres substances supposés pallier les troubles de l’érection, mais aussi de nombreux autres médicaments dont des anticancéreux ou des pilules abortives, vendus uniquement sur ordonnance et que certains jugent préférables de commander sur internet.

On trouve même dans le lot le fameux Levothyrox, administré en France à plus de trois millions de personnes souffrant de dysfonctionnements de la thyroïde, et qui a défrayé la chronique cet été lorsque sa formule a été modifiée, nourrissant de très nombreuses critiques de la part de certains des patients traités. Du coup, certains n’ont pas hésité à commander des lots de l’ancienne formule via internet au risque de se voir fourguer des produits sans aucune garantie quant à leur fiabilité et leur non toxicité…

Des prises opérées régulièrement par les services de douane, y compris à Marseille…

Et ne parlons pas de tous ces produits plus ou moins suspects qui arrivent sous des emballages de toute sorte, destinés aux sportifs et culturistes du dimanche pour les aider à augmenter artificiellement leur masse musculaire. Souvent interdits à la vente, ces stéroïdes anabolisant dont on se passe le nom sous le manteau dans toutes les salles de musculation font l’objet d’un trafic mondial très lucratif. C’est ainsi que le 14 juillet 2016, les douaniers sont tombés par hasard sur une camionnette transportant 400 000 comprimés de fioles de produits dopant illicites en provenance de Bulgarie. Et encore, les trafiquants avaient déjà déchargé une bonne partie de leur cargaison à Nice et à Marseille…

A priori, ces médicaments contrefaits ou illicites ne se retrouvent pas dans les officines pharmaceutiques françaises. Ceux qui les consomment le font donc à leurs risques et périls en commandant sur internet des produits qu’ils n’arrivent pas à se faire prescrire par leur médecin traitant. Ils n’ont donc guère de recours en cas d’effets secondaires indésirables, tout comme celui qui préfère acheter, pour entretenir son véhicule, des pièces détachées à la provenance douteuse et dont rien ne garantit la fiabilité. Selon l’Agence nationale de sécurité du médicament, aucune étude n’a d’ailleurs jamais été réalisée en vue d’évaluer l’impact des millions de comprimés falsifiés avalés chaque année par les Français, alors qu’on estime que ce trafic serait à l’origine d’environ 700 000 décès chaque année de par le monde…

Un douanier présente de faux médicaments issus d’une saisie, le 8 décembre 2011 dans un entrepôt en Normandie (photo © Jean-François Monier / AFP)

Et pourtant, de nombreux indices montrent que ce trafic de faux médicaments est en plein essor à l’échelle mondiale. En 2017, après la découverte d’un trafic de Subutex entre la France (où était acheté en pharmacie ce médicament à l’aide d’ordonnances de complaisance) et la Finlande (où il était revendu à prix d’or comme substitut de l’héroïne), une vaste enquête transfrontalière avait été engagée par Europol et les polices de 9 pays européens. En quelques mois, cette opération avait ainsi permis de saisir pas moins de 75 millions de médicaments et substances dopantes pour une valeur marchande estimée à 230 millions d’euros, et d’identifier 277 suspects dont la moitié seulement a pu être arrêtée.

Ce coup de projecteur vient confirmer s’il en était besoin que le trafic de médicaments ne se cantonne plus aux pays en développement où il continue de faire des ravages puisque l’OMS estime que dans ces contrées, un médicament sur dix au moins serait falsifié, les plus contrefaits étant les antipaludéens et les antibiotiques, fortement consommés. Le marché noir de médicaments est ainsi évalué à environ 30 milliards de dollars dans les pays en voie de développement mais à 200 milliards à l’échelle mondiale. Une étude publiée en 2016 par l’Office de l’Union européenne pour la propriété intellectuelle révèle que la contrefaçon de médicaments coûterait plus de 10 milliards d’euros par an au secteur pharmaceutique européen.

Dans nombre de pays africains, les médicaments sont vendus dans les échoppes sans grande garantie de traçabilité…

Si ce trafic a été longtemps cantonné aux seuls pays en développement (en 2005, une enquête avait ainsi révélé que 30 % des médicaments vendus au Kenya étaient contrefaits, pour certains simplement à base de craie), c’est parce que les systèmes de protection sociale sont un garde-fou efficace contre ces pratiques : à quoi bon prendre le risque d’acheter un produit à l’origine et à l’efficacité douteuses si la Sécurité sociale me rembourse un médicament acheté en pharmacie avec toutes les garanties de traçabilité ? Sauf que les dérégulations en cours et le délitement progressif des systèmes de protection sociale poussent de plus en plus de malades à recourir à des circuits d’approvisionnement parallèles, plus risqués mais moins coûteux.

Il n’en faut pas davantage pour que le trafic se développe car il est très lucratif. Un médicament est un produit dont le développement coûte cher en matière grise (95 % de son coût sert à rémunérer les frais de recherche) mais dont l’apparence finale est des plus banales et aisée à falsifier. Selon la Fédération internationale de l’industrie du médicament, un investissement initial de 1000 dollars dans une chaîne de production industrielle de faux médicaments peut rapporter jusqu’à 500 000 dollars : le jackpot pour les trafiquants en tous genre et moyennant un risque pénal finalement limité car traité dans un grand nombre de pays comme une simple infraction à la réglementation sur la propriété intellectuelle, au même titre que les tee shirts de contrefaçon ! Le trafic de médicaments rapporterait ainsi 20 fois plus que celui de la drogue et 10 fois plus que la fabrication de fausse monnaie…

Le développement d’internet, facteur d’expansion du trafic, vue par le dessinateur Deligne pour la Lettre de l’Ordre national des pharmaciens

Le développement d’internet qui permet de commander en ligne de manière anonyme est aussi un facteur important du développement de ces trafics, de même que la grande porosité des frontières et la libre circulation des marchandises rendue possible par la mondialisation. Une étude citée par l’Institut international de recherche anti-contrefaçon des médicaments indique ainsi que le nombre de médicaments contrefaits passant les frontières de l’Europe serait passé de moins de 500 000 à plus de 4 millions entre 2005 et 2007, et le mouvement s’accélère depuis… Cette même source révèle qu’en 2010 un Européen sur 10 (soit de l’ordre de 77 millions de personnes) reconnaissait acheter en dehors des circuits autorisés des médicaments normalement délivrés sur ordonnance.

Comme dans beaucoup d’autres domaines, on voit bien que la dérégulation des échanges économiques mondiaux, l’appât individuel du gain et le démantèlement des dispositifs de protection sociale, toutes conséquences du modèle de développement choisi collectivement depuis plusieurs années, ne peuvent que favoriser ce type de dérives à haut risque non seulement pour la santé publique mais aussi pour la sécurité et la cohésion de notre société. Pas facile pour autant de trouver un juste équilibre entre la structuration d’un marché dominé par quelques empires pharmaceutiques qui profitent souvent de leur position pour de juteux bénéfices et une jungle de trafiquants près à tout pour s’immiscer dans les failles du dispositif. Un beau sujet de société à débattre…

L.V.  

Au Mexique aussi les explorations se poursuivent…

20 janvier 2018 by

Alors que les spéléologues de l’association Cassis, les rivières mystérieuses, poursuivent leurs explorations pour tenter de remonter les deux rivières souterraines du Bestouan et de Port-Miou, envisageant désormais la réalisation d’un forage pour explorer le puits terminal situé à 3 km de l’exutoire du Bestouan, voilà que leurs collègues mexicains viennent de faire un grand pas en avant dans la connaissance de réseaux souterrains ennoyés dans la région du Yucatan.

Gran Cenote près de Tulum, site touristique très prisé…

Comme en Provence calcaire, ce secteur du Yucatan est un massif karstique dans lequel les circulations d’eau souterraines ont créé des galeries souterraines par dissolution progressive du calcaire sous l’effet de l’acidité des eaux. Lorsque le toit de ces galeries s’effondre, on observe en surface la formation de vastes puits ou avens, connus localement sous le nom de cénotes. Certains de ces effondrements se forment sous la surface d’un plan d’eau (lac, lagune ou même dans la mer), et ne sont alors visibles sur sous la forme de tâches plus foncées, trous bleus ou trous noirs selon leur perception…

Les Mayas, qui occupaient la péninsule du Yucatan avant l’arrivée des Espagnols, connaissaient bien ces puits naturels donnant accès à de vastes réserves d’eau douce (et parfois salée lorsque les réseaux karstiques communiquement avec la mer, comme c’est le cas aussi à Port-Miou). Ils les utilisaient comme source d’approvisionnement en eau potable. Mais, ils les considéraient également comme des bouches d’accès permettant d’entrer en communication avec les dieux de l’infra-monde, d’où l’origine du mot cénote qui dérive d’un ancien vocable maya signifiant « puits sacré ». Ils s’en servaient donc aussi comme lieux de sacrifice et y jetaient des offrandes et autres victimes expiatoires, ce qui, dans notre conception hygiéniste moderne, paraît bien peu approprié…

Salle ornée de concrétions dans le réseau de Sac Actun (source : Feel the planet)

Toujours est-il que ces cénotes et les réseaux de galeries souterraines noyées qui les relient constituent un immense terrain de jeu pour les spéléologues et les archéologues qui les explorent depuis des années. L’un d’entre eux, le plongeur allemand Robert Schmittner, qui réside au Yucatan depuis maintenant 20 ans et dirige le projet intitulé Gran Acuifero Maya (GAM), explore ainsi depuis des années les réseaux sub-aquatiques autour de la cité balnéaire de Tulum. Il vient de faire la une de très nombreux médias en annonçant, le 15 janvier 2018, avoir réalisé la jonction entre deux réseaux désormais reliés entre eux, ce qui en fait la plus vaste grotte noyée du monde avec pas moins de 347 km de galeries connues !

Progression de plongeurs de l’équipe du GAM dans les galeries de Sac Actun (photo © Herbert Mayrl / GAM via Reuters)

Jusque-là, le réseau de Sac Actun, situé au nord de Tulum, était le deuxième plus vaste système subaquatique exploré au monde avec déjà 262 km de galeries, juste derrière un autre réseau de 269 km, situé dans la même région mais plus au sud et dénommé Ox Bel Ha. Quant au second réseau exploré par les équipes du GAM, connu sous le nom de Dos Ojos, il s’agissait d’un vaste labyrinthe de près de 84 km de longueur cumulée, qui se classait à la quatrième place mondiale. La jonction réalisée entre ce dernier système et celui de Sac Actun montre que les deux ne constituent qu’un seul et unique réseau qui prend désormais le nom du plus grand des deux.

Et le mouvement n’est sans doute pas fini car Robert Schmittner compte bien poursuivre ses explorations. Rien que dans le nord-est de l’État de Quintana Roo où se situe le réseau karstique ennoyé de Sac Actun, on a répertorié pas moins de 358 réseaux subquatiques accessibles, représentant à ce jour un linéaire total de 1 400 kilomètres !

Plongeur de l’équipe du GAM à Sac Actun (photo © Herbert Mayrl / GAM via Reuters)

Outre l’intérêt spéléologique et hydrologique d’une telle découverte de la plus grande grotte noyée du monde, cette meilleure connaissance des réseaux souterrains du Yucatan est une aubaine pour les paléontologues, archéologues et autres anthropologues. On retrouve en effet dans ces galeries noyées et au fond des puits qui en donnent accès, de très nombreux vestiges, ossements animaux et humains, mais aussi poteries et objets sacrificiels mayas qui permettent d’en savoir toujours davantage sur l’histoire de la région et les différentes civilisations qui s’y sont succédées.

Crâne de Naia découvert en 2007 (photo © Roberto Chavez ARCE / AFP )

C’est ainsi qu’a été retrouvé en 2007, dans les eaux du gouffre de Hoyo Negro (en français « trou noir »), un aven de 43 m de profondeur qui fait partie du réseau de Sac Actun, le squelette de Naia, une jeune fille de 15 à 16 ans qui vivait dans la région il y a environ 13 000 ans, en plein âge glaciaire, et qui était malencontreusement tombée au fond du gouffre où elle s’était noyée.

A l’époque, avant la fin de la dernière glaciation, le niveau de la mer était plus bas d’environ 120 m et du coup les grottes du Yucatan n’étaient pas ennoyées à leur niveau actuel si bien que l’accès au puits se faisait à pied sec. Outre ses restes, l’aven abritait également des ossements de 26 autres mammifères terrestres dont un tigre à dents de sabre et un gomphothère, sorte d’éléphant préhistorique.

Selon Le Monde, la découverte n’avait été annoncée qu’en mai 2014 par l’Institut mexicain d’anthropologie et d’histoire, à l’issue de nombreuses analyses. De fait, la découverte des restes particulièrement bien conservés de cette jeune fille de 13 000 ans s‘est révélée très enrichissante sur le plan scientifique car les populations amérindiennes indigènes de cette période étaient des groupes nomades peu nombreux et leurs vestiges ne sont donc pas si fréquents. L’analyse génétique de l’ADN mitochondrial de Naia a permis ainsi de confirmer d’une part son origine asiatique et d’autre part son apparentement aux actuels indiens d’Amérique malgré des différences morphologiques qui traduisent simplement les évolutions génétiques subies depuis que ces peuplades, venues de Sibérie par le détroit de Behring, se sont lentement répandues sur l’immense territoire américain. Des conclusions qui corroborent d’ailleurs celles issues de l’analyse d’un autre squelette découvert dans le Montana, plus ou moins contemporain de Naia et également issu d’une souche de population sibérienne.

Une chose est sûre, les grottes ennoyées du Yucatan, tout aussi mystérieuses que celle de Cassis, n’ont pas fini de livrer tous leurs secrets…

L.V.  

Katulu ? s’ouvre à tous

17 janvier 2018 by

La séance publique organisée le 7 décembre 2017 par le club de lecture KATULU ?, composante du Cercle Progressiste Carnussien, consacrée à la présentation de romans traitant de la tolérance, a été un beau succès qui a permis à de nombreux Carnussiens de découvrir ce club de lecture ouvert à tous et qui se réunit tous les mois.

Un article publié dans La Provence le 19 décembre 2017

Cinq romans ont été à l’honneur de cette séance, présenté chacun par une lectrice qui a permis de toucher la sensibilité du public en lisant et en commentant des extraits de ces œuvres, témoignages autobiographiques, parfois violents voire cruels mais profondément humains. Un échange très fort avec le public qui a permis de mettre en valeur la nécessité de bienveillance, d’indulgence et d’ouverture à ceux qui pensent ou vivent d’une manière différente, définissant ainsi la tolérance comme « un désir d’humanité ».

Les cinq ouvrages qui ont servi de support à cette lecture publique étaient disponibles à l’achat, fournis aimablement par la librairie Le Préambule installée à Cassis.

Une belle soirée d’échange, clôturée par un apéritif convivial partagé avec tous. Une séance qui en appelle d’autres et qui a été également l’occasion de recueillir des dons pour l’Association française contre la myopathie dans le cadre du Téléthon 2017.

Extrait de la revue municipale de Carnoux Le Messager n°50

Un engagement de Katulu ? qui s’est prolongé le lendemain, toujours dans le cadre des animations du Téléthon organisés à Carnoux, par la tenue d’un stand pour vendre des livres d’occasion.

Les remerciements de l’AFM Téléthon remis à Katulu ?

Des activités largement relayées par la presse locale et qui ont permis de recueillir plus de 200 € de dons reversés à l’AFM Téléthon.

M.M.