Archive for the ‘Science et techniques’ Category

Monaco gagne (encore) sur la mer…

31 juillet 2017

Dans la principauté de Monaco, minuscule confetti enclavé sur le territoire français pour des raisons historiques, la conquête de l’espace est une préoccupation constante. Avec une superficie totale qui ne dépasse pas 2 km2, (202 hectares très précisément, nettement moins donc que la commune de Carnoux qui s’étend, mine de rien, sur 345 ha !) c’est le deuxième plus petit État indépendant au monde (derrière le Vatican). Sauf que la population qui s’entasse sur cet espace ridicule s’élève à 38 500 habitants au dernier recensement de 2016, soit une des densités les plus fortes du monde avec plus de 18 000 habitants au km2.

Sommet de la Tour Odéon à Monaco

Pas étonnant que dans ces conditions, le prix du foncier atteigne des sommets vertigineux, plaçant Monaco en tête du classement mondial des villes où se loger coûte le plus cher. A Monaco, un bel appartement se négocie autour de 45 000 € le m2. C’est en moyenne 15 % de plus qu’à Hong Kong et 40 % plus cher qu’à Londres, plus du double de Paris où le prix de l’immobilier de luxe oscille autour de 20 000 € le m2, une misère… Achevée en 2015, la double tour Odéon qui s’élève à 170 m de hauteur dans le quartier de l’Annonciade, a vu ses appartements se négocier autour de 55 000 à 70 000 € le m2. Quant au penthouse qui s’étend au sommet de la tour sur 3 300 m2 répartis sur 5 niveaux, avec piscine à toboggan, fitness et vue plongeante sur la mer, il peut s’enorgueillir d’être à ce jour l’appartement le plus cher du monde, vendu pour la modique somme de 300 millions d’euros, soit un prix de revient de 91 000 € le m2.

Dans un tel contexte, chaque mètre carré compte et la solution la plus simple pour ce territoire côtier, à défaut de pouvoir se lancer dans des guerres de colonisation d’un autre âge, est d’empiéter toujours davantage sur le domaine maritime. Dès 1865, un premier remblai a ainsi été réalisé pour y permettre le passage de la voie ferrée, rapidement suivi par la construction du quartier industriel de Fontvielle gagné sur la mer sur une surface de 5,5 ha. Depuis, les Monégasques ne s’arrêtent plus et repoussent sans cesse la ligne de rivage. Ces dernières années, ce sont ainsi plus de 40 hectares qui ont été gagnés sur la mer, permettant d’agrandir toujours plus le terrain disponible pour de nouvelles constructions. Même le stade Louis II de l’AS Monaco a été construit sur la mer…

Photomontage du futur quartier en construction (© Valode et Pistre)

Et ce n’est pas fini puisqu’un nouveau chantier a été lancé fin 2016. Il s’agit cette fois de construire une nouvelle plateforme de 6 hectares gagnée sur l’eau dans l’Anse du Portier, dans le prolongement du Grimaldi forum. Un chantier totalement pharaonique qui coûtera 2 milliards d’euros mais pour lequel le gouvernement de la principauté ne déboursera pas un centime puisque ce sont les entreprises, au premier rang desquelles Bouygues Construction, qui avancent l’argent en espérant bien se faire largement payer en retour par la vente des 60 000 m2 de logements ainsi construits.

Maquette du nouveau quartier d’habitation (capture video © Valode et Pistre)

Bien entendu, il s’agit d’immeubles de haut standing, labellisés écoquartier, avec panneaux solaires et climatisation par pompes à chaleur alimentées à l’eau de mer, disséminés au milieu d’un parc arboré de 1 ha, avec parkings, équipements publics, port de plaisance d’une trentaine d’anneaux, 3 000 m2 de commerces et promenade littorale. Un éden pour milliardaires, dont l’architecture a été conçue par le célèbre architecte Renzo Piano.

Nacre Nobilis, plus grand coquillage de Méditerranée (photo © David Luquet)

Pour bâtir une telle infrastructure dans des fonds marins dont la profondeur atteint jusqu’à 50 m et qui s’étendent entre deux zones naturelles, la réserve du Larvotto et le tombant des Spélugues, une préparation s’impose, qui consiste notamment à transplanter les posidonies et à évacuer les nacres géantes qui peuplent ces fonds sous-marins autrefois d’une grande richesse. Ces travaux préparatoires ont déjà eu lieu, à l’automne 2016, sans émouvoir grand monde tant les Monégasques se moquent comme d’une guigne de la qualité de leurs fonds marins, sur une partie du littoral où près de 90 % des fonds entre 0 et 8 m de profondeur ont d’ores et déjà été détruits, selon un biologiste niçois.

Place désormais aux travaux de génie civil maritime ! Ils ont débuté en avril 2017, pilotés par l’entreprise belge Jean de Nul. La première étape a consisté à déposer 30 000 m3 d’enrochement qui seront stockés, nettoyés puis réutilisés. Le chantier est maintenant entré dans sa deuxième phase qui consiste à draguer les sédiments pollués reposant au fond de l’Anse du Portier, et ceci à l’aide d’une pelle équipée d’un godet étanche de 8 m3 et capable de descendre jusqu’à 32 m de fonds. Cette pelle hors norme ainsi qu’une grue à câble pour les secteurs les plus profonds, sont elles-mêmes installées sur une barge ancrée dans le sol sous-marin via des pieux de 40 m…

Schéma de principe des caissons périphériques (© Valode et Pistre)

Deux barges de transport assurent l’évacuation des sédiments jusqu’à un centre de traitement et de valorisation installé à La Seyne-sur-Mer. D’ici la fin de l’été, une fois les sédiments pollués ainsi retirés, c’est le reste du sable qui va être aspiré jusqu’à atteindre le substratum rocheux. Au total, plus de 400 000 m3 de matériaux devraient ainsi être aspirés puis rejetés en mer à quelques km de la côte, par 200 m de fond. Une fois le sol mis à nu, une assise constituée de 1,6 millions de tonnes de cailloux lavés et concassés, acheminés depuis une carrière de Châteauneuf-les-Martigues, sera mise en place pour servir de support aux 18 caissons en béton armé, de 27 m de hauteur, qui constitueront le corps de la digue périphérique.

La future plateforme et son enceinte étanche constituée de caissons en béton (capture video © Valode et Pistre)

Ces caissons, qui pèsent 10 000 t chacun, seront préfabriqués dans la forme 10 du port de Marseille, à partir du mois de septembre prochain. Il s’agira d’un processus particulièrement complexe puisque le coulage du béton se fera au fur et à mesure de l’immersion du caisson. Une fois les caissons mis en place, le remblaiement de la plateforme pourra commencer, avec du sable prélevé au large de la Sicile et acheminé au moyen de la plus grosse drague du monde, capable d’apporter 40 000 m3 de sable à chaque voyage : une quinzaine de rotations devraient être nécessaire…

C’est en mars 2020 seulement, si tout va bien, que la nouvelle plateforme pourra, après compactage, commencer à recevoir les premières constructions. La livraison des premiers logements est, quant à elle, programmée pour 2022 : avis aux amateurs fortunés qui souhaiteraient y investir leurs deniers !

L.V. 

Marseille, nouveau roi du coffre-fort numérique ?

22 juillet 2017

Longtemps reconnue mondialement pour son rôle de port colonial, puis pour celui de cerveau de la French connexion et pour sa réputation déplorable de violence urbaine, Marseille tente depuis des années de se forger une nouvelle image de port d’accueil pour le tourisme de la croisière de luxe. Mais c’est dans un tout autre domaine que la ville est en train de connaître un développement inattendu : celui des data centers, ces coffres-forts modernes où sont stockées physiquement les milliards de données numériques que l’on a tendance à imaginer évaporées sur un nuage éthéré, le fameux « Cloud »…

Salle blanche pour le stockage des baies informatiques

Car la tendance actuelle en informatique est d’avoir des ordinateurs de plus en plus puissants mais paradoxalement de plus en plus vides, ce qui génère des flux de données croissant et totalement gigantesques à travers la planète entière. Les logiciels et le stockage de données, qui prend de plus en plus de place, sont désormais hébergés sur des serveurs situés on ne sait où, chez un prestataire informatique qui conserve de manière sécurisée nos données personnelles.

Un tel service d’hébergement des données numériques personnelles (nos photos, la vidéo des premiers pas du petit dernier, nos courriels, nos fiches de paies et autres papiers administratifs, nos fichiers numériques, etc.) est même fourni gratuitement par la plupart des fournisseurs d’accès internet, bien trop contents de récupérer ainsi à bon compte toutes nos données personnelles qui seront ensuite valorisées pour développer des sollicitations commerciales adaptées à nos centres d’intérêts personnels. C’est aussi un service payant qu’offrent de plus en plus de prestataires, tels que la Poste ou la Caisse d’Epargne, sous le nom de « coffres-forts numériques ».

Il s’est ainsi créé un nouveau marché très juteux, celui du stockage sécurisé de données numériques. Du fait de l’importance vitale de toutes ces données numériques qu’il convient d’archiver pour de longue durées tout en en conservant une parfaite traçabilité et en étant sûr de pouvoir les retrouver et les exploiter à tout moment, de nombreux prestataires sont ainsi apparus qui proposent de garantir la disponibilité, l’intégrité et la pérennité de ces données, moyennant juste rétribution…

Comme les château-forts d’antan, ces nouveaux coffres-forts numériques que sont les data centers sont conçus avec de multiples barrières de sécurité successives, ainsi que l’explique Fabrice Coquio, président d’Interxion France, un groupe néerlandais fondé en 1988, qui héberge les serveurs informatiques de plus de 200 clients dont Microsoft, Amazon, Facebook, Twitter, Yahoo, etc.

Comme tout château fort qui se respecte, il faut bien entendu une muraille solide, avec plusieurs niveaux de protections successifs : l’enceinte du bâtiment, protégée par barrières infra-rouges et vidéo surveillance avec détection de mouvement et vision nocturne, le bâtiment lui-même, équipé de sas d’accès sous alarmes, d’accès anti-effraction et de vidéo surveillance, les salles de stockage ensuite, protégées par contrôle d’accès et par système biométrique, et enfin les baies qui sont les systèmes informatiques dans lesquels sont stockées les données numériques, elles-mêmes rassemblées au sein de cubes fermés à l’aide d’un code ou d’un système de clé.

Autout du château s’étendent bien entendu, les douves, matérialisées ici par les systèmes de sécurisation des réseaux, sous forme de fibre noire cryptée qui fait transiter les données grâce à des signaux encodés. Quant aux armées qui gardent le château, ce sont les agents de sécurité habilités qui assurent une veille sur site 24h/24. Enfin, le donjon qui est consitué par le poste de pilotage et de commande par lequel transitent toutes les informations nécessaires à la maintenance du bâtiment.

Les bâtiments du premier data center d’Interxion implanté à Marseille depuis 2015 (source © Interxion)

Reste à savoir où implanter ces châteaux-forts de l’ère numérique. Et c’est là que Marseille se révèle, parmi d’autres, comme un emplacement particulièrement favorable. La présence de 13 câbles sous-marins qui arrivent ici en font en effet un point névralgique pour les échanges digitaux et télécoms entre l’Europe, le Moyen-Orient, l’Afrique et l’Asie. Les grands acteurs du Cloud ont bien repéré cette spécificité et l’activité tend donc à se développer.

C’est ainsi que la société Interxion y a ouvert en 2015 son huitième centre français de stockage, dans les locaux d’un ancien site SFR basé à la Joliette. Un investissement de 45 millions d’euros pour une surface utile qui sera portée à terme à 5 700 m² et une puissance électrique installée de 6 MW. Et ce n’est pas fini puisque cette société, numéro 2 mondial, qui exploite désormais 45 data centers à travers l’Europe, compte ouvrir deux nouveaux sites marseillais mitoyens, dans le secteur du cap Janet, à l’Estaque.

La halle Freyssinet du Cap Janet et la base U-boot attenante (photo © Kariyou)

Une maquette du futur centre MRS2 dans la halle Freyssinet rénovée (source © Interxion)

Le premier, dont la première pierre vient d’être posée à l’occasion d’un grand raout officiel en présence de Jean-Claude Gaudin, de Gérard Gazay et de Christine Cabau-Woehrel, présidente du Grand Port maritime de Marseille, se développera dans les locaux désaffectés des anciens ateliers de réparation navale Fouré-Lagadec, inoccupés depuis 1995. Il s’agit d’une vaste halle Freyssinet, c’est à dire conçue sur le modèle du gigantesque hangar à trois nefs surmontées de voûtes cylindriques minces que l’ingénieur Eugène Freyssinet avait conçu et réalisé en 1929 pour abriter les voies de la gare d’Austerlitz. Un ouvrage de référence, inscrit depuis 2012 au titre des monuments historiques, et dont la conception a inspiré un très grand nombre de hangars militaires, aéroportuaires et industriels à travers tout le pays.

Sur ce site, la demande de permis de construire a été déposée en vue d »aménager courant 2017 dans ce bâtiment 4 000 m² de salles blanches destinées au stockage sécurisé de données informatiques, et ceci pour un coût d’investissement évalué à 70 millions d’euros.

Vue aérienne du site de la base de sous-marins après la guerre

Quant au troisième site convoité par Intexion qui souhaite y aménager 10 000 m² de stockage supplémentaire, il s’agit ni plus ni moins que du bâtiment voisin, une ancienne base de sous-marins allemands datant de la seconde guerre mondiale, le « U-bootbunker Martha ». En réalité, cet imposant complexe en béton armé de 208 m de longueur et 45 m de largeur, dont la construction a été lancée en janvier 1943 et qui devait accueillir une vingtaine de sous-marins militaires, n’a jamais servi. Les travaux ont été stoppés en août 1944, suite au débarquement allié en Provence, avant même que le chenal d’accès des sous-marins ne soit creusé. La bâtiment n’a donc jamais été opérationnel, sauf ponctuellement pour y assurer la détention de prisonniers de guerre allemands, dont les fresques dessinées sur les murs peur meubler leur captivité sont encore visibles sur les parois.

Ce bâtiment, resté en l’état depuis sa construction, intéresse a plus haut point l’amateur de châteaux forts qu’est le directeur de la société Interxion. Véritable bunker massif construit sur le modèle des bases de Lorient, Brest et La Rochelle, il est surmonté d’une dalle de toit en béton armé de près de 6 m d’épaisseur, capable de résister à des bombes d’une tonne comme la Royal Air Force en avait fait l’expérience à Lorient. Quant aux murs, leur épaisseur varie entre 90 cm et 2,85 m pour ceux qui sont situés face à la mer et qui étaient susceptibles d’être bombardés depuis le large.

Une structure parfaitement adaptée donc à l’usage envisagé, d’autant que les salles de maintenance prévues par les ingénieurs allemands à l’étage, pourront facilement être aménagées en salles blanches. Une belle opportunité également pour le Grand Port maritime de Marseille qui se demande depuis plus de 70 ans ce qu’il pourrait bien faire de ce vestige historique aussi délabré qu’encombrant et dont la déconstruction coûterait une fortune. Une petite inquiétude néanmoins pour l’approvisionnement en électricité de ce château fort futuriste qui aura besoin en permanence d’une puissance électrique de 8 mégawatts, à comparer aux 50 MW que consomment l’ensemble des serveurs informatiques de Google et aux 100 MW produits par une tranche de réacteur nucléaire. De quoi se rappeler que le numérique commence à prendre une part non négligeable dans notre empreinte carbone globale…

L.V.  

La Terre croule sous des milliards de tonnes de plastique !

20 juillet 2017

C’est une étude scientifique publiée le 19 juillet dans la revue Science Advances qui l’affirme : les matières plastiques fabriquées par l’homme sur l’ensemble de la planète représenteraient la masse globale de 8,3 milliards de tonnes, soit 822 000 fois le poids de la Tour Eiffel ! Et ceci en 75 ans tout au plus puisque la production industrielle de plastique a débuté réellement dans les années 1950, même si les premières polymérisations de matières plastiques datent des années 1930.

Déchets de plastique dans la baie de Manille aux Philippines (photo © Stiv Wilson)

C’est certes moins que le ciment et l’acier qui restent (en poids sinon en volume…) les matériaux que l’homme a produits en plus grande quantité. Sauf que ces derniers matériaux sont utilisés principalement dans la construction, pour des durées relativement longues de 50 à 100 ans, et sont ensuite très majoritairement réutilisés après traitement.

C’est loin d’être le cas pour le plastique dont la durée d’utilisation est très courte, de l’ordre de 4 ans en moyenne et bien moins pour tout ce qui concerne le plastique d’emballage qui constitue une part importante du marché. L’étude des scientifiques américains considère ainsi que 6,3 milliards de tonnes du plastique produit est d’ores et déjà devenu un déchet : la planète Terre est en train de se recouvrir peu à peu d’un océan de déchets plastiques qui envahissent tout !

Il faut dire que le recyclage de ce matériau, souvent complexe car nécessitant de séparer soigneusement chacun des polymères différents, reste très marginal puisqu’il ne concerne que 9 % des quantités de plastique mis au rebut. Une part légèrement supérieure, évaluée à 12 % est incinérée. Tout le reste, soit près de 80 % de nos déchets plastiques est donc tout simplement enfoui ou, le plus souvent, abandonné au hasard des vents qui finissent toujours par les pousser dans les cours d’eau et les océans.

Bouteilles plastiques échouées en mer près d’Abidjan (photo © Issouf Sanogo / AFP)

En 2015, la même équipe de chercheurs avait ainsi estimé que 8 millions de tonnes de déchets plastiques avaient été rejetés dans les différentes mers du globe pour la seule année 2010. La plupart de ces plastiques ne se dégradent que très lentement. Ils se fragmentent peu à peu et finissent souvent ingérés par les poissons et autres animaux aquatiques qui bien souvent en meurent.

On observe ainsi, depuis maintenant des années, de gigantesques amas de déchets plastiques plus ou moins immergés, certains parlent de septième continent, qui flottent à la surface des océans et se concentrent dans certaines zones sous l’effet de courants marins de type vortex. Une masse évaluée globalement à plusieurs centaines de milliers de tonnes mais sans doute davantage au vu des dernières estimations. Plus de 80 % de ces déchets viendrait de pays asiatiques mais des observations récentes effectuées par la goélette Tara dans l’Océan glacial arctique montrent que la quantité de déchets plastique que l’on y trouve et qui viennent plutôt de l’Europe et des Etats-Unis y sont également en quantité inquiétante. La situation de la Méditerranée le confirme d’ailleurs largement.

Recueil de déchets immergés dans le cadre de l’expédition Tara (© S.Bollet / Tara)

Les images spectaculaires des plages de l’île Henderson, un îlot désertique de l’archipel Pitcairn, classé sur la liste du patrimoine mondial par l’UNESCO, perdu dans le Pacifique sud à plus de 5000 km de toute zone habitée et dont les côtes sont jonchées de détritus plastique ont largement été diffusées et laissent pantois. Les amas de briquets et rasoirs jetables, de brosses à dents usagées et autres petits soldats en plastique qui viennent échouer ici après avoir parcouru la moitié de la planète, ballottés au gré des courants marins, viennent nous rappeler à quel point notre Terre est vulnérable à l’activité humaine.

Amas de détritus sur une plage de l’ïle Henderson (extrait video © Jennifer Lavers / Univ. Tasmanie)

Certes, on commence à envisager de limiter l’usage de certains objets en plastique. L’interdiction récente des sacs plastiques jetables aux caisses des supermarchés, instaurée en France en 2016, devrait ainsi permettre d’économiser plus de 80 000 tonnes de plastique chaque année, une paille à l’échelle mondiale mais une bonne nouvelle pour la qualité de nos milieux aquatiques et autres espaces naturels.

Malheureusement, les perspectives ne sont pas très encourageantes à l’échelle planétaire. Alors que la production mondiale de matière plastique ne dépassait pas 1 million de tonnes en 1950, elle s’établissait en 2015 à plus de 380 millions de tonnes et rien ne permet de penser que cette croissance pourrait se ralentir dans les années à venir, même si les marchands de pots de yaourts s’enorgueillissent d’avoir réussi à diviser par deux la quantité de plastique nécessaire à leur fabrication.

Evolution des quantités de déchets plastiques produits (en noir), selon leur destination : rejet ou mise en décharge (courbe rouge), incinération (vert) et recyclage (bleu) – extrapolations à l’horizon 2050 (source : R. Geyer, J. R. Jambeck et K. Lavender Law / Science Advances)

Au rythme actuel, les chercheurs considèrent qu’en 2050 la quantité totale de plastique produit s’élèvera ainsi à 25 milliards de tonnes, soit trois fois plus que tout ce qui a déjà été produit à ce jour. Il devrait en résulter 12 milliards de tonnes de déchets de plastique tout bonnement rejetés dans la nature : des chiffres proprement effrayants et qui laisse mal augurer de l’état de notre planète dans les années à venir !

L.V. 

Stationnement payant : un jackpot en perspective !

14 juillet 2017

A compter du 1er janvier 2018, les 800 communes françaises où le stationnement est payant vont pouvoir en confier la gestion au privé : fini donc les aubergines parisiennes et autres policiers municipaux qui déambulent sur les trottoirs pour vérifier si vous avez bien glissé une pièce dans l’horodateur : ce sont bientôt des dizaines de planches des albums de Gaston Lagaffe qui vont devenir vraiment vintage. L’agent Longtarin va devoir se consacrer désormais à d’autres tâches plus gratifiantes…

L’agent Longtarin, gardien séculaire des parcmètres… (© Franquin / Dargaud ed.)

Cette évolution est une des conséquences de la loi de modernisation de l’action publique territoriale et d’affirmation des métropoles adoptée en janvier 2014 et qui donne donc aux municipalités la totale maîtrise du stationnement, leur permettant de décider désormais en toute liberté de la politique tarifaire adoptée et de la manière de procéder au contrôle et à la sanction éventuelle en cas de fraude. Libre ensuite aux maires de choisir s’ils souhaitent conserver en interne la gestion du contrôle ou le confier au privé.

Nouveaux horodateurs à Metz permettant le paiement par smartphone

Et bien entendu, de nombreux édiles piaffent d’impatience de déléguer au privé la gestion de cette nouvelle compétence, histoire d’en maximiser les profits. C’est le cas notamment à Metz où la ville a déjà confié à l’entreprise Indigo (ex Vinci Park), un des leaders du secteur (avec son concurrent Effia), la gestion complète du stationnement payant sur la voirie. L’ensemble des horodateurs de l’agglomération a déjà été changé en début d’année pour les remplacer par des dispositifs plus sophistiqués permettant le paiement par carte bancaire sans contact au moyen d’applications smartphone qui permettent d’alimenter à distance le parcmètre pour prolonger sa durée de stationnement, et qui fournissent directement le numéro d’immatriculation du véhicule, histoire de faciliter l’envoi du PV en cas de fraude…

Bien entendu, la ville profite de cette petite révolution pour augmenter fortement les tarifs de stationnement dans les zones les plus tendues, afin de dissuader les voitures ventouses. Et les PV vont passer désormais de 17 à 35 €. C’est en effet une des conséquences directes de la dépénalisation du stationnement en voirie, inscrit également dans la loi de 2014. On n’est plus tenu désormais de payer un PV en cas de fraude puisque ce n’est plus un délit. En revanche, il convient dans ce cas de s’acquitter d’un simple « forfait post-stationnement », sur le même principe que l’automobiliste qui a perdu son ticket et qui se voit réclamer, au péage de l’autoroute, le montant maximal puisqu’il n’est pas en mesure de prouver à quelle gare de péage il est entré. De la même manière, l’automobiliste négligent qui dépasse la durée de stationnement autorisé, devra s’acquitter du tarif maximal autorisé.

Et dans ce cas, l’addition risque d’être salée. A Paris, il en coûtera pas moins de 50 € aux étourdis ! Tel est en effet le montant du nouveau forfait maximal de 6 heures que vient fort opportunément d’autoriser la ville de Paris, alors que la durée maximale de stationnement jusque là n’était pas autorisée au-delà de 2 heures. Du coup, c’est un véritable jackpot que devrait toucher la capitale d’ici quelques mois. Jusque là, c’était l’État qui percevait le montant des PV et en reversait une partie aux villes, selon un système de péréquation qui profitait également aux petites communes de moins de 10 000 habitants.

Verbalisation pour stationnement dépassé à Paris (© Le Parisien /Delphine Goldsztejn)

Dorénavant, les grandes agglomérations garderont pour leurs propres besoin la totalité du pactole. A Paris, où la maire Anne Hidalgo avait quelque peu surpris en affirmant que 91 % des automobilistes fraudent, ce sont actuellement près de 6 millions de PV qui sont dressés chaque année pour stationnement interdit, ce qui jusque là rapportait, bon an mal an, la somme de 35 millions à la ville. Avec le nouveau montant de l’amende qui n’en est plus une, ce sont pas moins de 300 millions d’euros de recettes qui devraient désormais alimenter les caisses de la capitale ! Une belle culbute, même si tout laisse penser qu’elle ne sera pas durable car on voit mal les Parisiens continuer à payer de telles sommes sans adapter leurs habitudes…

C’est d’ailleurs ce qui s’est passé à Madrid où le contrôle du stationnement se fait désormais au moyen de scooter et de voitures équipées de caméras qui patrouillent dans les rues en scannant systématiquement les plaques d’immatriculation des véhicules garés des deux côtés de la chaussée. Les données sont transmises instantanément à un système centralisé qui vérifie en temps réel si chacun a bien payé son dû et qui, sinon, alerte les agents chargés de verbaliser.

Véhicules de contrôle du stationnement à Madrid (© Le Parisien /J.-G.B.)

Les numéros de plaques d’immatriculation sont en effet obligatoirement saisis lors du paiement si bien que la base de données centrale sait en permanence, rue par rue, quels sont les véhicules qui ont payé et pour combien de temps. Avec un tel dispositif de flicage instantané, le taux de fraude est tombé très rapidement à moins de 15 % et il devient statistiquement impossible d’échapper à une prune si on reste stationné au moins une heure en centre ville : avis aux amateurs !

Un tel système fait bien évidemment baver d’envie la plupart des maires confrontés au problème de la fraude généralisée et c’est le même dispositif que devrait être mis en place prochainement à Paris, toujours par la société Indigo qui sera chargée de fournir et gérer les nouveaux horodateurs, de procéder aux contrôles avec le même système de véhicules pourvus de dispositifs de « lecture automatisée des plaques d’immatriculation » (LAPI) et d’encaisser les fameux forfaits de post-stationnement. Au vu de l’expérience madrilène, on peut s’attendre à ce qu’une voiture équipée LAPI contrôle en moyenne 1500 véhicules à l’heure (un peu moins pour un scooter), là où une aubergine traditionnelle peine à vérifier 150 véhicules dans le même temps : un gain de productivité qui risque d’être redoutable pour l’automobiliste moyen…

Bien entendu, l’opération ne sera pas indolore. A l’échelle nationale, le GART (Groupement des autorités responsables de transport) a déjà fait ses comptes : alors que les recettes actuelles des horodateurs atteignent péniblement 540 millions d’euros, ce sont pas moins de 1 voire 1,5 milliards d’euros supplémentaires qui devraient ainsi être récupérés, directement de la poche des automobilistes et sans que cette recette supplémentaire pour les collectivités ne soit assimilée à un prélèvement obligatoire : brave vache à lait de conducteur…

L.V.  

6ème extinction massive : l’agonie sera brève…

11 juillet 2017

Nous avons tous en tête cette question lancinante qui nous obsède : comment les dinosaures, maîtres du monde et omniprésent à la surface de la Terre durant des millions d’années ont-ils pu bien pu disparaître du jour au lendemain ou presque et céder ainsi la place à d’autres espèces aussi fragiles que ridicules, qui ne faisaient pas le poids à côté de ces monstres, et qui pourtant ont su occuper toute la place laissée libre par leurs redoutables prédécesseurs ?

Astéroïde géant, supernova tueuse, crise climatique brutale ou éruption volcanique cataclysmique, les hypothèses ne manquent pas pour expliquer ces extinctions massives d’espèces qui se sont produites à de multiples reprises depuis que la Terre existe. Celle qui a eu lieu à la fin du Crétacé, il y a maintenant 65 millions d’années ne serait que la cinquième de ces grandes extinctions massives connues, et encore certains en répertorient même plusieurs dizaines.

Pour ce qui est de la disparition des dinosaures, on soupçonne que la chute d’une météorite de 10 à 20 km de diamètre, tombée malencontreusement dans le Golfe du Mexique, aurait pu provoquer un cataclysme suffisant pour expliquer la disparition de ces reptiles qui avaient pourtant su coloniser la quasi-totalité de la planète. D’autres évoquent l’émission de millions de m3 de laves qui s’épanchaient alors sur le vaste plateau du Deccan en Inde durant une vague d’éruptions qui dura pendant près de 1 million d’années, induisant des changements climatiques majeurs à l’origine de la disparition de 47 % des espèces marines et 18 % des vertébrés terrestres, dont la totalité des dinosaures et des reptiles volants.

Empilement de coulées basaltiques au Deccan (Inde)

Une véritable hécatombe donc, mais qui, bien que reliée sans doute à un (ou plusieurs) événement déclencheur brutal, ne s’est probablement pas faite du jour au lendemain comme on a trop tendance à se le représenter. Cela a sans doute pris plusieurs dizaines voire centaines de milliers d’années ! Les hypothèses les plus récentes (mais toujours controversées) estiment que c’est l’impact de la météorite de Chicxulub qui serait à l’origine d’une disparition rapide de la végétation du fait des perturbations climatiques associées à un tel impact, mais que son effet aurait été aggravé par les émissions volcaniques massives du Deccan, elles-mêmes déclenchées par l’impact, tout en reconnaissant qu’il s’est probablement passé environ 50 000 ans entre les deux événements, une paille !

Ammonites pourchassées par un mosasaure

Le plus probable en tout cas est que c’est la photosynthèse qui a été affectée en priorité par ces événements cataclysmiques, provoquant par contrecoup la disparition des espèces végétariennes qu’elles soient marines (ammonites et autres belemnites notamment, mais aussi les mosasaurus qui s’en nourrissaient) ou terrestres, dont les fameux dinosaures, qui ont néanmoins survécu via leurs descendants que sont les oiseaux. Les mammifères, eux, ont profité de l’occasion pour se diversifier et proliférer.

Car c’est une constante du genre : la durée de vie moyenne d’une espèce animale ou végétale est de l’ordre de 5 à 6 millions d’années. Ensuite, elle disparaît ou elle donne naissance, par mutation, à de nouvelles espèces. La vie sur Terre étant riche de millions d’espèces différentes, cela revient à dire que plusieurs espèces disparaissent chaque année, tandis que de nouvelles surgissent régulièrement. Sauf lors de ces crises exceptionnelles qui voient disparaître au même moment des millions d’espèces. La Nature a besoin ensuite de plusieurs millions d’années pour retrouver un nouvel équilibre.

Présenté ainsi, on pourrait considérer que la perte de biodiversité que nous vivons actuellement et que beaucoup présentent comme La Sixième Extinction (c’est le titre d’un livre de la journaliste Elisabeth Kolbert, publié en 2015 et qui a été couronné par le Prix Pulitzer), n’est donc qu’une péripétie de plus comme la Terre en a connue plusieurs au fil des temps géologiques. Sauf que jamais la disparition des espèces n’a connu un rythme aussi rapide et ceci sans même faire appel à une bonne vieille catastrophe naturelle ou un bombardement cosmique de derrière les fagots.

Le dodo, une espèce décimée par l’homme (crédit photo : Ballista)

Selon une étude publiée en juin 2015 dans Science Advances, le taux actuel de disparition des espèces animales serait d’au moins 100 fois supérieur à ce qu’il n’était avant 1900, soit un rythme d’extinction sans précédent depuis la fin des dinosaures. L’Union internationale pour la conservation de la nature considère ainsi qu’environ 41 % des espèces d’amphibiens et 26 % des espèces de mammifères sont désormais menacées d’extinction. Il suffit de se promener dans la galerie du Museum d’Histoire naturelle à Paris pour retracer l’histoire de ces centaines d’espèces qui ont déjà disparu de la surface du globe, exterminées volontairement ou non par des générations de chasseurs.

Et la situation s’aggrave comme vient encore de le montrer une étude publiée cette semaine dans les Proceedings of the National Academy of Sciences par des chercheurs américains et mexicains. Sur 27 600 espèces de vertébrés terrestres étudiés, les chercheurs ont constaté que 32 % avaient vu leurs populations décliner dangereusement, ce qui est un prélude à leur disparition annoncée. La plupart de ces espèces voit son aire de répartition se réduire drastiquement, ce qui est à l’origine de son déclin. Ainsi, le nombre de lions a chuté de 43 % au cours des 20 dernières années et ils ne sont plus présents en Afrique que sur de minuscules territoires résiduels.

Le chardonneret élégant (source : Nature Alsace)

Les orang outangs à Bornéo ont vu leurs effectifs fondre de 25 % ces 10 dernières années tandis qu’en France le nombre de chardonnerets a diminué de 40 % dans le même temps. Au total, ces chercheurs estiment que le nombre total de vertébrés terrestres aurait ainsi été divisé par deux en 40 ans, ce qui vient confirmer les chiffres alarmistes annoncés en 2016 par le WWF qui estimait que 58 % des population de vertébrés avait disparu entre 1970 et 2012.

Les causes de cette nouvelle extinction massive qui se produit sous nos yeux à un rythme jamais connu sont parfaitement connues et analysées. Elles sont toutes liées directement à l’activité humaine : déforestation, urbanisation, exploitation minière, agriculture intensive, pollution des eaux, réchauffement climatique, transfert d’espèces invasives. La perte de biodiversité qui en résulte est maximale dans les milieux les plus vulnérables que sont notamment les îles, là où l’isolement avait permis le développement d’espèces endémiques qui disparaissent très rapidement lorsque l’activité humaine les met en contact de prédateurs nouveaux. La littérature scientifique regorge de tels exemples, mais l’enjeu est aussi la biodiversité ordinaire, celle des papillons et des abeilles dont les populations sont en train de s’effondrer alors même qu’elles sont vitales pour assurer la pollinisation nécessaire à l’activité agricole et donc à la survie de l’humanité.

Un dessin signé Ahmet Aykanat

C’est finalement la seule bonne nouvelle que l’on pourrait retenir : il ne reste plus beaucoup de temps pour inverser la tendance d’un cycle aussi mortifère et au vu des décisions de certains responsables politiques actuels, tout laisse penser que les choses ne vont aller qu’en s’accélérant. La sixième extinction massive est bien engagée, sera très vraisemblablement fatale à l’espèce humaine et elle devrait être courte : au train où vont les choses, la Planète ne devrait plus avoir à nous supporter pendant très longtemps…

L.V. 

U-864 : une bombe à retardement ?

27 juin 2017

Michel L’Hour, directeur du DRASSM

L’affaire a été de nouveau évoquée à l’occasion d’un colloque sur le trafic d’antiquités en eaux profondes, organisée tout récemment pour célébrer la création du tout nouveau tribunal maritime de Marseille qui couvre désormais 26 départements de la façade sud du pays. Michel L’Hour, directeur du DRASSM, le Département des recherches archéologiques subaquatiques et sous-marines, un service de l’État créé par André Malraux et basé à l’Estaque, y a notamment rappelé que le trafic d’antiquités, actuellement en pleine expansion, est désormais le troisième au monde en importance, derrière celui des stupéfiants et celui des armes.

Et les antiquités présentes dans les nombreuses épaves qui jonchent les fonds marins sont de plus en plus exposées à ces pilleurs modernes redoutablement équipés. Comme l’a évoqué Michel L’Hour, « l’archéologue aux pieds palmés », ainsi qu’il aime se définir lui-même, « la mer est le plus grand musée du monde, ouvert jour et nuit, mais sans aucune sécurité ni vitrines protégées », d’où cette grande vulnérabilité aux pilleurs d’épaves.

Mais Michel L’Hour a aussi évoqué un autre danger qui guette les fonds marins du fait de ces multiples épaves coulées au fil de l’Histoire : le risque de pollution. Des centaines de milliers d’épaves de navires engloutis jouchent les fonds marins : on en recense 9000 uniquement sur les côtes Sud et Est de l’Angleterre ! Plus de 70 % des épaves qui se trouvent dans les eaux européennes datent de la première et seconde Guerre mondiale. Or, la corrosion, menace de libérer leurs contenus : dans la mer, le métal se corrode inéxorablement, perdant chaque année de l’ordre de un dizième de mm d’épaisseur…

Caisses de munitions jetées en mer au large de Singapour après la 2ème guerre mondiale (photo d’archive, Imperial War Museums)

Le pétrole qui se trouve encore dans ces épaves n’est pas le pire des composants qu’ils contiennent. Les anciennes munitions et certains produits chimiques sont autrement plus inquiétant. C’est le cas notamment du fameux gaz moutarde, l’ypérite, largement utilisé lors de la Première guerre mondiale et dont on s’est souvent débarrassé des stocks devenus inutiles en les immergeant en mer. Dans l’eau, ce produit se transforme en une pâte jaunâtre ingérée par les poissons et qui entre ainsi dans notre chaîne alimentaire…

Et parmi ces bombes à retardement qui hantent nos côtes, citons le cas du sous-marin allemand U-864 et de sa cargaison de mercure qui se déverse lentement au large des côtes scandinaves depuis meintant plus d’un demi-siècle…

Torpillé devant Bergen, en Norvège, par les Britanniques le 9 février 1945, avec à bord 73 hommes d’équipage, alors qu’il partait pour le Japon avec les moteurs et les plans du Messerschmitt 262, premier avion à réaction, ce sous-marin allemand transportait aussi à son bord 67 tonnes de mercure conditionné dans des bouteilles en acier de 37 kg. Parti le 5 décembre 1944 de Kiel, il était chargé d’une mission secrète, baptisée « Opération Caesar », destinée à apportée aux alliés japonais les technologies nécessaires pour augmenter leur effort de guerre en cette période décisive. Mais lors d’une escale technique à Bergen, il subit un bombardement car les Britanniques ont percé le code Enigma et identifié l’enjeu de cette mission. Lorsqu’il peut enfin reprendre la mer, une nouvelle avarie machine le contraint à rebrousser chemin vers Bergen et c’est là qu’il est pris en chasse par un sous-marin britannique, le HMS Venturer, qui l’envoie par le fond, au large de l’ïle de Fedge.

L’épave de l’U-864 au fond de la mer (photo © Van Oord)

Au début des années 2000, un pêcheur norvégien remonte dans un de ses filets une pièce de U-Boot et la Marine norvégienne entreprend des recherches qui lui permettent de retrouver, le 22 février 2003, l’épave du sous-marin, coupé en deux, reposant par 150 m de fond, à quelques km des côtes de la petite île norvégienne. Dès lors se pose la question de l’avenir des 1857 flasques en acier contenant les 67 tonnes de mercure liquide, destiné à la fabrication d’amorces de munitions (à base de fulminate de mercure) et désormais éparpillé au fond de l’eau.

En 2005, on observe ainsi qu’une de ces bouteilles s’est ouverte sous l’effet de la corrosion et que tout le mercure s’en est échappé. On en retrouve sur une surface estimée à 3 ha ! Les Norvégiens commencent à redouter une nouvelle catastrophe sanitaire à l’égal de ce qui s’était produit dans la baie de Minamata au Japon, où les rejets de métaux lourds issus de l’industrie pétrochimique avaient occasionné plus de 900 décès entre 1949 et 1965. Des prélèvements sont effectués et on constate que l’acier des flasque, dont l’épaisseur initiale atteignait 5 mm, ne faisait plus qu’1 mm par endroit, du fait de la lente corrosion…

Une des 1857 flasques remplies de mercure et désormais fuyardes

Les études s’enchaînent à partir de 2006, pour tester différentes solutions techniques. Les autorités privilégient plutôt le recouvrement de l’épave par un sarcophage tandis que les populations riveraines, dont les 561 habitants de l’île de Fedge, préfèrent une solution plus durable mais plus coûteuse et techniquement complexe qui consiste à renflouer l’épave. Un bras de fer s’engage et finalement en 2009, le gouvernement norvégien accepte d’engager les travaux de renflouement pour un montant estimé à un milliard de couronnes norvégiennes, mais estime nécessaire d’engager au préalable des études complémentaires…

Quatre ans plus tard, en janvier 2013, Lisbeth Berg-Hansen, ministre des Pêches et Affaires côtières, indique devant le Parlement que les études sont toujours en cours et qu’il n’existe toujours pas de calendrier prévisionnel pour les travaux. D’ailleurs, en mai 2014, un nouveau rapport est publié, préconisant une fois de plus la solution du recouvrement par un sarcophage jugée plus raisonnable. Il a fallu finalement attendre le printemps 2016 pour que les travaux de recouvrement de l’épave soient enfin réalisés, confiés au spécialiste néerlandais du dragage et des opérations offshore Van Oord. Une couche de sable a été déposée sur l’ensemble de l’espace contaminé et l’épave, au moyen d’un diffuseur crée spécialement pour cet usage et été installé sur le robot télé-opéré (ROV) du navire de pose de flexibles Stornes. En tout, près de 30.000 tonnes ont été déposées, formant une couche de 50 cm d’épaisseur. Celle-ci a ensuite été recouverte par 160.000 tonnes de rochers. Pourvu que ça dure…

L.V.  

Fondation Louis Vuitton : merci les contribuables !

24 juin 2017

Jeunes Chinoises accro aux sacs Louis Vuitton…

LVMH : Louis Vuitton Moët Hennessy… Des lettres qui symbolisent le summum du luxe à la française, destiné à tous les snobinards de la planète, du riche émir qatari au parvenu de la mafia russe en passant par tous ces riches touristes asiatiques qui se pressent sur les Champs-Elysées pour acquérir à prix d’or un sac siglé destiné à exposer à tous leur réussite sociale.

Le groupe date de 1987, créé par le rapprochement de la firme Louis Vuitton, spécialisée en maroquinerie de luxe et issue d’une fabrique de malles fondée en 1854, et de la société de spiritueux qui regroupe des marques prestigieuses comme le cognac Hennessy (qui s’exporte depuis 1859 en Chine), mais aussi le champagne Moët et Chandon et la marque de parfums Christian Dior rachetée au groupe Boussac peu auparavant.

Bernard Arnault, PDG du groupe LVMH, en 2015 (photo © Eric Piemont/AFP)

C’est ce dernier fleuron du luxe français qui attise la convoitise du requin de la finance qu’est Bernard Arnault, lequel venait d’acquérir en 1984 ce qui restait de l’empire textile Boussac – Saint Frères. Dès 1989, Bernard Arnault prend ainsi le contrôle de LVMH, via la Financière Agache, et rassemble sous le nom de holding Christian Dior, les activités liées au parfum et à la haute-couture, qui s’enrichissent en 1997 à l’occasion de l’acquisition de Sephora. A l’issue d’une bataille juridico-financière féroce, l’impitoyable Bernard Arnault se débarasse progressivement des autres actionnaires et devient propriétaire principal du groupe LVMH en 1990. Tout le reste de l’histoire de cette société n’est qu’une longue succession d’OPA hostiles et de rachats à la hussarde pour permettre aux groupe de racheter des marques réputées et s’imposer progressivement comme le géant mondial du luxe.

L’affiche du film de François Ruffin, à charge contre Bernard Arnault

Détenu à 46,7 % par Bernard Arnault, son PDG, le groupe LVMH emploie de l’ordre de 125 000 personnes dans le monde, détient près de 4000 magasins disséminés à travers la planète et a engrangé en 2016 un chiffre d’affaire de 37,6 milliards d’euros. Champion de l’optimisation fiscale, LVMH serait le groupe français qui détient le plus de filiales implantées dans des paradis fiscaux, avant même BNP Paribas, pourtant assez fort dans ce domaine. Le groupe s’est également diversifié dans les médias, en rachetant notamment Les Echos et Le Parisien, histoire de manipuler l’opinion publique au gré de ses intérêts, tout en pesant de tout son poids sur les autres médias via le marché publicitaire de ses marques de luxe, LVMH constituant le principal annonceur publicitaire en France…

Epinglé par le journaliste et désormais député La France insoumise, François Ruffin, dans son film satirique « Merci, patron ! », le milliardaire Bernard Arnault se défend mollement en reconnaissant que « le groupe LVMH est l’illustration, l’incarnation de ce que, pour ces observateurs d’extrême gauche, l’économie libérale produit de pire ». Et voila que certains commencent à s’interroger sur les dessous d’une autre affaire qui concerne cette fois la Fondation Louis Vuitton.

Créée en 2006 pour faire contrepoids à la fondation installée dans l’ancienne Bourse du Commerce, à deux pas des Halles qui est dirigée par son rival de toujours, l’autre milliardaire François Pinault, la Fondation Louis Vuitton se présente comme un outil de mécénat artistique, né de la rencontre avec l’architecte Franck Gehry, concepteur du musée Guggenheim à Bilbao. Grâce à son entregent et en moins de 2 mois, le patron de LVMH obtient que la Ville de Paris lui cède gratuitement une parcelle de 1 ha dans le Bois de Boulogne pour une durée de 55 ans. Le permis de construire, qui fera l’objet d’un recours jusque devant le Conseil d’État, mais en vain, est attribué en un temps record et la starchitecte Franck Gehry peut laisser libre court à son imagination délirante pour concevoir ce que les observateurs qualifient selon leur inspiration de « bateau à voile », de « baleine-obus » ou de « nuage ».

Le bâtiment de la Fondation Louis Vuitton (source FLV)

Achevé fin 2013, le bâtiment bénéficie d’une inauguration en grandes pompes le 27 octobre 2014 en présence du chef de l’État, François Hollande, lequel a préféré venir inaugurer cet établissement privé plutôt que le Musée des Confluences à Lyon, comprenne qui pourra… A l’époque, tout le monde s’extasie devant l’originalité de cet écrin, même si les entreprises chargées de sa construction pour le moins atypique reconnaissent que « jamais un bâtiment n’aura été aussi complexe à construire pour satisfaire le génie d’un architecte ». Il faut recourir aux calculateurs de Dassault Aviation pour dimensionner les milliers de pièces à assembler dont 19 000 plaques de béton fibré toutes différentes et les 12 voiles en verre, moulées sur mesure dans un four spécial.

Inauguration du bâtiment par François Hollande vu par le dessinateur Na !

Un travail de titan qui a un coût, maintenu soigneusement caché… On parle à l’époque d’une facture dépassant les 100 millions d’euros. Mais selon l’universitaire Jean-Michel Tobelem, spécialiste du mécénat d’entreprise et dont la tribune publiée dans Le Monde en octobre 2014 sous le titre « Le mécénat d’entreprise sans la générosité » avait fait quelques vagues, le coût est plutôt de l’ordre de 400 à 500 millions, sans commune mesure avec les 75 millions d’euros qu’a coûté par exemple l’aménagement du Centre Pompidou à Metz. Mais à l’époque chacun n’a d’yeux que pour l’extrême générosité du milliardaire : « C’est un cadeau de Bernard Arnault aux Parisiens », comme le répètent en boucle ses thuriféraires.

Un chantier d’une grande complexité technique (source : Fondation Louis Vuitton)

Mais un cadeau de luxe : selon les dernières estimations dévoilées par Emmanuel Lévy dans l’hebdomadaire Marianne, le chantier pharaonique aurait finalement coûté la bagatelle de 775,8 millions d’euros ! Et ceci sans compter les coûts de fonctionnement qui se seraient élevés en 2015 à près de 80 millions d’euros, quasiment la moitié de ceux du Louvre qui reçoit pourtant 10 fois plus de visiteurs. Rapporté au nombre de visiteurs, cela représente quand même 80 € par tête de pipe. On comprend dans ces conditions pourquoi l’entrée est si chère : 14 € par personne, seuls les enfants de moins de 3 ans pouvant y entrer gratuitement. Dans le monde du luxe, il convient d’apprendre très jeune que tout se paye, et cher…

Le pire c’est que ce sont les contribuables français qui payent la plus grande part de ce geste de générosité du délicieux Bernard Arnault. Grâce aux dispositions législatives issues de la loi Aillagon de 2003, les plus généreuses du monde en faveur du mécénat d’entreprise, 60 % des sommes investies sont déduites de l’impôt sur les sociétés. En 2015, LVMH a ainsi siphoné à lui seul 10 % de l’enveloppe affectée.

Le bâtiment de la Fondation Louis Vuitton coloré par Daniel Buren en mai 2016 (photo © Philippe Guignard / Air Images / Fondation Louis Vuitton)

Et ce n’est pas tout puisque le groupe a également adressé à Bercy une demande de remboursement de la totalité de la TVA payée dans le cadre du chantier, soit la bagatelle de 130 millions d’euros supplémentaire. Au final, c’est donc près de 80 % du coût du projet qui sera payé non pas par le richissime propriétaire de LVMH mais bien par le contribuable français, tandis que le groupe de luxe cultive son image de généreux mécène éclairé qui se glorifie d’avoir réalisé « un acte philanthropique majeur vis-à-vis de Paris ». On reste en effet confondu devant un tel savoir faire en matière de communication…

L.V. 

Comment lutter contre les moustiques ?

17 juin 2017

Le moustique tigre, Aedes albopictus

Avec le retour des beaux jours et l’arrivée des cigales, ce sont aussi les moustiques qui s’en donnent à coeur joie, et parmi eux le redoutable moustique tigre, Aedes albopictus, potentiel vecteur de la dengue, du chikungunya et du Zika ! Arrivé en France en 2004, en provenance de l’Asie du sud-est, le moustique tigre est désormais implanté durablement dans une trentaine de départements français et son expansion se poursuit grâce à son excellente adaptation aux milieux urbains et à la capacité de ses œufs à résister aux périodes de froid hivernal.

Pour autant, le moustique tigre n’est que l’une des 3500 espèces de moustiques recensées dans le monde, dont 64 en France métropolitaine (et 238 en Guyane !). Seules environ 200 de ces espèces s’attaquent à l’homme, parmi lesquelles le moustique ordinaire, Culex pipiens, encore très répandu en France mais qui commence à se faire rare à Carnoux où il a été largement supplanté par son cousin asiatique nettement mieux adapté à l’environnement local.

Le classique, Culex pipiens (photo Stephen Doggett, NSW Health Pathology)

La lutte contre les moustiques s’est développée au tout début du XXème siècle, après que le médecin militaire Alphonse Laveran, alors en poste à Alger, a découvert en 1880 que le paludisme était provoqué par un hématozoaire, Plasmodium falciparum, puis a compris le rôle des moustiques de type anophèles dans la transmission de ce parasite. Jusque là, on se contentait de lutter contre la malaria en tentant d’assécher les zones humides. A partir de cette période, les actions sont devenues plus ciblées, et moins impactantes pour ces zones humides qui jouent par ailleurs un rôle majeur pour la biodiversité mais également pour la régulation du cycle de l’eau : diffusion des moustiquaires, introduction massive de gambusies, poissons dont les larves se nourrissent de moustiques et qui se sont révélés particulièrement invasifs, mais aussi campagnes de désinsectisation à coup de produits chimiques peu ragoûtants…

Epandage de DDT sur une plage dans les années 1950

C’est ainsi que dès 1943 et avec l’aide des troupes américaines de débarquement, des campagnes s’organisent pour pulvériser, à l’intérieur même des habitations de certains régions de Corse, un mélange à base de pétrole et de DDT… Dans les années 1960, ce sont les zones côtières du Languedoc qui sont aspergées de DDT par voie aérienne pour les assainir avant d’y développer le tourisme de masse.

La mise en évidence des risques liés à l’utilisation massive de cet insecticide, révélés notamment par le livre de la biologiste américaine Rachel Carson, Printemps silencieux, publié en 1962, mettra progressivement un terme à de telles pratiques. En 1976, la découverte du Bti, Bacillus thuringiensis israelensis, insecticide biologique très sélectif et peu toxique pour les autres espèces, permet de lancer la démoustication dans des zones comme la Camargue qui jusque là avaient été relativement épargnées par ces campagnes du fait de son statut de zone naturelle protégée, et ceci bien qu’elle ait été le théâtre de la dernière épidémie de paludisme connue sur le territoire métropolitain en 1943.

En Camargue, comme sur toute la frange littorale des Pyrénées-Orientales jusqu’aux Bouches-du-Rhône, c’est un établissement public créé en 1958, l’Entente interdépartementale pour la démoustication (IED) qui est chargé de la lutte contre la prolifération des moustiques et principalement des espèces les plus nuisibles pour l’homme que sont Aedes caspius et Aedes detrius, dont les larves se développent en milieu humide. La stratégie adoptée depuis août 2006 en Camargue consiste à identifier les gîtes larvaires qui font l’objet d’une surveillance permettant de déclencher à bon escient les traitements (principalement par voie aérienne) à base du larvicide Bti, qui n’est toxique (par ingestion) que pour les larves de nématodes (dont font partie les moustiques) mais pas pour les autres organismes aquatiques.

Epandage de Bti en Camargue (source Actu environnement)

Ces pratiques sont fortement encadrées et accompagnées d’une démarche de suivi environnemental pour évaluer l’impact de ces interventions sur le milieu naturel. Le Parc naturel de Camargue impose en effet que 10 % de l’enveloppe consacrée à la démoustication soit affectée à un suivi de son impact écologique et sociologique. Or ces études ont mis en évidence que l’effet de ces traitements est loin d’être négligeable et se répercute sur toute la chaîne alimentaire : la destruction des larves de moustiques et de chironomes provoque une diminution de moitié des populations d’odonates (libellules et autres agrions) et de 60 % des araignées, ce qui se traduit déjà par une diminution d’un tiers des passereaux, confirmant s’il en était encore besoin, que tout équilibre écologique est par nature fragile…

Du coup, les recherches s’orientent désormais vers la mise en œuvre de stratégies encore plus ciblées qui visent à réguler les populations de moustiques uniquement là où elles constituent une véritable gêne pour les populations, donc dans les lieux habités. Il s’agit pour cela de mettre en place des pièges à moustiques pour constituer des barrières autour des zones urbanisées.

Schéma de principe d’un piège à moustique artisanal (source : espacebuzz)

L’idée du piège à moustique individuelle est vieille comme le monde et il suffit de regarder sur internet d’excellentes vidéo qui expliquent en détail comment constituer un piège à moustique en coupant en deux une bouteille en plastique au fond de laquelle on dispose un mélange de sucre roux, d’eau et de levure de boulanger, avant de refermer le récipient avec la partie conique renversée : les moustiques attirés par le produit sucré rentrent dans la bouteille mais n’arrivent plus à en ressortir. Le système est efficace mais doit être renouvelé régulièrement.

Les inventeurs de la borne anti-moustiques (source : Qista)

Pour être utilisé à une échelle plus industrielle, d’autres dispositifs existent dont un breveté en 2013 et désormais produit par la société Qista, basée à Aix-en-Provence. Ces BAM, ou bornes anti-moustiques, attirent les moustiques en reproduisant la respiration humaine au repos (par expirations saccadées de gaz carbonique) et en diffusant des composés chimiques à base d’acide lactique proches de la sueur humaine. Les moustiques sont aspirés par un ventilateur dès qu’ils s’approchent du piège et sont retenus dans un filet. Le dispositif a été testé dans un hameau d’Arles en 2015 et s’est avéré particulièrement efficace pour un coût relativement modique tout en se montrant particulièrement sélectif : sur plus de 250 000 insectes capturés, 99,7 % appartiennent à 9 espèces de moustiques ciblées ! En 2016, 15 pièges de ce type ont été mis en place et l’expérience pourrait encore s’étendre.

Piège contre le moustique tigre développé par l’IED (source © France3 Languedoc-Roussillon)

Vis à vis du moustique tigre, des démarches similaires se développent également. La particularité de cette espèce est que les femelles pratiquent une ponte fractionnée en répartissant leurs œufs dans différents endroits jugés propices mais dispersés et peu aisés à détecter. L’idée consiste donc à les attirer dans des gîtes très attractifs mais rendus inaccessibles par une moustiquaire munie d’une chambre de contamination où le moustique s’enduit les pattes d’un peu d’insecticide. Ne réussissant pas à y déposer ses œufs, la femelle ira pondre ailleurs mais en disséminant l’insecticide sur tous ses lieux successifs de ponte, ce qui le rend du coup très opérant sur les futures larves.

Bref, l’ingéniosité humaine dans la lutte contre son ennemi séculaire, le moustique, n’a pas de limite…

L.V.  

La plupart des informations de cet article sont issues du n° 92-93 de l’excellente revue Zones Humides infos publiée par la SNPN (Société nationale de protection de la nature)

La douche écolo qui vous en fait voir de toutes les couleurs

17 mai 2017

Ségolène Royal et Gabriel Della-Monica, le fondateur de Smart & Blue

« L’écologie ne doit pas être punitive » disait Ségolène Royale pour justifier l’abandon totalement injustifiable de l’écotaxe poids lourds. Encore ministre de l’écologie la semaine dernière, comme elle l’était déjà en 1992, l’auteur de cette sentence mémorable serait, aux dernières nouvelles, toujours à la recherche d’un point de chute pour se recaser après que sa candidature à la tête du Programme des Nations Unies pour l’Environnement a été écartée… Pour autant, affirmer que les changements de comportements individuels en faveur d’une meilleure prise en compte des enjeux environnementaux ne passent pas par la contrainte mais par l’adhésion et la conviction, voila assurément une idée qui ne manque pas de bon sens…

Pommeau de douche connecté Hydrao First (photo © Erwan Lecomte / Sciences et Avenir)

C’est ce côté ludique qu’a voulu explorer la jeune entreprise grenobloise Smart & Blue, un nom qui fleure bon le terroir alpin, en développant son dernier produit, elle qui se présente comme le « leader des technologies innovantes et connectées pour une gestion intelligente de l’eau potable », rien que ça ! L’idée, il est vrai ne manque pas d’originalité puisqu’elle consiste ni plus ni moins qu’à prendre sa douche en couleur, grâce à un pommeau intelligent dont les buses sont équipées de LED polychromes qui éclairent l’eau du bain de toutes les couleurs.

L’objectif n’est bien évidemment pas de transformer sa salle de bain en boîte de nuit, mais tout simplement d’inciter à économiser l’eau de la douche. Quand on ouvre le robinet, les LED éclairent l’eau du jet en vert. Jusque là, tout va bien, à condition de ne pas faire couler plus de 10 litres d’eau, un volume normalement largement suffisant pour se laver correctement, comme le savent tout ceux qui ont un jour testé les douches à l’ancienne, constituées d’un simple seau d’eau et d’un récipient adapté, bol en plastique ou calebasse selon les usages locaux.

A partir de ce volume fatidique de 10 l, le jet d’eau passe au bleu. Rien de bien inquiétant encore, mais à partir de 20 l, l’eau de la douche passe au rose, puis au rouge et au-delà de 40 l, le rouge se met à clignoter. Rassurez-vous, il n’arrivera rien de plus grave au-delà, mais après un tel festival de couleur, même le consommateur le plus endurci et le plus rétif aux économies d’eau sera incité à tourner le robinet et à attraper sa serviette pour se sécher. Selon le concepteur du système, le Français moyen n’utilise pas moins de 80 l pour sa douche quotidienne, au point que pour une famille de 4 personnes l’eau de la douche représente près de 40 % de la consommation quotidienne d’eau : l’enjeu n’est donc pas mince !

Répartition de la consommation de l’eau domestique par type d’usage en France (source © Centre d’information sur l’eau)

Bien évidemment, un concept aussi novateur, commercialisé sous le nom d’Hydrao First et déjà récompensé par plusieurs prix  n’a pas besoin d’électricité pour fonctionner car cela rendrait l’empreinte environnementale du dispositif nettement moins séduisante, sans compter le risque d’hydrocution : le système utilise simplement une turbine intégrée qui tourne sous l’effet du jet d’eau et qui fournit l’énergie nécessaire à l’éclairage des lampes. Un dispositif astucieux et par ailleurs totalement branché.

L’appli smart shower

Car bien entendu, un tel bijou de technologie est forcément connecté. Une appli adaptée permet de paramétrer sur son smartphone ses propres seuils de réglage des changements de couleurs mais aussi de suivre l’historique de consommation de ses 200 dernières douches et de comparer sa consommation par rapport à sa douche de référence. De quoi occuper les amateurs de statistiques, et de quoi attiser les conversations familiales car bien entendu l’appli n’est pas en mesure de faire la distinction en fonction de l’utilisateur. Impossible désormais, avec un tel mouchard à la maison, de se prélasser tranquillement sous la ouche sans se faire ensuite vertement remarquer qu’on a sérieusement fait baisser la moyenne familiale et fortement augmenter la facture d’eau et d’électricité.

Suivi de consommation (photo Sciences & Avenir)

Tout se paye en effet et on sait illico en sortant de la salle de bain combien nous ont coûté ces quelques minutes passées sous la douche. Pas autant certes que le pommeau lui-même car ce gadget futuriste est quand même vendu pour près de 90 € et on a intérêt à se doucher souvent pour espérer amortir un jour un tel investissement…

C’est en tout cas une excellente affaire pour son concepteur dont la société vient de recevoir une nouvelle récompense lors d’un salon professionnel qui s’est tenu à Las Vegas en janvier dernier pour ses deux dernières nouveautés Hydrao Drop et Hydrao Loop. Toujours connectée à la même application Smart Shower, cette dernière est un pommeau de douche dont le design très élaboré rappelle vaguement le signe mathématique de l’infini, mais dont les fonctionnalités sont tout à fait comparables à celle du pommeau d’entrée de gamme Hydrao First, avec néanmoins une efficacité accrue en matière d’économie d’eau, pour la modique somme de 169 €.

Hydrao Loop, dernier né de la gamme au look futuriste

On peut bien sûr ironiser sur l’aspect gadget de ces innovations mais on est bien obligé de reconnaitre que son inventeur, l’ingénieur en télécom Gabriel Della-Monica, a su faire d’une idée originale un beau succès commercial. Installée au sein du pôle de haute technologie nano et microélectronique de Grenoble, la société Smart & Blue a mis 2 ans pour développer le produit, disponible à la vente depuis 2015. Deux ans plus tard, la société a déjà embauché plus de 10 salariés et est en plein développement. Quant à la fabrication, elle est sous-traitée à une entreprise industrielle qui favorise l’intégration des travailleurs handicapés : un bel exemple de la French Tech qui réussit en mettant en avant ses valeurs de responsabilité sociale et environnementale. Le cas n’est pas si fréquent et mérite d’être salué !

L.V.

Après les eaux usées, Marseille s’attaque au pluvial !

3 mai 2017

Baignade interdite au Prado après un orage (photo © P. Laurenson / AFP)

A Marseille, comme chacun sait, mieux vaut ne pas se baigner sur la plage du Prado après un orage. Rappelons que ce parc balnéaire qui s’étend sur 3,5 km de littoral et couvre près de 26 ha, a été aménagé de manière complètement artificielle à la fin des années 1970, sous la mandature du Gaston Deferre, pour permettre avant tout de se débarrasser à moindre frais des millions de m³ de déblais issus des chantiers de construction des lignes de métro. A l’époque, on ne prenait guère de gants avec l’environnement y compris dans une zone littorale située comme celle-ci à l’embouchure de l’Huveaune, dans un milieu naturel qui a dû jadis être un haut-lieu de la biodiversité…

Plages du Prado avec au centre l’embouchure de l’Huveaune

Il faut dire aussi que, dans les années 1970, l’Huveaune, à son arrivée en mer, n’était qu’un vaste égout malodorant charriant les effluves des nombreuses industries qui bordaient ses berges, et servant d’exutoire en mer aux eaux usées d’une partie de Marseille et des communes de l’amont, dont Carnoux.

Le réseau souterrain servant à canaliser les eaux usées s’était construit progressivement au cours du XIXe siècle, sous forme unitaire au centre ville, sous forme séparative (les eaux pluviales de ruissellement étant collectées à part) dans les quartiers plus récents et les communes voisines.

Vue du Grand émissaire de Marseille (photo © SERAMM)

Mais jusqu’en 1987, tout était rejeté directement en mer, sans le moindre traitement, via un grand émissaire construit en 1896 et aboutissant dans l’anse isolée et peu accessible de Cortiou, en plein coeur du massif des calanques, où un vaste fleuve de déchets boueux se jette dans la mer, en attendant qu’un jour peut-être, la collectivité finisse par le prolonger plus au large pour diminuer l’incidence de ces rejets sur les fonds côtiers les plus fragiles.

Rejet en mer dans la calanque de Cortiou (source)

En 1979, alors que la plage du Prado est aménagée, il n’est plus question d’y déverser les eaux fortement pollués et toxiques de l’Huveaune. Une dérivation est donc créée, qui renvoie ces eaux directement dans l’émissaire de Cortiou où elles sont ensuite rejetées en mer, ni vu ni connu. En période de fortes pluies cependant, lorsque l’émissaire est saturé, un déversoir d’orage permet aux eaux de l’Huveaune en crue de rejoindre leur lit naturel et de se rejeter en mer le long de la plage du Prado, qu’elles polluent alors allègrement en jonchant la plage des multiples déchets qu’elles charrient.

Vue en surface de la station de traitement des eaux usées Géolide

Dans les années 1970, sous la pression de certains naturalistes et des plongeurs qui s’alarment de la disparition des herbiers de posidonies et de l’appauvrissement de la faune marine au large des côtes marseillaises totalement ravagées jusqu’à plus de 40 km du rivage par ce flux incessant d’eaux polluées, la ville se décide enfin à mettre en oeuvre une station d’épuration physico-chimique, destinée au traitement des eaux usées de Marseille et de 15 communes environnantes, dont Carnoux. Le chantier commence en 1984, en bordure de l’Huveaune. La station, enterrée sous le stade Vélodrome, est mise en service en 1987.

Mais le renforcement de la réglementation en matière de traitement des eaux usées, avec notamment l’adoption en 1991 de la directive européenne sur les eaux résiduaires urbaines, rend très vite cette station insuffisante. En 2008, elle est donc complétée par l’adjonction d’un dispositif de traitement biologique, dit Biostyr, installé sous l’esplanade Ganay. La nouvelle station, dénommée Géolide, constitue la plus grande usine enterrée de traitement des eaux usées du monde et traite 70 millions de m³ d’eau usée par an.

Schéma de la station Géolide (source)

L’eau y est injectée dans 34 bassins de 1500 m³ chacun, remplis de billes de polystyrène sur 3,50 m d’épaisseur. Les bactéries fixées à la surface de ces billes fixent une partie de la pollution au passage. Pour éviter le colmatage des billes, celles-ci sont lavées chaque jour et l’eau de lavage subit un traitement physico-chimique par coagulation et floculation, suivi d’une décantation lamellaire afin d’agglomérer, concentrer et piéger les bactéries sous forme de boues. Ces boues sont alors acheminées vers une usine de traitement, située à 6 km de là, dans l’ancienne carrière de la Cayolle qui surplombe la calanque de Sormiou. Les boues y sont épaissies et séchées avant d’être valorisées sous forme de compost qui sert actuellement à réhabiliter l’ancienne décharge d’ordures ménagères d’Entressen.

Vue de la station de traitement de la Cayolle (photo © Lakko Marseille)

Cependant, en cas de forte pluie, le système d’assainissement n’est pas en mesure de traiter l’ensemble des effluents collectés car les eaux de ruissellement viennent alors grossir les flux habituels d’eaux usées, provoquant rapidement la saturation des capacités de traitement. Pour éviter que la ville ne soit noyée sous un flot d’eaux polluées et nauséabondes, tout l’excédent est alors rejeté directement en mer, principalement par l’émissaire de Cortiou mais aussi en partie via l’ancien exutoire de l’Huveaune, donc directement sur la plage du Prado !

Ce problème récurrent commençant à déprécier sérieusement l’attrait touristique de la ville, l’ancienne Communauté urbaine Marseille Provence Métropole s’est engagée en 2010 dans un projet de contrat de baie, désormais opérationnel depuis juin 2015 pour une durée de 6 ans avec, à la clé, un budget de 265 millions d’euros, dont 185 millions engagés via le Contrat d’agglomération de traitement des eaux usées signé l’année d’avant avec l’Agence de l’Eau Rhône-Méditerranée, et 25 millions mobilisés dans le cadre du contrat de rivière de l’Huveaune, signé en octobre 2015 à Aubagne.

Inondations rue de Rome à Marseille en septembre 2000 (photo © Bataillon des marins-pompiers de Marseille)

Une des actions phares de ce contrat de baie consiste précisément à s’attaquer enfin au problème des eaux pluviales qui rendent inopérant le traitement des eaux usées de l’agglomération marseillaise en période de fortes pluies. L’objectif affiché, qui peut paraître modeste, est de réduire de 50 % les rejets d’eaux usées non traitées vers la calanque de Cortiou au cœur du Parc National des Calanques, et ceci en réponse à un arrêté préfectoral de janvier 2004 qui impose à la collectivité de réaliser d’ici fin 2018 une capacité de rétention des eaux usées de 90 000 m³.

Un premier ouvrage a ainsi été réalisé dès 2007 à l’occasion des travaux de requalification de la rue de la République dans le cadre de la prolongation du tramway. Gigantesque cylindre de 49 m de long situé à 15 m sous terre, ce bassin permet de stocker 14 500 m³ collecté en centre ville. Les gros déchets y sont récupérés et la partie claire de l’eau décantée est rejetée en mer une fois l’orage passé, tandis que les eaux polluées sont envoyées à la station de traitement dès que celle-ci est de nouveau en capacité de les traiter. Quatre autres basins sont prévus sur le périmètre de l’agglomération marseillaise : un de 12 000 m³ achevé en septembre 2015 place Jules Guesde à la Porte d’Aix, un de 15 000 m³ dans l’emprise du tunnel ferroviaire désaffecté Lajout près de la nouvelle station de métro boulevard Capitaine Gèze, un autre de même capacité cours Pierre Pujet, et enfin un plus vaste de 33 000 m³ à Saint-Mauront, près des Docks.

Vue intérieure du bassin Ganay lors de son inauguration (photo publiée par GoMet)

Un sixième ouvrage profond de 30 m pour un diamètre de 56 m et une capacité de 50 000 m³, a été construit à partir de 2014 sous le stade Ganay. Désormais achevé et inauguré en avril 2017, ce gigantesque bassin enterré, pour lequel il a fallu mobiliser pas moins de 80 000 tonnes de béton, doit être relié d’une part à la station de traitement Géolide et d’autre part au réseau unitaire. Pour cela, il a notamment fallu creuser une galerie de 3 m de diamètre et 300 m de longueur, à 10 m de profondeur. Un tunnelier a été mobilisé dans ce but, pendant près de 6 mois, jusqu’à ressortir près du boulevard Michelet en décembre 2016, une fois sa tâche accomplie.

Sortie du tunnelier (photo © N. Vallauri pour La Provence)

Vue en coupe du bassin Ganay (source)

En surface, on ne verra du bassin Ganay qu’un modeste bâtiment de service au forme de simple pavillon et il reste encore à reconstruire le nouveau stade Ganay au dessus du réservoir enterré dont les Marseillais seront bien en peine d’imaginer l’existence une fois le chantier achevé. C’est d’ailleurs le risque de ce type de démarche qui consiste à masquer de la vue du citoyen les aménagements pourtant indispensables au fonctionnement de la ville : à force d’oublier que la gestion des eaux fait partie intégrante de la vie urbaine, comment peut-on s’en approprier les enjeux pourtant essentiels ?

L.V.  

Eden, la Méhari écologique du XXIe siècle

18 avril 2017

Tous les fans de Deux-Chevaux, Dyane et Méhari connaissent le 2CV Méhari Club de Cassis (MCC), dont l’aventure a commencé dans les années 1980. Les frères Marquès ont d’abord personnalisé des Méhari en belles voitures de plage avant de lancer un catalogue complet de pièces détachées de toute la gamme des 2CV, Dyane et Méhari.

Devant le succès, Citröen SA leur a confié en 1998 les outillages d’origine du quai de Javel, afin de reproduire les pièces de la Méhari. Le même passage de relais a eu lieu en 2000 pour la 2CV.

Méhari 4 x 4 de 1979 (photo © Citroën)

Aujourd’hui, la famille Marquès a cédé son fond industriel et commercial à une nouvelle organisation financière, épaulée par la Banque Publique d’Investissement. Elle est pilotée par MM Julien V. et Stéphane W. (deux bons camarades de Terminale…), dûment diplômés et expérimentés en industrie auto. Avec courage, ils lancent l’Eden.

L’Eden, c’est à la base l’historique Méhari, lancée en 1968, il y a près de 50 ans, avec sa carrosserie en plastique moulé, fixée sur un châssis et munie d’une suspension et d’une motorisation issus de la mythique 2CV (qui, elle, date de 70 ans !). Mais contrairement à ses aînées, l’Eden est équipée d’une nouvelle motorisation entièrement électrique, alimentée par une batterie ion-lithium de dernière génération.

L’Eden, écologique et tout électrique, entièrement montée à Cassis et partiellement fabriquée à Carnoux…

Il s’agit bien d’une nouvelle voiture, dûment homologuée depuis mars 2016 pour la France et l’Europe, classée véhicule utilitaire à 4 places. Offrant une autonomie de 120 km, la batterie se recharge en moins de 4 h sur une simple prise électrique domestique. La voiture est entièrement montée à Cassis, dans les locaux agrandis du MCC (qui occupent 8 000 m2 sur un terrain de 10 hectares) et, cerise sur le gâteau, plusieurs des pièces, dont le châssis et une sellerie très variée sont fabriqués à Carnoux même.

La E-Méhari de Citroën

La Méhari cassidaine se distingue en tout cas très nettement de sa petite sœur relookée E-Mehari que Citroën vient tout juste de dévoiler, un véhicule électrique également, directement inspiré de la Bluesummer de Bolloré et qui, elle, sera fabriquée à Rennes, avec un objectif de 1000 exemplaires, pour un prix de vente qui devrait revenir à 25 000 €, hors coût de location des batteries (79 € par mois). Même une fois déduit le bonus écologique qui s’élève à 6 000 € pour l’achat d’un véhicule électrique, l’investissement reste élevé pour un véhicule au confort minimaliste !

L’Eden devrait d’ailleurs être proposée à la vente pour un prix assez comparable, mais avec une carrosserie identique à celle d’origine, ce qui devrait plaire aux nostalgiques des années 1960… C’est d’ailleurs là-dessus que compte manifestement le 2CV-Mehari Club de Cassis puisque la présentation officielle de l’Eden s’est faite à l’occasion de la 40e édition du salon Rétromobile, qui s’est tenu Porte de Versailles début février 2016 et que le lancement commercial a eu lieu lors de l’édition suivante du salon, en février 2017.

Présentation du concept-car Eden au salon Rétromobile en février 2016 (photo © G. Pelletier)

Nous ne pouvons donc que nous réjouir de cette belle création industrielle, qui allie avec bonheur la tradition mythique et l’esprit de la 2CV avec la dernière modernité écologique : 10 kW seulement et un entretien quasiment inexistant ! Et de surcroît, une conduite 100 % plaisir, cheveux au vent et selon l’esprit de liberté des belles années.

Bravo, longue vie et prospérité à l’Eden !

Léonide G.

Centrales solaires à tour : une technologie futuriste !

11 avril 2017

C’est probablement le génial Archimède qui a eut le premier l’idée d’utiliser un jeu de miroirs pour concentrer les rayons du soleil de manière industrielle afin d’obtenir des températures élevées, destinées à enflammer la flotte de vaisseaux romains assiégeant la ville de Syracuse. L’histoire est d’ailleurs sans doute exagérée mais on ne prête qu’aux riches…

Le concentrateur solaire de Mouchot en 1878

Toujours est-il que, depuis cette lointaine Antiquité, la technologie a fait son chemin et que les centrales thermiques solaires commencent à se multiplier. C’est d’ailleurs un ingénieur français, un certain Augustin Mouchot, qui en 1866 a inventé le premier moteur solaire constitué d’un réflecteur en forme de parabole qui concentre les rayons du soleil sur une chaudière électrique en verre alimentant une machine à vapeur. Lors de l’exposition de 1878, un appareil de son invention, doté d’une surface réfléchissante de 20 m2 reçoit d’ailleurs une distinction à l’occasion de l’exposition universelle de Paris.

Le four solaire d’Odeillo dans les Pyrénées

Le principe des miroirs paraboliques qui concentrent le rayonnement solaire en leur point focal a été ensuite réutilisé à plus grande échelle, à l’initiative du chimiste français Félix Trombe dont les travaux se sont concrétisés par l’élaboration d’un premier four solaire à Mont-Louis en 1949, puis, à partir de 1962, par la construction d’un prototype semi-industriel, le Grand four solaire d’Odeillo, mis en service en 1970 à Font-Romeu. Une série de miroirs réfléchissants renvoient les rayons du soleil vers d’autres miroirs concentrateurs disposés en parabole qui font converger le rayonnement vers une cible circulaire de 40 cm de diamètre située en haut d’une tour, permettant d’obtenir une température de 3500 °C.

Sur la base de cette expérience, EDF réalise en 1983 sa première centrale solaire Thémis, installée en Cerdagne. Après de nombreux aléas et sous l’impulsion du Conseil général des Pyrénées-Orientales, le site est équipé en 2012 de près de 200 héliostats, des miroirs réfléchissants orientables qui suivent la course du soleil, et concentrent le rayonnement solaire sur un récepteur central situé au sommet d’une tour de 105 m de hauteur, dans lequel circule un fluide caloporteur (à base de sels fondus) permettant de transformer de l’eau en vapeur et d’actionner une turbine pour produire de l’électricité.

La centrale solaire Themis à Targassonne

Ce principe des centrales solaires thermodynamiques à tour est désormais en plein essor dans le monde entier, surtout dans des latitudes où le rayonnement solaire au sol est très supérieur à celui que l’on peut connaître en France. L’Espagne notamment s’est fortement investie dans ce domaine avec notamment la centrale Solar tres, inaugurée en 2011 en Andalousie, d’une puissance d’environ 20 MW avec près de 2500 héliostats et une autonomie de près de 15 heures grâce au stockage d’énergie assuré par l’inertie thermique du fluide caloporteur.

La centrale solaire de Gemasolar, près de Séville en Espagne, avec ses 2650 héliostats

Les États-Unis bien entendu ne sont pas en reste malgré leur exploitation intensive des gaz de schiste, avec en particulier la centrale solaire de Crescent Dunes (dans le désert du Nevada), d’une puissance de 110 MW (à comparer aux 5 MW d’une grande éolienne récente). Entrée en service en 2016, elle est constituée de 10 000 miroirs réfléchissants et d’une tour de 195 m de haut dans laquelle les sels fondus sont portés à 565 °C. Fonctionnant 24 heures sur 24 grâce à l’inertie thermique des sels fondus, cette centrale permet d’alimenter en électricité plus de 75 000 foyers !

Toujours aux États-Unis, la centrale d’Ivanpah dans le désert des Mojave en Californie, à 60 km de Las Vegas, est désormais le plus grand site d’énergie solaire américain avec 3 tours de concentration, 173 500 miroirs et une capacité de production de 392 MW (à comparer aux 900 MW d’un réacteur nucléaire type Fessenheim) qui permet l’alimentation en électricité de 140 000 foyers.

Vue du ciel, les trois champs de miroirs d’Ivanpah (photo G. Mingasson/Getty Images for Bechtel)

Et les projets se multiplient un peu partout. La société américaine BrigthSource Energy qui exploite la centrale d’Ivanpah s’est ainsi associée avec General Electric (qui a racheté la branche énergie d’Alstom, rappelons-le au passage tant l’épisode fut douloureux et inique) pour construire une centrale solaire thermodynamique géante dans le désert du Néguev, en réponse à un appel d’offre lancé par le gouvernement israélien en 2013, pour la modique somme de 660 millions d’euros.

Le champ de miroirs de la centrale Ashalim (photo © J. Guez / AFP)

Cette centrale dénommée Ashalim, qui devrait entrer en fonction fin 2017, sera constituée de 55 000 miroirs réfléchissants répartis sur une superficie de près de 300 hectares, et d’une tour de 24 m de haut encore en cours de construction. Une des particularités de cette installation est que les mouvements permanents des héliostats pour suivre la course du soleil sont réglés par des connections wi-fi pour limiter les coûts d’installation.

D’autres pays suivent la course, dont le Maroc qui est également très intéressé par cette technologie du futur en plein essor. Sa centrale solaire Noor 1, inaugurée en février 2016 près de Ouarzazate, est constituée de miroirs courbes répartis sur 480 ha, et totalise une puissance installée de 160 MW. Et ce n’est qu’un début puisque la deuxième tranche du projet est d’ores et déjà lancée avec, à terme, un objectif affiché de 580 MW de puissance installée !

Vue aérienne de la centrale Noor au Maroc (photo © F. Senna / AFP / Getty images)

N’oublions-pas non plus la centrale solaire de Dubaï qui se construit également par étapes, dans un environnement particulièrement favorable avec 3500 heures d’ensoleillement annuel moyen et des températures au sol de 40 °C en été. L’émirat ambitionne tout simplement de produire un quart de ses besoins en électricité grâce à cette centrale d’ici 2030, soit une puissance installée à cette date de 5 GW, le tout pour un investissement de 12 milliards d’euros…Pour l’instant, la puissance déjà installée est de 100 MW mais pourrait doubler d’ici la fin de l’année 2017 si tout va bien.

Jusque là, le coût de l’électricité produite de cette manière reste supérieur à celui obtenu par d’autres procédés plus classiques mais les choses évoluent rapidement en la matière. De quoi rester (un peu) optimiste quant à la capacité humaine à innover pour développer la production d’énergies renouvelables et limiter progressivement nos émissions de gaz à effet de serre avant qu’il ne soit trop tard…

L.V.

Débat sur l’école (partie 2) : les potentialités des TPE…

1 avril 2017

« On n’arrive plus à intéresser les élèves ! » entend-on chez les professeurs. « Les élèves s’ennuient » lit-on aussi parfois. Ces plaintes témoignent d’un certain découragement qu’un professionnel doit savoir dépasser. Dans cet objectif Jacques Tonnelle, ex professeur de mathématiques et formateur à l’IUFM, a exploré des pistes pour  repenser le rapport au savoir des élèves et le rôle des professeurs dans la manière d’attirer et captiver l’attention des élèves.

Jacques Tonnelle

Il n’hésite pas à redonner du sens au verbe « apprendre » qui, pour lui, au travers des TPE (Travaux Personnels Encadrés) permettent de découvrir ce qu’il appelle la raison d’être des « œuvres » sélectionnées dans les programmes. Pour lui une « œuvre » (savoir) est une création humaine nécessitant la mobilisation de connaissances diverses comme par exemple, une équation mathématique, le droit constitutionnel, une recette de cuisine, la génétique, etc. Cela peut dépasser le cadre purement scolaire d’une discipline figée, contrainte par des directives nationales (textes et instructions).

Quel est le  dispositif des TPE ? Actuellement les élèves en classe de Première doivent mener un projet « personnel encadré ». Des thèmes sont sélectionnés par les professeurs de la classe et les documentalistes sur la base d’une liste nationale, les élèves de la classe sont répartis en différents groupes autour des sujets choisis en accord avec les deux professeurs qui suivent leur recherche, à raison de deux heures par semaine.

C’est une question qui initialise un TPE, comme celle-ci : Comment la technologie  de GPS peut-elle s’avérer utile dans la gestion des catastrophes naturelles ? Les élèves travaillent en autonomie, par groupes et/ou individuellement. La constitution d’un dossier thématique atteste le travail de recherche documentaire. De plus chaque élève remplit un carnet de bord où est consignée la progression du travail individuel. La réalisation finale fait l’objet d’une communication orale face à un jury en fin d’année. Une note est portée au livret scolaire et sera prise en compte au baccalauréat.

L’objectif des TPE est de définir des situations problématiques motivantes de manière à stimuler l’action volontaire d’apprendre et, par la même, rompre avec la perte de saveur des savoirs qui font trop souvent l’objet d’une visite superficielle dans l’approche scolaire. Il s’agit de développer chez l’élève le goût pour l’enquête en organisant un parcours d’étude et de recherche qui permette de proposer une contribution à la question sélectionnée.

L’originalité de cette méthode – qu’on peut généraliser en l’adaptant – est de proposer des questions comme source de l’enseignement ! C’est alors la situation qui vient motiver l’action d’apprendre. D’où l’importance de la formulation d’un « sujet d’étude » sous forme de question. Le rôle des professeurs est primordial dans la gestion de la recherche. Il faut en effet montrer la pertinence des savoirs existants, mais aussi en mobiliser d’autres qui peuvent ne pas être inscrits dans les programmes.

On pourra ainsi parler du fonctionnement du GPS sans rentrer par exemple dans les nombreux aspects scientifiques et techniques qui pourraient entrer dans l’étude. Ces derniers seront alors utilisés comme boîtes noires, prises en compte certes, mais sans être travaillées. L’important est de faire apparaître, chemin faisant, les besoins de l’enquête, et d’en travailler quelques uns.

Le dispositif des TPE veut donc répondre à la nécessité de motiver les savoirs diffusés par l’école. Avant de céder la parole au nouvel intervenant, Jacques Tonnelle conclut par une citation de Gaston Bachelard : « C’est le travail qui est producteur d’un savoir, et pas le produit fini (la formule mathématique par exemple) .

C. M.

Croisière autour du monde : 21ème escale

22 mars 2017

En croisière à bord du Queen Elisabeth, nos deux reporters sont de retour à Kobe au Japon où ils étaient déjà passés lors d’une étape précédente.

Lundi 20 mars :

Aller au Japon sans voir Kyoto, c’est impardonnable !

Gare de Kobe, en partance pour Kyoto

Nous avons donc bravement pris les moyens de transport publics et sommes allés visiter cette ville ou l’on retrouve encore un peu du Japon traditionnel : temples innombrables, femmes en kimono et obi, petites rues avec maisons en bois, boutique au rez-de-chaussée et habitation au dessus.

On nous a aidés très gentiment à prendre les billets de métro puis de train, car il n’y a pas de guichets, juste des machines toutes en japonais! Mais les gens sont vraiment serviables. On a une petite chance de se faire comprendre en anglais avec les jeunes (j’ai bien dit une petite chance, ne rêvons pas…).

Une rue dans le vieux Kyoto

Enfin, après environ 1 h de trajet, nous arrivons à Kyoto par une très belle journée ensoleillée. La ville donne une impression d’entassement. Les maisons sont serrées avec parfois à peine 1 mètre entre deux voisins. On sent le manque d’espace vital, d’autant que la plaine côtière est étroite et laisse vite place à la montagne souvent escarpée…

La gare est un chef d’œuvre d’architecture moderne et c’est d’autant plus remarquable que le quartier aux alentours est plutôt ancien.

Temple de Hongwanji à Kyoto

Nous nous dirigeons vers le temple Hongwanji, un immense complexe de salles de prière et de salles de réunion. Il y a même une école et une clinique !

Intérieur du temple

Juste en face, un musée nous attire. Il est en fait associé au temple et se définit comme
« musée bouddhiste par excellence ». Nous y prenons un petit repas fort sympathique avant de nous lancer dans la visite. Nous y voyons une exposition de peintures sur soie, certaines datant du 15e siècle, ainsi que des rouleaux de papier de riz avec calligraphie au pinceau. Les photos sont interdites. Nous arrivons cependant à en faire 1 ou 2 que vous verrez donc !

Au sortir du musée, dans une salle contiguë, de jeunes peintres (élèves de seconde peut être ?) et leur professeur présentent leurs œuvres. Du talent chez certains d entre eux ! Ces jeunes japonais sont plutôt timides, surtout les jeunes filles, ils sourient beaucoup, font des courbettes et semblent tellement ravis de rencontrer des étrangers !

Vue par hasard, une exposition de jeunes étudiants en peinture

A noter que, lorsqu’ils signent leurs tableaux c’est toujours avec l’alphabet latin ! D ailleurs dans les rues les enseignes, les affiches, jonglent avec 4 alphabets différents : le latin (préféré pour tout ce qui est publicité), le chinois (que tout le monde ne sait pas lire toutefois), le japonais classique et le japonais phonétique plus simple. Seuls ces 2 derniers sont enseignés à l’école. Ça paraît bien compliqué mais ils s’y retrouvent !

Nous avons marché toute la journée et n’avons pas vu le dixième de ce qu’il y a voir à Kyoto ! Une ville immensément riche en palais, temples et autels shintô… Il faudrait y revenir, on va y penser !

Nous partons maintenant pour la Chine et le Vietnam. Pas sûr que les connections soient super. Nous ferons de notre mieux !

Mardi 21 mars :

Je vous avais promis de vous parler des toilettes au Japon. Voici donc.

Toilettes à la Japonaise

Il y a au Japon deux sortes de toilettes (voyez les photos). La toilette japonaise qui n’est qu’une toilette à la turque et la toilette qu’ils appellent « western », autrement dit occidentale, et que vous trouverez dans les grands hôtels (alors que l’hôtel à la japonaise en est dépourvu et que vous y dormirez par terre sur un futon).

Toilettes à l’Occidentale : remarquez la barrette couverte de boutons, c’est ça qui fait la différence

Revenons à cette « western ». Vous vous asseyez. La partie en contact avec vos fesses est tiède, ce qui est plutôt agréable ! Vous faites ce que les Anglais appellent votre « business ». Si ça fait du bruit (désolé, mais j’ai promis de tout expliquer !)  vous avez un bouton appelé « flush » qui va imiter le bruit de la chasse d’eau afin de couvrir tout autre bruit inconvenant… Quand vous avez terminé, vous avez deux boutons à votre disposition : un « bidet » et un « jet ». Chacun va humecter d’eau tiède un endroit différent de votre anatomie (là, je vous laisse imaginer…). Enfin le bouton situé le plus en avant et de couleur différente stoppe l’eau.
Vous sortez de là bien propre mais je trouve personnellement que le papier cul est un peu insuffisant pour essuyer tout ça !

Voilà vous savez tout sur les toilettes de ce pays décidément pas comme les autres !

Annie

La croisière s’enfume !

5 mars 2017

Alors que nos deux globe-trotters parcourent le monde depuis début janvier à bord du luxueux navire de croisière Queen Elisabeth, voila qu’en France, certains se mettent à tousser au vu de l’impact environnemental de cette industrie touristique en plein essor. C’est ainsi que l’émission Thalassa, dans son édition du 20 janvier 2017, s’efforçait de dévoiler « le prix du rêve » des bateaux de croisière.

blog404_phthalassa

Un petit pavé dans la mare de l’industrie touristique des croisières de luxe à bord de véritables immeubles flottants, alors que cette activité florissante et lucrative est en plein essor. En 2016, ce sont plus de 25 millions de passagers qui ont ainsi sillonné les mers du globe à bord de ces gigantesques usines à touristes, un chiffre qui a doublé en 10 ans et qui ne cesse d’augmenter !

L'épave du Costa Concordia, le 22 janvier 2012 (photo © P. P. Cito  /SIPA/ AP)

L’épave du Costa Concordia, le 22 janvier 2012 (photo © P. P. Cito /SIPA/ AP)

Pourtant, l’envers du décor incite à la réflexion comme le dénonce, non seulement ce documentaire de Thalassa, mais bien d’autres, qui pointent une industrie sans scrupule profitant largement de la captivité de sa clientèle et offrant à son personnel des conditions de travail parfois peu enviables. Même le panache de l’équipage en a pris un coup depuis l’épopée peu glorieuse du capitaine du Costa Concordia qui s’était ridiculisé devant le monde entier après avoir non seulement échoué son paquebot géant le long du littoral toscan mais ensuite pris la fuite alors même que l’évacuation des passagers venait tout juste de commencer, un naufrage spectaculaire qui avait fait 32 morts et fortement terni l’image de la compagnie Costa Croisières.

Mais les critiques les plus vives envers l’industrie des croisières de luxe portent surtout sur leur impact environnemental. Ces énormes usines flottantes chargées de milliers de touristes provoquent en effet sur certains lieux fragiles du globe, et en particulier des archipels isolés et relativement préservés, une pression fortement préjudiciable. Et c’est aussi la pollution atmosphérique provoquée par ces immenses paquebots dans leurs ports d’escale qui est de plus en plus pointée du doigt.blog404_phmarseille

On a vu notamment la journaliste de Thalassa, Sophie Rolland, s’intéresser à la qualité de l’air de Marseille, premier port de croisière en France qui accueille désormais chaque année 500 paquebots et 1,7 millions de croisiériste : une manne pour le commerce local et une source non négligeable de pollution en particules fines. Sur le quai où sont amarés les bateaux de croisière qui laisent tourner en permanence leurs moteurs pour assurer la climatisation à bord, les reporters de Thalassa mesurent ainsi plus de 100 000 particules fines par cm³ d’air, cinq fois plus que devant la gare Saint-Charles qui n’est pourtant pas réputée pour être un havre d’air pur !

blog404_phfootingSur le pont supérieur du navire, là où les passagers restés à bord font leur footing quotidien, la teneur en particules fines s’avère même encore 3 à 4 fois supérieure à celle mesurée sur le quai…

L’affaire n’est pas nouvelle, comme le rappelle un article de Marsactu qui évoque l’alerte lancée en 2015 par l’association France Nature Environnement, affirmant qu’un bateau de croisière pollue autant l’atmosphère qu’un million de voitures ! De fait, une étude menée de 2010 à 2013 sur cinq villes méditerranéennes dont Marseille, dans le cadre du projet européen APICE, avait permis de mieux quantifier l’impact de ces bateaux de croisière sur la qualité de l’air de ces villes. A Marseille, l’organisme en charge de la surveillance de la qualité de l’air, Airpaca, estime que cette contribution est globalement de l’ordre de 5 % mais elle est bien évidemment très supérieure à proximité des installations portuaires.

Système d'alimentation électrique des navires de la Méridionale, quai d'Arenc (photo © : E. Bonibi)

Système d’alimentation électrique des navires de la Méridionale, quai d’Arenc (photo © : E. Bonibi)

Une amélioration importante a pourtant été apportée en 2016 grâce à l’installation de bornes électriques permettant d’alimenter à quai les trois navires de la Compagnie méridionale de navigation lors de leurs quelque 500 escales annuelles en provenance de Corse. Le système est encore en phase de test et il faudra attendre cet été pour vérifier qu’il suffit à assurer les besoins en climatisation pendant la durée des escales…Il ne pourrait en tout cas pas être étendu aux immenses paquebots de croisière tant la consommation de ces derniers est considérable.

D’autant que l‘investissement n’est pas négligeable puisqu’il s’élève à 4,4 millions d’euros dont 1,5 apporté par le Grand port maritime de Marseille et 1,7 millions par des subventions publiques de l’État, de la Région, de l’ADEME et du FEDER. Mais cela devrait permettre d’éviter une pollution atmosphérique équivalente, pour chacun des trois navires, à 3 000 véhicules chaque jour pour ce qui est des particules fines et 65 000 véhicules/jour pour les oxydes d’azote. On respire déjà mieux !

L'Harmony of the seas en escale à Marseille (photo © D. Leriche pour Nice Matin)

L’Harmony of the seas en escale à Marseille (photo © D. Leriche pour Nice Matin)

Il n’en demeure pas moins que les autres navires de croisière monumentaux qui fréquentent quotidiennement le port de Marseille restent de gros pollueurs. Le mastodonte « Harmony of the seas », avec ses 362 m de long et ses 72 m de hauteur (l’équivalent d’un immeuble de 20 étages) brûle ainsi à lui-seul 250 000 litres de fuel lourd chaque jour !

Certaines compagnies commencent déjà à équiper leurs navires de « scrubbers » qui permettent de débarrasser les fumées de leurs émissions sulfurées les plus nocives (oxydes de soufre), ne serait-ce que pour respecter la réglementation européenne qui vient de se durcir, mais il s’agirait d’aller plus loin en s’attaquant également aux particules fines, aux oxydes d’azote et au gaz carbonique émis. En attendant, le port de Marseille lance une étude de faisabilité concernant l’installation éventuelle de « scrubbers mobiles », des sortes de gigantesques hottes aspirantes montées sur barges flottante et qui viendraient se positionner le long des navires à quai pour retraiter leurs fumées et retenir les éléments les plus polluants.

Système mobile de traitement des fumées à Los Angeles (photo © D. R.)

Système mobile de traitement des fumées à Los Angeles (photo © D. R.)

De tels systèmes mobiles sont d’ores et déjà déployés dans le port de Los Angeles et pourraient servir d’exemple. A terme, la solution la plus raisonnable serait cependant que l’ensemble des navires de croisière s’équipent pour fonctionner au gaz naturel liquéfié nettement moins polluant. Cette technologie permet en effet d’éliminer presque entièrement les rejets d’oxydes de soufre et d’azote, tout en réduisant de moitié les émissions de particules fines et d’un tiers celles de CO2. Certaines compagnies commencent à mettre en chantier de tels navires et Marseille se prépare déjà à les accueillir en aménageant une plateforme d’avitaillement grâce au terminal méthanier de Fos-sur-Mer.

Tout indique donc que le port phocéen s’installe durablement comme escale de ces usines flottantes à touristes, même si beaucoup préféreraient envisager un mode de développement un peu moins artificiel. Espérons du moins que la technologie de ces mastodontes des mers évoluera assez vite avant que l’air de la Cannebière ne devienne définitivement irrespirable…

L.V.  lutinvert1small

Google, fou de la petite reine et roi du bobard

30 janvier 2017

A l’heure où le Royaume du Danemark vient de nommer un ambassadeur auprès du géant américain Google, il n’est pas inutile de ressortir cette vidéo époustouflante mise en ligne par la multinationale montrant sa dernière invention en date : un vélo intelligent et autonome, qui tient debout sans l’aide de quiconque, se déplace tout seul dans la circulation et sur lequel on peut tranquillement se laisser porter tout en vaquant à ses occupations ordinaires.

blog387_velogoogle

C’est bien évidemment l’antenne des Pays-Bas de la firme de Mountain View qui a conçu cet engin révolutionnaire, parfaitement adapté au Néerlandais qui parcours en moyenne pas moins de 900 km par an en vélo, au prix tout de même de 350 000 accidents chaque année !

blog387_phcameraLe Google self-driving bike, de son petit nom de baptême, sait se situer dans l’espace et détecter et cartographier son environnement afin de s’adapter à tout événement, tout ceci grâce à une caméra à 360° située à l’avant du vélo, à l’instar de ce qui est proposé sur les Google Car dont le projet s’inspire manifestement.

blog387_phsmartphoneLe vélo peut fonctionner comme un taxi Uber et venir vous chercher là où vous le demandez simplement depuis l’application dédiée. On peut même s’en servir de bureau mobile en installant confortablement son ordinateur sur le guidon évidemment adapté pour cela, et on peut aussi laisser le vélo promener tout seul les enfants bien installés dans leur siège.

blog387_phvelo

Une véritable merveille de la technologie dont Google s’est fait un malin plaisir d’annoncer la naissance le 1er avril 2016. Car bien évidemment, il ne s’agit que d’un poisson d’avril, issu du cerveau imaginatif des ingénieurs de la firme américaine ! Une vidéo explique même en détail, pour les plus crédules, comment ont été réalisés les trucages pour donner l’illusion d’un tel miracle.

blo387_phtrucage

Pourtant, le vélo autonome qui avance tout seul existe bel et bien. Il a été inventé par 13 ingénieurs de l’université indienne de Kharagpur qui ont eu l’idée du projet i-Bike, visant à la base à venir en aide aux personnes souffrant d’un handicap moteur afin de leur permettre de se déplacer malgré tout en vélo.

blog387_phbike

Certes, son look est quelque peu moins futuriste que celui de Google. Les esprits chagrins lui trouveront même un petit air de bricolage avec ses petites roues stabilisatrices à l’arrière et sa propulsion électrique rendue bien visible par une multitude de câbles qui pendouillent de tous les côtés : les propulsions électriques inventées par les tricheurs des courses cyclistes ont au moins le mérite d’être un peu plus discrètes ! Le guidage se ferait par GPS évidemment et pourrait permettre d’envisager que le vélo se rende tout seul à une direction pré-indiquée.

Le concept en tout cas ne manque pas d’intérêt, soit pour permettre à des malvoyants ou des handicapés moteurs de se déplacer à bicyclette, soit dans l’optique d’un système de location de vélos autonomes à direction assistée. Les Allemands plancheraient eux aussi sur un tel vélo du futur dont on peut penser qu’il ressemblera probablement davantage au prototype surréaliste de Google plutôt qu’au bricolage bout-de-ficelle des universitaires indiens…

L.V. lutinvert1small

Xavier Beulin, un paysan presque comme les autres…

8 janvier 2017

Xavier Beulin, le président de la Fédération nationale des syndicats d’exploitants agricoles, et richissime patron du groupe industriel Avril, s’est fait épinglé récemment par Mediapart dont les enquêteurs ont recherché en vain quelles étaient les terres sur lesquelles ce représentant de la profession agricole pouvait bien exercer ses talents, lui qui se revendique comme « paysan », ainsi qu’il a encore tenté de le faire croire devant un groupe d’éleveurs en colère à Saint-Brieuc en juillet 2015…

blog378_phbeulinfnsea

Un paysan pour le moins atypique en tout cas, qui avait fait sensation en se présentant lors du congrès de Metz de la FNSEA en 2006 « en costard de banquier, pompes anglaises, attaché case Lancel ». Dirigeant de la Sofiprotéol, rebaptisée Avril en 2015 pour des raisons de pur marketing, le fringant patron de l’agro-business qui voyage en jet privé, bluffe tout le monde et prend la tête en 2010 de la FNSEA pourtant traditionnellement aux mains des éleveurs. Il y est réélu triomphalement en 2014, aucun autre candidat n’osant même se présenter contre lui, et il est déjà en train de préparer sa propre succession à l’occasion des prochaines échéances prévues en mars 2017.

Xavier Beulin dans son bureau au siège de la FNSEA (photo L. Lung)

Xavier Beulin dans son bureau au siège de la FNSEA (photo L. Lung)

Il faut dire que le groupe Sofiproteol, alias Avril, qu’il dirige, a réalisé en 2015 un chiffre d’affaire qui dépasse 6 milliards d’euros, trustant plus de la moitié de la production française de colza et de tournesol. Il s’agit donc d’un géant de l’agroalimentaire, propriétaire notamment des marques d’huiles Lesieur et Puget, mais aussi du leader des œufs Matines, d’un des principaux centre d’abattage de porc (société Abera en Bretagne), ou encore de Sanders, premier fournisseur français d’aliment pour bétail, bref un des symboles de la concentration et de l’industrialisation à outrance des exploitations agricoles.

Dessin de Sébastien Rieu publié sur le blog de caricature

Dessin de Sébastien Rieu publié sur le blog de caricature

Le groupe se revendique également leader européen de l’oléochimie et n°1 mondial de la glycérine végétale, tout en se placant comme un acteur majeur sur le marché européen de la production de biocarburants au travers de ses filiales Saipol et Expur. Pour la multinationale agro-industrielle, les biocarburants, c’est un peu la poule aux œufs d’or, fruit d’un long travail de lobbying auprès des autorités en charge de la politique agricole tant à Paris qu’à Bruxelles, sachant que Xavier Beulin est également vice président du Comité des organisations professionnelles agricoles de l’Union européenne, qui appointe pas moins de 18 lobbyistes auprès de l’Union européenne!

Champ de colza en production (photo T. Creux)

Champ de colza en production (photo T. Creux)

C’est en 1992 qu’une première réforme de la Politique agricole commune a autorisé l’exploitation de cultures oléagineuses pour produire du carburant, en principe pour valoriser les terres laissées en jachère. Et en 2003, une directive européenne a été adoptée, obligeant les distributeurs de carburants à incorporer un certain pourcentage de biocarburant dans le diesel. Histoire d’encourager au maximum la filière, la France a alors choisi d’aller encore plus loin que ces objectifs européens en imposant un taux d’incorporation de 7 % de biodiesel dans le gazole, taux qui est passé à 8 % en 2015. Certains véhicules d’entreprises ou de collectivités roulent même d’ores et déjà avec un carburant composé de 30 % de biodiesel, ce qui assure de confortables débouchés pour la filière.

En France, on utilise principalement pour cela le colza et le tournesol. La graine est d’abord broyée pour séparer l’huile, les résidus formant des tourteaux riches en protéines, qui sont valorisés pour l’alimentation des animaux d’élevage. Quant à l’huile, elle est transformée en diester via une réaction chimique qui fait intervenir du méthanol et donne de la glycérine comme sous-produit. Schématiquement, une tonne d’huile brute additionnée de 100 kg de méthanol donne une tonne de diester et 100 kg de glycérine végétale.

Photomontage publié en 2012 sur le site du Paysan libre

Photomontage publié en 2012 sur le site du Paysan libre

Une véritable manne en tout cas pour Avril, ex-Sofiproteol, qui contrôle l’essentiel de la filière de production de biodiesel sous sa marque Diester®, d’autant que ces cultures d’oléagineux destinés à la production de biocarburant ont été largement subventionnées par l’Europe, à hauteur de 45 €/ha jusqu’en 2010 ! Beaucoup de voix sélèvent désormais pour dénoncer cette filière qui entraîne une hausse importante du cours des matières premières oléagineuses au détriment de l’alimentation. Le bilan écologique du procédé est lui-même fortement remis en cause puisque l’on estime qu’il faut 1,2 litres de pétrole pour produire 1 litre de biodiesel, ce que reconnaissent d’ailleurs les acteurs de la filière qui cherchent actuellement d’autres voies pour la production de biocarburant, en particulier en valorisant les déchets verts voire l’exploitation de microalgues.

Mais c’est surtout le coût pour le contribuable français qui fait l’objet de vives critiques. Un rapport de la Cour des comptes daté de 2012 estimait ainsi que l’exonération fiscale dont bénéficient les producteurs de biodiesel a coûté à l’État plus de 1,8 milliards d’euros entre 2005 et 2010. Sur la même période, les investissement productifs de la filière avoisinent les 500 millions d’euros… Les contribuables français ont donc payé près de quatre fois les investissements des entreprises comme Sofiprotéol-Avril qui a ainsi bénéficié à elle seule de 50 millions d’euros d’exonération fiscale pour l’année 2013 ! Cela n’a pas empêché le gouvernement Ayrault de renouveler fin 2012 pour trois ans les agréments qui permettent aux producteurs d’agrocarburants de bénéficier de cette défiscalisation massive.

Comme le souligne un article très documenté du Monde, il a fallu attendre le 1er avril 2016 pour que le gouvernement décide enfin de supprimer cette niche fiscale, tout en publiant quelques mois plus tard un arrêté ouvrant la voie à une requalification du biodiesel pour le faire bénéficier de la défiscalisation réservée aux biocarburants dits « avancés »…

La ferme fantôme de Xavier Beulin dans le Loiret (photo K. Laske pour Médiapart)

La ferme fantôme de Xavier Beulin dans le Loiret (photo K. Laske pour Médiapart)

Assurément, le travail de lobbying dans lequel excelle Xavier Beulin s’avère payant, bien davantage en tout cas que celui de simple exploitant agricole qui lui sert de paravent syndical. Car l’enquête de Médiapart au siège de sa société agricole réserve bien des surprises. Sur les 25 ha achetés en 2009 par le président de la FNSEA qui est sensé y exploiter l’EARL Quadrige, fondée la même année avec son frère et deux cousins, on ne trouve q’une grange avec la boîte aux lettres de la société. Xavier Beulin lui-même, bien qu’officiellement exploitant, n’y met jamais les pieds. Il réside habituellement dans une luxueuse résidence du très chic 8 ème arrondissement de Paris, à deux pas des bureaux de sa société Sofiproteol-Avril. S’il a pu néanmoins conserver son statut d’associé exploitant dans le Loiret, c’est surtout en profitant de sa fonction de vice-président de la FDSEA locale et un peu en arguant qu’il possède sa résidence principale (en réalité une ville avec piscine située dans un quartier résidentiel d’Orléans) à une distance raisonnable…

Que le monde agricole en tout cas se rassure : la crise du foncier à laquelle elle est soumise ne touche pas trop son porte-parole. Propriétaire également d’un immeuble de rapport en plein centre d’Orléans et d’une résidence de vacances dans un quartier huppé près de Tunis, Xaver Beulin semble vivre assez bien de ses 25 ha de terre caillouteuse… Il possède même des parts dans une société civile immobilière gérée par son épouse, ce qui lui permet de toucher de l’ordre de 200 000 € par an de la part du Carrefour Market d’Ingré qui y est implanté, histoire sans doute de fluidifier les relations entre la profession agricole et la Grande distribution.

Dessin de Chaunu publié sur le site Resistance Inventerre

Dessin de Chaunu publié sur le site Resistance Inventerre

Quant à sa société Avril, elle fait l’objet actuellement d’une pétition contre son projet d’implanter à Bruz, près de Rennes, un centre de formation sur des terres agricoles, dans une commune où les trois-quart des exploitations ont déjà disparu en 30 ans. Alors qu’un reportage de Franck Vescovacci, diffusé sur France 5, le 6 décembre dernier, rappelle qu’en France 60 000 ha de terres agricoles sont transformées chaque année en hypermarchés, lotissements, stades de football, immeubles de bureaux ou parking, alors que des associations comme Terre de Liens se battent au quotidien pour tenter de sauvegarder en périphérie des centres urbains des terres encore exploitables, alors que 200 fermes disparaissent chaque semaine en France, il serait peut-être temps que les agriculteurs se ressaisissent et se donnent enfin un porte-parole qui défende réellement l’avenir de la profession et non pas celui de sa propre société industrielle…

L.V.  lutinvert1small

A Flint, mieux vaut ne pas boire pas l’eau du robinet…

4 janvier 2017

La ville de Flint, située au nord des États-Unis, dans l’État du Michigan, fait partie, comme sa voisine Detroit, située à quelques 120 km de là, de ces cités américaines qui ont fondé leur prospérité sur l’essor de l’industrie automobile et qui ont subi de plein fouet le déclin de cette dernière. La société Buick y a été fondée en 1908 et General Motors en 1911, fournissant de l’emploi à foison pour toute la région.

Chaîne de montage de l’usine Buick à Flint

Chaîne de montage de l’usine Buick à Flint

Durant près d’un siècle, toute la ville ou presque a vécu de l’industrie automobile, jusque dans les années 1990, lorsque les usines General Motors ont fermé et ont même été entièrement rasées, laissant place à de vastes friches industrielles entourées de clôtures grillagées en plein centre ville. En 25 ans, la ville a perdu un tiers de sa population qui dépasse désormais péniblement les 100 000 habitants. Plus de la moitié de la population y est noire et 42 % vit en dessous du seuil de pauvreté, tandis que le taux de criminalité y atteint des records. Maisons, écoles, supermarchés et casernes de pompiers, devenus inutiles, y sont détruits les uns après les autres tandis que la ville se meurt à petit feu.

En 2011, la ville, surendettée, est au bord de la faillite, au point que la municipalité est placée sous tutelle d’un administrateur d’urgence, nommé par le gouverneur républicain du Michigan, Rick Snyder. Les élus démocrates, qui sont à la tête de la ville depuis des décennies, sont accusés de clientélisme et de gabegie. Une cure d’austérité s’impose donc et les nouveaux responsables se lancent dans une chasse effrénée aux économies.

La rivière de Flint, nouvelle ressource en eau supposée potable (photo B. Pugliano / Getty)

La rivière de Flint, nouvelle ressource en eau supposée potable (photo B. Pugliano / Getty)

En avril 2014, c’est l’alimentation en eau potable qui est passée au crible de l’audit financier. Traditionnellement, la ville de Flint achète son eau à Detroit mais le coût de cet approvisionnement est jugé excessif par les ardents défenseurs de la rigueur budgétaire. Qu’à cela ne tienne, on décide du coup de pomper directement l’eau dans la Flint River qui traverse la ville, au moins pour quelques années, en attendant un hypothétique projet privé d’approvisionnement depuis le lac Huron, à la frontière canadienne.

Usine de traitement de l’eau à Flint (photo B. Carlsen / AFP)

Usine de traitement de l’eau à Flint (photo B. Carlsen / AFP)

La petite station de potabilisation vétuste est sommairement réhabilitée et pendant un an et demi, la ville va ainsi être alimentée par une eau fortement polluée, riche en métaux lourds et en germes pathogènes, et surtout fortement corrosive, au point d’attaquer sérieusement les conduites en plomb constituant l’essentiel du réseau de distribution d’eau supposée potable.

Très rapidement, la population se met à souffrir de vomissements et les pathologies s’accumulent. Depuis juin 2014, 87 cas de légionellose sont recensés, dont 10 s’avèrent mortels. Les autorités recommandent de faire bouillir l’eau et font appel à l’expertise de certaines sociétés dont Véolia qui préconisent des traitements chimiques mais ces derniers ne font qu’aggraver la corrosion des canalisations. Les cas de saturnisme se multiplient et General Motors, qui avait conservé sur place une usine de poids-lourds, finit par rétablir à ses frais, dès octobre 2014, une canalisation d’adduction d’eau depuis Detroit pour mettre fin aux graves problèmes de corrosion qui menacent ses propres installations industrielles !

Manifestation à Flint le 25 avril 2015 (photo J. May /Flint Journal)

Manifestation à Flint le 25 avril 2015 (photo J. May /Flint Journal)

Face à l’inertie des autorités, la population s’organise et plusieurs associations se créent, dont Flint Rising, pour dénoncer ce scandale et réclamer des solutions à la hauteur du problème. En octobre 2015, sous la menace de plusieurs recours en justice, les autorités finissent par rétablir l’alimentation par le réseau de Detroit. Mais il faut encore attendre le 8 janvier 2016 pour que le gouverneur décide enfin de déclarer l’état d’urgence sanitaire. Le 16, Barack Obama a même placé Flint en état d’urgence fédérale, afin d’accélérer la distribution d’eau en bouteille et de filtres, avec ces mots : « si j’étais en charge d’une famille là-bas, je serai hors de moi à l’idée que la santé de mes enfants puisse être en danger ».

Depuis, la situation s’améliore lentement mais les distributions d’eau potable se poursuivent en attendant que les canalisations de plomb, désormais gravement corrodées, puissent être progressivement changées afin qu’elles ne continuent plus à empoisonner la population, lentement mais sûrement. Plus de 27 000 enfants seraient ainsi menacés par une intoxication irréversible au plomb…

Distribution d’eau en bouteille à Flint en mai 2016 (photo AFP)

Distribution d’eau en bouteille à Flint en mai 2016 (photo AFP)

Dans un tel contexte, chacun règle ses comptes et les attaques en justice se multiplient. Même Véolia, qui n’est pourtant intervenu dans cette affaire que pour une expertise ponctuelle courant 2015, est attaqué par le procureur général depuis juin 2016 et va devoir s’expliquer devant la justice américaine, au même titre qu’un de ses concurrents, la société Lockwood, Andrews & Newnam.blog376_pheaupolluee

Beaucoup accusent les autorités d’avoir fait preuve d’un laxisme coupable dans une ville dont la population, majoritairement noire et pauvre, était considérée comme suffisamment passive pour supporter une telle situation et ne méritant pas d’investir plus que le strict minimum pour renouveler les infrastructures publiques. De ce point de vue, les reportages de Frédéric Autran, pour Libération, ou de Yves Eudes, paru dans le Monde, sont tout à fait instructifs…

On sait désormais, depuis le procès de Christine Lagarde, que pour les responsables politiques d’un certain niveau, la négligence en matière de gestion des affaires publiques, n’est qu’une faute vénielle qui ne mérite même pas d’être condamnée. Puisse néanmoins cet exemple amener nos élus à réfléchir aux conséquences des décisions qui sont prises sous le seul angle des économies à court terme, même si, à de multiples égards, la gestion de l’alimentation de l’eau en France n’est pas soumise à autant de risques de dérives qu’aux États-Unis, jusqu’à présent du moins…

L.V.  lutinvert1small

Insensé : Amazon expérimente les supermarchés sans caissière !

22 décembre 2016

Depuis plusieurs années, nous constatons que la plupart des enseignes de la grande distribution, Auchan, Carrefour, Leroy-Merlin, Alinéa pour ne citer que celles qui sont proches de Carnoux, devancées en cela par les gérants des réseaux d’autoroute, substituent progressivement aux caisses de paiement traditionnelles des appareils d’enregistrement automatiques individuels portables réservés aux adhérents ou des caisses équipées de scanners.

Un nouveau pas vient d’être franchi à Seattle aux États-Unis avec la création d’un magasin du géant de la distribution en ligne Amazon qui expérimente un nouveau concept de commerce dépourvu de caisse. Sur son site internet, Amazon affirme tester un magasin physique d’environ 170 m2, où il propose des produits alimentaires de base (pain, lait, fromages, chocolats) ainsi que des plats à emporter.

Amazon : Go, l'enseigne qui supprime les caisses (photo @ AFP)

Amazon : Go, l’enseigne qui supprime les caisses (photo @ AFP)

Accessible pour l’instant aux seuls employés du groupe, le magasin dénommé « Go » promet aux consommateurs qu’ils n’auront « jamais à y faire la queue » : après avoir utilisé l’application mobile du groupe pour rentrer dans le magasin, ils pourront remplir leur caddie comme dans n’importe quel supermarché, puis partir sans avoir à passer à la caisse.

Cela fonctionne grâce à des technologies d’intelligence artificielle intégrées à des smartphones qui « détectent automatiquement quand les produits sont pris ou remis dans les rayons, et en gardent la trace dans un panier virtuel. Quand vous avez fini vos courses, vous pouvez simplement quitter le magasin. Peu après, nous facturerons votre compte Amazon et vous enverrons un reçu », détaille le distributeur.

Comme le pointe la journaliste Sharon Gaudin du Monde à propos de cette initiative : « Le prix à payer d’une société technologique est-il celui de la déshumanisation ? ». Pour l’analyste Patrick Moorhead, « le paiement automatique en sortie est une caractéristique du magasin du futur. Il s’agit de la façon ultime d’utiliser la technologie dans la vente. La limite d’un tel dispositif réside néanmoins dans la capacité du système à facturer sans erreur le client, ce qui se présente comme le plus grand challenge ». Après tout, les humains ne sont pas les seuls à faire des erreurs, lesquelles sont d’ailleurs intégrées par une pondération des prix (à la hausse bien sûr, rassurez-vous !).

Les queues en caisse, bientôt un mauvais souvenir ?

Les queues en caisse, bientôt un mauvais souvenir ?

Les arguments qui sous-tendent cette démarche ? Ce sont d’abord ceux du gain de temps pour le consommateur et de la disparition des sources de contrariété : attente en caisse, problèmes de paiement avec une carte de crédit qui ne fonctionne pas, automate récalcitrant… mais les opérateurs oublient aussi de citer la fidélisation des clients, l’enregistrement d’habitudes d’achat et, ce qui est encore plus préoccupant, la suppression de postes d’employés.

C’est cette dernière conséquence sur la quelle nous souhaitons insister non sans avoir auparavant souligné un paradoxe. De quoi s’agit-il ? Ceux qui se sont rendus dans un supermarché aux USA ont généralement constaté et apprécié la présence en bout de caisse d’une personne (étudiant, retraité ou autre) qui range méticuleusement vos achats dans vos cabas ou dans de grands sacs en papier.

Ce service supplémentaire dont le coût est intégré au prix des produits contribue à l’humanisation d’un espace de commerce déserté de longue date par les responsables de secteurs et où l’on ne rencontre que les personnes en charge de l’achalandage des rayons. Ce travail qui relève des « petits boulots » offre à une population socialement très modeste un petit revenu ou un complément de revenu qui permet de mieux subsister.

Self-scanning chez Auchan

Self-scanning chez Auchan

Avec la disparition des caisses, sonne aussi la fin de ces emplois d’aide aux personnes (aide au chargement de produits encombrants ou lourds dans le véhicule). Même si l’on vante pour les clients les gains de temps, ce qui apparaît le plus préjudiciable socialement c’est la disparition des hôtes et très majoritairement des hôtesses de caisse. Déjà avec le « scanning », le client devient caissier, parfois aidé par quelques employé(e)s dédié(s)s à cette mission ou au contrôle des achats.

Que va-t-il advenir de ces milliers d’agents de caisse si le système expérimenté par Amazon s’étend ? Et d’abord, qui sont ces agents ? Pour la plupart en France ce sont des femmes (entre 60 % et 80 %) dont la situation professionnelle a fait l’objet du film Discount sorti en janvier 2015.blog371_phaffichediscount

Comme le décrit la journaliste Sandra Lorenzo dans le Huffington Post : « La caissière est une femme que les sociologues, comme Sophie Bernard, maître de conférences en sociologie à l’Université Paris Dauphine et auteure de « Être caissière », comparent souvent à un ouvrier spécialisé, « l’OS du tertiaire », avance-t-elle. Autrement dit, un employé sans qualification et sans formation spécifique comme cet ouvrier, symbole de l’ère industrielle « dont on exige seulement qu’il suive le rythme de la machine qu’il sert « selon la définition d’Alternatives Economiques. Leur machine à elles, c’est la caisse.

Les horaires flexibles sont aussi un des traits caractéristiques de ce métier. « Les caissières sont souvent embauchées en CDI mais avec un temps partiel imposé », explique Sophie Bernard. Les ressources humaines du supermarché s’adaptent aux rythmes des clients et privilégient donc le temps partiel pour coller au mieux aux besoins du magasin, ainsi leur emploi du temps varie souvent d’une semaine sur l’autre sans beaucoup de visibilité. « Payées au SMIC horaire, elles ont la possibilité de faire des heures complémentaires si l’affluence de clients le justifie. Peu d’entre elles le refusent, elles en ont besoin financièrement et cela peut-être un gage de leur motivation dans l’espoir un jour de décrocher un temps plein. »

blog371_phcaissierOutre le fait qu’elles travaillent avec une machine et qu’elles travaillent en horaires décalés, « la répétitivité des gestes, la soumission à des cadences » rappellent aussi le quotidien des ouvriers, souligne encore Sophie Bernard. A une différence près, et elle est de taille, « les caissières le revendiquent, elles ne travaillent pas en usine, elles sont en contact direct avec les clients et ne peuvent donc pas être remplacées par des machines », ajoute-t-elle. Mais cette dernière affirmation est-elle pérenne ?

La sociologue, Marlène Benquet, auteure de « Encaisser! Enquête en immersion dans la grande distribution » et d’un récit sur une grève dans un hypermarché marseillais intitulé « Les damnées de la caisse » a cherché à comprendre pourquoi. Les caissières sont au « carrefour du triple mouvement de féminisation, tertiairisation et précarisation du salariat » écrit-elle. Dans les années 1970, être caissière devient une activité professionnelle principale (et non plus d’appoint pour le ménage) et dans le même temps, l’activité se précarise à cause de « l’extension du travail à temps partiel », ainsi que le résume Jean-Michel Denis sur la plateforme Cairn.blog371_phlivreencaisser

Cette précarisation n’explique pas tout. Marlène Benquet montre qu’il s’agit aussi d’une profession placée « sous contrôle » aussi bien de sa hiérarchie que des clients et des autres caissières elles-mêmes. Un phénomène accentué par l’arrivée des caisses automatiques. Sophie Bernard a étudié ce phénomène. « La temporalité a complètement changé, analyse-t-elle, aujourd’hui une caissière peut être en charge d’une petite dizaine de caisses à la fois avec très peu de moment de pause comme c’était le cas entre chaque client à une caisse traditionnelle. Elles doivent avoir une attention permanente pour s’assurer que les clients n’ont pas de problème et qu’ils ne volent pas ».

La question qui se pose est bien sûr celle de l’emploi de personnes peu ou pas qualifiées. Même si en amont, la conception et la réalisation de nouvelles caisses automatiques ou de dispositifs numériques se substituant aux caisses requièrent de faire appel à plus de techniciens et d’ingénieurs, leur nombre ne saurait compenser le déficit d’emploi d’hôtesses de caisse.

blog371_phcaissiereauchanC’est donc bien un choix économique et social qui prévaut dont les premières victimes seront encore une fois les personnes les plus faiblement qualifiées qui viendront alors grossir le nombre des personnes en recherche d’emploi…. s’il en existe encore quelques-uns d’accessibles ! Moins de personnel cela signifie pour les groupes de la grande distribution moins de gestion des ressources humaines (les machines travaillent à toute heure et ne font pas grève), moins de charges sociales à payer et une accélération du flux de client et donc des rentrées financières.

Alors, réfléchissons bien lorsque nous faisons nos courses : Est-ce que pour le consommateur le gain de temps aux caisses est plus important que la suppression de postes de travail pour des personnels qui contribuent à humaniser un service et à créer de la richesse solidaire par le biais des charges sociales liées à leurs emplois ?

Maroiller

Euroméditerranée branchée en direct sur l’eau de la mer

26 novembre 2016

C’était un des projets phares du site Euroméditerranée, une des plus vastes opérations de rénovation urbaine d’Europe engagée en 1995 et qui concerne le réaménagement de près de 500 hectares en bordure du port de Marseille.

Les contours de l'opération d'intérêt national Euroméditerranée et son extension (en rouge)

Les contours de l’opération d’intérêt national Euroméditerranée et son extension (en rouge)

C’est d’ailleurs l’extension d’Euroméditerranée vers le nord sur 169 hectares en 2007 et l’attribution du label écocité en 2009 à cette extension qui a incité les promoteurs à développer les énergies renouvelables pour alimenter ce nouveau quartier en devenir, centré sur le ruisseau des Aygalades. Et c’est ainsi qu’est né ce projet qui consiste à déployer une boucle alimentée par l’eau de mer et permettant de chauffer (l’hiver) et de refroidir (l’été) des milliers de logements, bureaux et bâtiments publics en construction.

L’idée n’est pas nouvelle et est déjà appliquée en particulier sur Paris par des sociétés comme Climespace qui puise l’eau dans la Seine. L’eau ayant une température relativement constante toute l’année, permet grâce à des échangeurs thermiques et des pompes à chaleur de produire des calories pour alimenter un réseau urbain de chauffage, tandis que la circulation de l’eau froide sert à climatiser. L’utilisation de l’eau de mer pour alimenter de tels réseaux rend les choses plus complexes à cause de la minéralisation de l’eau mais le système est déjà été utilisé notamment à Monaco depuis plus de 30 ans et vient aussi d’être mis en œuvre à La Seyne-sur-mer.

Schéma de principe de la boucle de mer Thassalia (source Engie)

Schéma de principe de la boucle de mer Thassalia (source Engie)

Il n’en demeure pas moins que la centrale de géothermie marine, baptisée Thassalia, qui vient d’être inaugurée à Marseille le 17 octobre 2016, constitue une belle réussite technique. La convention signée en septembre 2014 entre l’écocité Euroméditerranée, le promoteur Constructa et la société Engie Cofély prévoyait une mise en service en janvier 2016. Le chantier a donc pris un peu de retard, mais est arrivé à son terme.

Le nouvel échangeur à eau de mer, d’une surface totale de 1500 m², a été construit sur le môle d’Arenc, face à la tour CMA CGM, à proximité de l’ancienne centrale thermique de Cap Pinède autrefois alimentée au charbon de Gardanne, comme un symbole de cette révolution énergétique qui permet de faire désormais appel à des énergies plus propres et renouvelables.

L’eau de mer est puisée dans les bassins du port à une profondeur d’environ 7 m, là où sa température varie assez peu toute l’année, entre 14 et 22 °C. Elle alimente ensuite un vaste échangeur thermique qui permet de réchauffer (l’hiver) et de refroidir (l’été) un circuit d’eau douce qui circule dans le sol sur plus de 3 km. Cette eau est réchauffée par des pompes à chaleur pour le système de chauffage urbain ou sert directement de fluide réfrigérant pour la climatisation des locaux, permettant ainsi d’économiser environ 40 % de la consommation électrique et 65 % de la consommation d’eau du nouveau quartier en pleine rénovation, tout en limitant de 70 % les émissions de gaz à effet de serre..

Vue de l'usine Thassalia (photo © C. Sollier / PHOTOPQR / La Provence)

Vue de l’usine Thassalia (photo © C. Sollier / PHOTOPQR / La Provence)

L’investissement global pour cette usine est de l’ordre de 35 millions d’euros, sachant qu’Engie a bénéficié pour sa mise en œuvre d’importantes subventions publiques de la part de l’ADEME, de la région PACA, du Département, de la Métropole et de la Ville de Marseille.

Le système alimentera en premier lieu l’immeuble des Docks, l’hôtel Golden Tulip et les bureaux d’Euromed Center, puis Constructa devrait y raccorder les tours des quais d’Arenc. D’ici 2020, il est envisagé d’en faire bénéficier également le futur multiplexe Pathé-Gaumont ainsi que les 2000 logements du programme résidentiel du Parc Habité d’Arenc. A terme, des extensions seront nécessaires pour alimenter au total plus de 500 000 m² de bâti, en espérant que les promoteurs se laissent convaincre de l’intérêt d’un tel raccordement, ce qui reste à démontrer, même si ceci est présenté comme un des enjeux forts de la nouvelle écocité en cours d’émergence sur cette extension d’Euroméditerranée.

Un beau projet en tout cas qui anticipe sur ce que sera la ville durable de demain…

L.V.  lutinvert1small